domingo, 28 de noviembre de 2010

LA CONJETURA PERELMAN

El genio, el hombre, el enigma

Por RODRIGO FERNÁNDEZ
EL PAÍS

Es uno de los grandes cerebros del siglo XXI. Ha revolucionado las matemáticas, abierto nuevos campos de investigación, resuelto la conjetura de Poincaré, recibido y rechazado los más altos galardones mundiales, incluido uno de un millón de dólares. Pero Grigori Perelman prefiere vivir aislado y pobre en un destartalado apartamento de San Petersburgo. ¿Por qué? ¿Qué se esconde detrás de este ser taciturno y egocéntrico, de este antiguo niño prodigio educado en los más avanzados laboratorios de la inteligencia soviéticos? Esta es la historia de Grisha, el genio.

viernes, 19 de noviembre de 2010

¿SE PUEDE SECUESTRAR A INTERNET?

En abril, el 15% del tráfico de internet fue "secuestrado" por servidores en China. El altercado más reciente entre China y Estados Unidos no es comercial, ni diplomático, sino informático.

Por DAVID CUEN
BBC Mundo

El 8 de abril de 2010 un 15% del tráfico de la red fue desviado por una empresa estatal china hacia su territorio en un evento que ha puesto bajo la lupa la seguridad de internet.

El gobierno chino niega haber secuestrado un porcentaje del tráfico de internet, hecho que fue denunciado por un informe presentado ante el Congreso de Estados Unidos.

Pero más allá de las declaraciones públicas, el hecho ocurrido hace más de seis meses lleva a cuestionarse sobre sí es posible secuestrar la información que viaja por la red o hacer "desaparecer" del mapa a sitios web.

La respuesta es sí y vamos a explicarle por qué.

Una red de redes de computadoras

El tráfico de internet se basa en un protocolo llamado IP (Internet Protocol en inglés) que es un "idioma" que le permite a las computadoras conectadas a la red hablar entre sí, identificarse y transmitir información.

Internet no es otra cosa que la agrupación de todas esas computadoras conectadas en red en una gigantesca red global.

Cuando una computadora -la suya por ejemplo- le pide información a otra -un sitio de internet, siguiendo con el ejemplo- la solicitud atraviesa una gran cantidad de computadoras (usualmente en varios países), hasta llegar a su destino final.

Pero en el camino las computadoras van hablando entre sí como si estuvieran pidiendo indicaciones de tránsito. Y los que las dirigen son los proveedores de servicios de internet (conocidos como ISP en inglés).

Cada uno de ellos tiene una lista llamada sistema autónomo (AS, en inglés) que contiene las rutas que pasan por su jurisdicción, como una caseta de peaje. Entonces cuando una computadora quiere llegar a otra que está en la lista del proveedor o cerca de él, éste se lo indica y el tráfico se dirige hacia su rumbo.

El problema es que teóricamente este sistema es bastante vulnerable a un ataque conocido como "secuestro de IP" en el que hackers maliciosos asaltan dicha lista.

Puede ser que lo hagan para mentir sobre el tráfico que controlan o para asegurar que pasar por ellos es la ruta más corta hacia un destino en internet.

Ya ha ocurrido en el pasado que por mala intención o por accidente las listas de direcciones de los proveedores hayan otorgado información incorrecta.

Secuestro posible

Así que basta con alterar uno de esos sistemas autónomos para "engañar" el tráfico en internet y dirigirlo a otro lado secuestrando así el trafico y la información que éste conlleva.

El riesgo es mayor si el propósito del desvío es capturar información protegida o dirigirlo hacia sitios de internet falsos que engañan al usuario haciéndole creer que está en un sitio cuando en realidad se encuentra en otro.

"Incidentes de esta naturaleza pueden tener un buen número de implicaciones graves" se lee en el informe presentado ante el Congreso estadounidense.

"Este nivel de acceso puede permitir el vigilar a usuarios o sitios específicos. Puede interrumpir el intercambio de datos y prevenir que un usuario establezca una conexión con un sitio", asegura el documento.
Además, cuando un proveedor de servicios de internet miente sobre sus rutas, el efecto es multiplicador.

En el caso de China comenzó con un pequeño ISP, pero sus rutas fueron recogidas por la estatal China Telecom y pronto otros proveedores como Telefónica, AT&T, y Deutsche Telekom fueron engañados, según se desprende de un documento la empresa de investigación tecnológica IDG.

Entre los sitios cuyo tráfico se vio afectado se encontraban varias páginas del gobierno de Estados Unidos y de empresas como Yahoo!, Microsoft, Apple y Starbucks. Entre otras.

El pequeño proveedor que usualmente cobija unas pocas decenas de direcciones, súbitamente informó a las otras máquinas que era la ruta más rápida para decenas de miles de sitios. Y las máquinas le creyeron.
Si el ataque fue intencional o un accidente es algo que aún hay que definir.

Algunos expertos creen que este tipo de fallas serán más comunes en los próximos meses cuando internet se mude de un protocolo de direcciones (IPv4) a otro (IPv6)

"La causa más común de interrupciones en internet viene de los fallos en el software asociado con la transición hacia IPv6" dijo a la BBC el Dr. Ross Anderson, de la Universidad de Cambridge, quien agregó que la amenaza de los ataques externos contra la red se agravará con el paso del tiempo.

AL IGUAL QUE LA DEMOCRACIA, LA WEB NECESITA SER DEFENDIDA, DICE SU CREADOR

Por MATHEW INGRAM


La web se ha entrelazado en nuestras vidas hasta tal punto que es fácil darla por algo común y corriente, y olvidar el increíble recurso que es, o las cosas increíbles que nos permite hacer como sociedad. Sin embargo, Sir Tim Berners-Lee - el hombre que creó la web hace 20 años el próximo mes, en su computadora de escritorio en Ginebra - dice que existen amenazas a la libertad de la web en nuestro derredor, y que tenemos que luchar contra éstas de la misma forma en que luchamos para proteger nuestras libertades en el mundo real.

¿De dónde vienen esas amenazas en línea? Berners-Lee dice, "los grandes sitios de redes sociales están aislando la información publicada por sus usuarios del resto de la Web," en lo que parece ser una clara referencia al enfoque de Facebook de poner paredes de jardín a la forma de compartir cosas como las direcciones de correo electrónico de sus usuarios, y más adelante menciona específicamente a Facebook como “un silo". Las otras amenazas potenciales, dice, incluyen suministradores de servicios inalámbricos de Internet que "están siendo tentados a frenar el tráfico a los sitios con los que no mantienen relaciones comerciales", y también a los gobiernos - totalitarios y democráticos por igual - que están “monitoreando los hábitos de la gente en línea y poniendo en peligro derechos humanos importantes.”

El padre de la web también hace lo que parece ser alusión apenas velada a Apple, diciendo que si las tendencias que se están manifestando hacia entornos más cerrados en la web no son verificados, "podríamos perder la libertad de conectarnos con cualquiera de los sitios Web que queramos [y] los efectos negativos podrían extenderse a los teléfonos inteligentes (Smartphones) y a los cojines (Pads), que también son portales de la amplia información que suministra la Web. Más adelante en la pieza, él menciona a Apple específicamente como una de las empresas que no admite la vinculación abierta a cosas como las canciones de iTunes. Él dice que la mayoría de aplicaciones de iPad son "mundos cerrados", ya que tampoco permiten el intercambio de enlaces o contenido.

En cierto modo, la lista de amenazas de Berners-Lee a la web de código abierto suena muy parecida a la pieza reciente de la revista Wired titulado "La Web ha muerto", que también echó un vistazo a la aparición de aplicaciones y la evolución hacia espacios protegidos al estilo AOL. La pieza de Wired recibió algunas críticas por parte de muchos (incluyéndome a mi) porque parecía ser demasiado negativa, sobre todo porque gran parte de lo que la revista describe como no-web - aplicaciones de Smartphone y así sucesivamente - todavía dependen de protocolos de la red, aunque estén ocultos a la vista. Pero Berners-Lee se hace eco de la preocupación de Wired acerca de que los jugadores grandes controlen el acceso a la información de diversas maneras.

Otros han levantado banderas de advertencia similar sobre las amenazas potenciales a la web de código abierto por parte de gigantes de la información cuasi-monopolios como Google, Facebook y Apple - incluyendo a Tim Wu, profesor de leyes de la Universidad de Columbia, que acuñó el término "neutralidad de la red", y advierte en su más reciente libro “El conmutador maestro” (The Master Switch) que en lugar de un monumento al mercado abierto, la Internet está empezando a lucir "como un tablero de Monopoly", y que la Internet puede incluso tender a favorecer los monopolios.

No todos están de acuerdo, sin embargo, en que Google o Facebook sean en realidad monopolios en ningún sentido jurídico, a pesar de que son definitivamente jugadores dominantes. Y aunque Google es claramente un gigante de la web, Yahoo y AOL fueron una vez gigantes de Internet también, y hoy son sombras de sí mismos, desplazados por jugadores completamente nuevos. Incluso Facebook, que ahora se ve como una de las empresas a temer, se ve amenazada de muchas maneras por Twitter - un novato que apenas existía hace unos años y ahora según los informes está valorada en cerca de $3 mil millones.

Dicho esto, vale la pena recordar que los jugadores principales, a menudo ven como a favor de sus intereses el restringir la libertad de sus usuarios, y que - como advierte Berners-Lee en su pieza de Scientific American - esto puede minar los principios fundamentales de la web, los que él dice giran en torno a "un concepto profundo: que cualquier persona puede compartir información con cualquier otra persona, en cualquier lugar." Si eso llega a ser limitado por las compañías que controlan el flujo de esa información, dice, "la Web puede ser dividida en islas fragmentadas." ¿Por qué nos preocupamos por estas incursiones potenciales en la web abierta? Berners-Lee dice:

Debido a que la Web es suya. Es un recurso público del que dependen usted, su negocio, su comunidad y su gobierno. La Web es también vital para la democracia, un canal de comunicación que hace posible una conversación continua en todo el mundo. La Web es ahora más esencial para la libertad de expresión que cualquier otro medio. Aporta principios establecidos en la Constitución de los EE.UU., la Carta Magna británica y otros documentos importantes en la era de las redes: protección a ser fisgoneado, filtrado, censurado y desconectado.

¿Más crítico a la libertad de expresión que cualquier otro medio? Esa es una afirmación fuerte - pero ciertamente se puede argüir que la Web se ajusta a esa definición. La capacidad de enviar información a cualquier persona, de vincular contenido dondequiera que exista, y publicar casi al instante parece tan común ahora que nos olvidamos de lo importante que es, en casi exactamente del mismo modo en que la democracia es importante. Es bueno recordarlo, y Tim Berners-Lee es sin duda quien está mejor preparado para hacerlo.

Noviembre 19, 2010

martes, 5 de octubre de 2010

Nobel de Física para dos científicos rusos por sus trabajos sobre el grafeno

Andre Geim y Konstantin Novoselov han hecho experimentos fundamentales de este nuevo material bidimensional que tiene propiedades únicas y múltiples aplicaciones potenciales

Andre Geim y Konstantin Novoselov, científicos de la Universidad de Manchester (Reino Unido), han sido distinguidos este año con el Premio Nobel de Física "por sus experimentos fundamentales sobre el material bidimensional grafeno ", según ha anunciado hoy el Comité Nobel de la Academia de las Ciencias de Suecia.

Una lámina de carbono, de un átomo de grosor, está detrás del Nobel de Física de este año. Los dos galardonados, Geim (Rusia, 1958) y Novoselov (Rusia, 1974), han demostrado que el carbono en esa configuración plana tiene propiedades extraordinarias originadas en el mundo de la física cuántica. El grafeno es un nuevo material, extremadamente delgado y resistente que, como conductor de la electricidad, se comporta como el cobre, y como conductor de calor, supera a cualquier otro material conocido. Es casi completamente transparente y tan denso que ni siquiera el helio, el átomo de gas más pequeño, puede atravesarlo, explica la Fundación Nobel.

Geim, de nacionalidad holandesa, y Novoselov, británico-ruso, obtuvieron el grafeno a partir del grafito normal, el material de las minas de los lápices, y lograron una lámina de un grosor de solo un átomo. Muchos pensaban entonces que era imposible que un material así fuera estable. Sin embargo, a partir de los trabajos de estos dos científicos, los físicos pueden estudiar ahora una nueva clase de materiales bidimensionales con propiedades únicas.

El grafeno también tiene una amplia variedad de aplicaciones posibles, incluida la fabricación de nuevos materiales y de dispositivos electrónicos avanzados. Los transistores de grafeno pueden ser sustancialmente más rápidos que los actuales de silicio, con lo que se podrán fabricar ordenadores más eficaces. También, como es transparente y un buen conductor, se vislumbran aplicaciones en pantallas de dispositivos electrónicos e incluso paneles solares.

Geim, en una conferencia vía telefónica, ha declarado que no esperaba el premio y que intentará evitar que esta distinción cambie su rutina. "Mi plan para hoy es ir al trabajo y terminar un artículo que tengo pendiente", ha señalado. El Comité Nobel ha informado de que Novoselov, de 36 años, es el físico más joven premiado con un Nobel desde 1973, informa la agencia Reuters.

El Nobel de Física se entrega desde 1901 (excepto en años concretos: 1916, 1931, 1934, 1940, 1941 y 1942) y está dotado con 10 millones de coronas suecas (1,1 millones de euros).

EL PAÍS - Madrid - 05/10/2010

domingo, 3 de octubre de 2010

El futuro según Eric Schmidt de Google

Eric Schmidt de Google

Por Maggie Shiels
BBC Mundo

El futuro

La visión del mundo de Eric Schmidt es que los habitantes del planeta en el futuro no se sentirán nunca solos, ni se olvidarán de nada, nunca se perderán, ni les faltarán ideas, jamás se aburrirán y quizá ni siquiera necesitarán conducir un carro, porque podrá conducirse solo.

Aunque esta última idea puede parecer una broma, el jefe ejecutivo de Google afirmó que "es increíble que dejemos a los humanos manejar vehículos. Es un error que los carros fuesen inventados antes que las computadoras".

Afirma que tener computadoras que naveguen las autopistas o las carreteras dejará a los humanos libres para hacer lo mejor que saben hacer en el interior de un carro: charlar o comer.
En el centro de esta nueva visión del mundo tan aventurera se sitúa, como no, la computadora.

"Estamos en uno de esos momentos claves en el mundo de la tecnología donde algo interesante está a punto de ocurrir", declaró el presidente ejecutivo de Google ante un grupo de empresarios, reporteros, analistas y blogueros en una conferencia de tecnología llamada TechCrunch Disrupt que tuvo lugar en San Francisco.

Transición

"Estamos en un momento de transición en la forma en que las personas usan las computadoras".

Schmidt señaló que una manera de describirlo o de pensarlo conceptualmente sería "construir una versión aumentada de la humanidad. Hacer que las computadoras nos ayuden a hacer cosas en las que no somos demasiado buenos y tener humanos ayudando a las computadoras en cosas en las que no son las mejores".

Esto incluye todo: desde ayudarnos a crear y gestionar listas hasta navegar por el mundo, pasando por mostrarnos las realidades que nos rodean, entretenernos las 24 horas del día o ayudarnos a estar en contacto con amigos y compañeros en línea.

El objetivo final sería, según Schmidt, asegurarse que todo el mundo tenga una vida más feliz.

Relevante

Algo central a esta cuestión es la información, que es, por supuesto, donde entra Google, como una compañía que organiza la gran cantidad de datos disponibles en el mundo para tratar de hacerlos accesible a todos.

Según dijo Schmidt, el tráfico de búsquedas se triplicó a lo largo de la primera mitad de 2010 y Google alcanzó un nuevo récord con más de dos mil millones de búsquedas diarias mientras que YouTube logró el mismo número de visitas en un día.

Convertir esta información en algo relevante es lo que resulta cada vez más importante, afirma Schidmt, a medida que cada vez más computadoras filtran dirigen información que es personal para los usuarios basada en cuanto contenido quieren compartir.

En el futuro, remarcó, "podemos sugerir dónde ir la próxima vez, con quién encontrarse, qué leer... Lo que es interesante acerca de este futuro es que estará disponible para cualquier persona, no solo para las élites".

Futuro y presente

"De alguna forma Schmidt habla del futuro pero también del presente", afirma Brad McCarthy, que es el experto en tecnología de Google para el blog Next Web.

"Mi vida personal ya constituye una realidad aumentada de ella misma. Tomemos como ejemplo cuando volví a mi hotel ayer. No saqué ningún mapa sino que utilicé Google maps. El GPS del celular sabía exactamente dónde me encontraba y también lo sabía Google porque le dí el permiso para saberlo. Este tipo de comportamiento simplemente ilustra esta realidad".

"Todas estas compañías están permitiendo nuevas cosas que previamente no eran posibles, pero al final del proceso el usuario tiene que ser el que mantenga el control". Greg Tseng, cofundador de la red social Tagged

Pero no todo el mundo está tan fascinado por la visión de Smichdt del futuro cercano. "No se trata de que las predicciones de Schmidt sean falsas o incorrectas: las semillas para ese futuro fueron plantadas hace mucho tiempo", afirma Tom Krazit que escribe sobre tecnología en el sitio web de noticias CNET.com.

"Pero Schmidt y Google nunca parecen entender cuánto asusta a la población cuando evangelizan sobre un futuro que le quita énfasis al papel de las personas en la vidas diaria. Y entonces se producen dos opiniones de Google: los que creen que la compañía está cambiando el mundo para mejor con sus esfuerzos por organizar la información y los que opinan que Google lo que realmente quiere es dirigir la vida de las personas desde sus computadoras, o más específicamente, desde las computadoras de Google. La verdad, como siempre, es algo a mitad de camino".

"Unfriend"

Para Greg Tseng, cofundador de una red social llamada Tagged, "todas estas compañías están permitiendo hacer cosas que previamente no eran posibles, pero al final del proceso el usuario tiene que ser el que mantiene el control".

"Hay veces en que simplemente quiero desconectar mi celular y de todo lo demás y perderme en un bosque. Y no estar constantemente pendiente de mis actualizaciones de Facebook y de Google maps".

Lo que concuerda con un dato interesante.

Schmidt reveló que en 2009 el diccionario Oxford de inglés notó que la palabra "unfriend" (deshacerse de amigo en una red social) fue la más popular del año.

jueves, 2 de septiembre de 2010

DIOS NO CREÓ EL UNIVERSO, DICE STEPHEN HAWKING

La creación espontánea es la razón por la que hay algo en lugar de nada, el porqué de la existencia del Universo, el porqué de nuestra existencia.

Stephen Hawking

Uno de los físicos más eminentes del mundo, Stephen Hawking, dice haber cambiado de parecer con respecto a la creación del Universo y ahora afirma que Dios no tuvo nada que ver en ello.

En el pasado, Hawking expresó que la idea de un creador divino no era incompatible con el entendimiento científico del cosmos.

Pero en su libro más reciente, "El gran diseño", sostiene que las nuevas teorías dejan en claro que el fenómeno conocido como el Big Bang (la explosión que dio origen al Universo) fue una consecuencia inevitable de las leyes de la física.

"No es necesario invocar a Dios para encender la mecha y darle inicio al Universo", concluye el científico.

En su anterior libro de 1988, el popular "Una breve historia del tiempo", Hawking pareció aceptar la mano de Dios en la creación del cosmos.

"Si pudiéramos descubrir una teoría completa, sería el máximo triunfo de la razón humana, porque entonces conoceríamos la mente de Dios", escribió entonces.

Sin embargo, en su última obra, el físico más famoso del Reino Unido disputa la creencia de Isaac Newton, quien afirmó que el Universo debió haber sido diseñado por Dios y no pudo haber surgido del caos.

De la nada
Hawking identifica el descubrimiento, en 1992, de un planeta en órbita alrededor de una estrella diferente a nuestro Sol como la primera grieta en la teoría divina.

"Eso hace que las coincidencias de nuestras condiciones planetarias -un único Sol, la combinación de la distancia entre el Sol y la Tierra y la masa solar- sean mucho menos excepcionales y mucho menos convincentes como evidencia de que la Tierra fue cuidadosamente diseñada sólo para satisfacer a los seres humanos", sostiene.

El científico explica que es por la ley de la gravedad que el Universo puede crearse de la nada.

"La creación espontánea es la razón por la que hay algo en lugar de nada, el porqué de la existencia del Universo, el porqué de nuestra existencia".

El coautor del libro es el físico estadounidense Leonard Mlodinow y saldrá a a la venta el 9 de septiembre.

La publicación de "El gran diseño" ocurrirá una semana antes de que el papa Benedicto XVI visite el Reino Unido.

domingo, 15 de agosto de 2010

Fuel Cells o Celdas de combustible

¿Qué es una celda de combustible?
Por Claudio Otero

Ver animación en Celdas de combustible


En principio, una celda de combustible opera como una batería. Genera electricidad combinando hidrógeno y oxígeno electroquímicamente sin ninguna combustión. A diferencia de las baterías, una celda de combustible no se agota ni requiere recarga. Producirá energía en forma de electricidad y calor mientras se le provea de combustible. El único subproducto que se genera es agua 100% pura.

jueves, 15 de abril de 2010

Cómo trabajan los LEDs

Por Isaías Ferreira

Los LEDs (Diodos emisores de Luz) difieren de las fuentes de luces tradicionales en la forma en que producen luz. En una lámpara incandescente, un filamento de Tungsteno es calentado por una corriente eléctrica hasta que éste brilla o emite luz. Una lámpara fluorescente, un arco eléctrico excita los átomos de mercurio, los cuales emiten radiaciones ultravioleta (UV). Después de impactar el recubrimiento de fósforo en el interior de los tubos de vidrio, la radiación ultravioleta es convertida y emitida como luz visible.

En contraste, un LED es un diodo semiconductor. Consiste de un “chip” de material semiconductor tratado para crear una estructura llamada una juntura p-n (positivo-negativo). Cuando ésta se conecta a una fuente de energía, la corriente fluye desde el lado-p o ánodo, hacia el lado-n, o cátodo, pero no en la dirección opuesta. Portadores de carga (electrones y hoyos) fluyen hacia la juntura desde los electrodos. Cuando un electrón y un hoyo se juntan, el electrón cae a un nivel de energía más bajo, y libera energía en forma de un fotón (luz).

La longitud de onda específica o el color emitido por el LED depende del material utilizado para hacer el diodo.

Los LED rojos están fabricados con arseniuro de galio y aluminio (AlGaAs). Los LED azules están hechos de nitruro de galio e indio (InGaN) y los verdes de fosfuro de galio y aluminio (AlGaP). La luz blanca es creada combinando la luz de LEDs rojos, verdes y azules (RGB) o cubriendo un LED azul con una capa de fósforo amarillo. Para más información, ver la sección “Calidad de Color” (Quality Color).

sábado, 3 de abril de 2010

Los LEDs

Vía The Sietch blog, leemos un interesante artículo que trata sobre las ventajas de sustituir la iluminación tradicional de bombillas en las calles por LEDs.

Un LED, es un diodo emisor de luz, esto es, un dispositivo semiconductor que emite luz cuando circula por él corriente eléctrica. Su gran ventaja frente a las tradicionales bombillas de filamento de tungsteno, e incluso frente a las bombillas de bajo consumo, radica en su eficiencia energética:

• Los Diodos LED no poseen un filamento de Tungsteno como las bombillas. Por ello, son más resistentes a los golpes y su duración es mayor ya que no dependen de que el filamente se termine quemando (Cuando las bombillas se funden)

• La eficiencia de los LEDs es mucho mayor. Mientras el rendimiento energético de una bombilla es del 10% (Sólo una décima parte de la energía consumida genera luz), los diodos LED aprovechan hasta el 90%.

• El equivalente a una bombilla se puede construir con aproximadamente una decena de LEDs. Si alguno se rompe es incluso posible sustituirlo. Son baratos y fáciles de fabricar.

Según el artículo, la ciudad de Raleigh, está llevando a cabo un programa piloto para instalar en las calles una iluminación basada en LEDs, que les permitirá ahorrar hasta el 40% de energía.

Los diodos infrarrojos (IRED) se emplean desde mediados del siglo XX en mandos a distancia de televisores, habiéndose generalizado su uso en otros electrodomésticos como equipos de aire acondicionado, equipos de música, etc., y en general para aplicaciones de control remoto, así como en dispositivos detectores, además de ser utilizados para transmitir datos entre dispositivos electrónicos como en redes de computadoras y dispositivos como teléfonos móviles, computadoras de mano, aunque esta tecnología de transmisión de datos ha dado paso al bluetooth en los últimos años, quedando casi obsoleta.

Lo que sigue es tomado de Wikipedia

Los LEDs se emplean con profusión en todo tipo de indicadores de estado (encendido/apagado) en dispositivos de señalización (de tránsito, de emergencia, etc.) y en paneles informativos (el mayor del mundo, del NASDAQ, tiene 36,6 metros de altura y está en Times Square, Manhattan). También se emplean en el alumbrado de pantallas de cristal líquido de teléfonos móviles, calculadoras, agendas electrónicas, etc., así como en bicicletas y usos similares. Existen además impresoras LED.

El uso de diodos LED en el ámbito de la iluminación (incluyendo la señalización de tráfico) es moderado y es previsible que se incremente en el futuro, ya que sus prestaciones son superiores a las de la lámpara incandescente y la lámpara fluorescente, desde diversos puntos de vista.

La iluminación con LEDs presenta indudables ventajas: fiabilidad, mayor eficiencia energética, mayor resistencia a las vibraciones, mejor visión ante diversas circunstancias de iluminación, menor disipación de energía, menor riesgo para el medio ambiente, capacidad para operar de forma intermitente de modo continuo, respuesta rápida, etc. Asimismo, con LEDs se pueden producir luces de diferentes colores con un rendimiento luminoso elevado, a diferencia de muchas de las lámparas utilizadas hasta ahora, que tienen filtros para lograr un efecto similar (lo que supone una reducción de su eficiencia energética). Cabe destacar también que diversas pruebas realizadas por importantes empresas y organismos han concluido que el ahorro energético varía entre un 70% y 80% respecto a la iluminación tradicional que se utiliza hasta ahora.

Todo ello pone de manifiesto las numerosas ventajas que los LEDs ofrecen en relación al alumbrado público.

Los LEDs de Luz Blanca son uno de los desarrollos más recientes y se pueden considerar como un intento muy bien fundamentado para sustituir las bombillas actuales por dispositivos mucho más ventajosos. En la actualidad se dispone de tecnología que consume un 92% menos que las bombillas incandescentes de uso doméstico común y un 30% menos que la mayoría de los sistemas de iluminación fluorescentes; además, estos LEDs pueden durar hasta 20 años y suponer un 200% menos de costes totales de propiedad si se comparan con las bombillas o tubos fluorescentes convencionales. Estas características convierten a los LEDs de Luz Blanca en una alternativa muy prometedora para la iluminación.

También se utilizan en la emisión de señales de luz que se trasmiten a través de fibra óptica. Sin embargo esta aplicación está en desuso ya que actualmente se opta por tecnología laser que focaliza más las señales de luz y permite un mayor alcance de la misma utilizando el mismo cable. Sin embargo en los inicios de la fibra óptica eran usados por su poco escaso coste, ya que suponían una gran ventaja frente al coaxial (aun sin focalizar la emisión de luz).

En corriente continua (CC), todos los diodos emiten una cierta cantidad de radiación cuando los pares electrón-hueco se recombinan, es decir, cuando los electrones caen desde la banda de conducción (de mayor energía) a la banda de valencia (de menor energía), emitiendo fotones en el proceso. Indudablemente, la frecuencia de la radiación emitida y, por ende, su color, dependerá de la altura de la banda prohibida (diferencias de energía entre las bandas de conducción y valencia), es decir, de los materiales empleados. Los diodos convencionales, de silicio o germanio, emiten radiación infrarroja muy alejada del espectro visible. Sin embargo, con materiales especiales pueden conseguirse longitudes de onda visibles. Los LED e IRED, además tienen geometrías especiales para evitar que la radiación emitida sea reabsorbida por el material circundante del propio diodo, lo que sucede en los convencionales.

domingo, 14 de febrero de 2010

La música alta, un verdadero dolor de oídos

Por Fernando Peinado

La Nación, Argentina.

Aunque el autor se refiere específicamente a Buenos Aires, Argentina, el mal está tan difundido que el enfoque general del artículo puede aplicarse a una variedad de lugares.


Lo llaman "el mal de la juventud actual". Al salir de un boliche o de un recital, muchos se quejan de un zumbido agudo en los oídos. Esa sensación, llamada acúfeno por los expertos, suele desaparecer a las pocas horas, pero, en ocasiones, persiste durante días.

"Estamos ante un claro síntoma de daño en el oído interno, que puede llegar a ser irreversible", advierte el otorrinolaringólogo Hernán Chimski, del Hospital de Clínicas.

La pérdida de audición se extiende entre los argentinos y el ocio ruidoso es uno de los principales culpables, dicen los especialistas.

La ley que rige en la ciudad de Buenos Aires, donde se concentra la mayoría de las discos, no impone límites al nivel de ruido dentro de establecimientos de espectáculos públicos, de locales bailables y de actividades recreativas. Sólo los obliga, en caso de que superen los 80 decibeles, a colocar en un lugar visible el aviso: "Los niveles sonoros en este lugar pueden provocarle lesiones permanentes en el oído". La norma, sin embargo, es sistemáticamente incumplida. La Agencia de Protección Ambiental porteña reconoce que hasta hoy no ha controlado la colocación de los avisos de advertencia, a pesar de que es obligatorio desde mayo del año pasado, cuando se reglamentó la 1540, llamada ley del ruido.

Juan Carlos Piñer, encargado de la Dirección de Control de la Calidad Ambiental, alega recursos limitados. "Por esa razón, nuestra prioridad es atender las denuncias de los vecinos que viven cerca de estos locales ruidosos, ya que su perjuicio es involuntario", admitió.

Precisamente, la ley 1540 establece topes para el nivel de ruido que pueden emitir las discos fuera de los locales. En la puerta del establecimiento, varía entre los 50 y los 60 dB, según el tipo de zonificación del sector donde funciona. En tanto, el ruido emitido por los boliches debe mantenerse entre 40 y 60 decibeles si se lo mide dentro de la casa de un vecino.

Pero eso no es todo: quienes más riesgo corren de padecer secuelas de estos niveles agudos de ruido son los más chicos, que suelen ser llevados por sus padres a locales donde los juegos electrónicos emiten decibeles muy superiores a los que sus oídos sensibles pueden soportar.

Fuera de la ley

Durante una recorrida por discotecas de la calle Niceto Vega y sus alrededores, LA NACION pudo comprobar cómo prácticamente ninguno exhibe de manera visible el cartel dispuesto por ley, y aquellos que cumplen, como es el caso del Niceto Club, al 5510 de esa calle, sólo lo hacen parcialmente, ya que no respetan ni las dimensiones ni el color ni el mensaje de texto.

Las multas por quebrantar la ley del ruido oscilan entre 2000 y 30.000 pesos para los locales bailables, según el artículo 42. Cuando no se facilite el acceso a los agentes de la autoridad para realizar los controles pertinentes, se prevé un castigo de entre 6000 y 15.000 pesos.

"Se trata de un aviso similar al que figura en otros productos perniciosos, como el tabaco, que serviría para crear conciencia, ya que, mientras no moleste a los vecinos, dentro del local la música puede subirse al máximo", explica la presidenta de la asociación civil Oír Mejor, Silvia Cabeza.

Los niveles sonoros de las discotecas porteñas superan los 120 decibeles en la mayoría de los casos, según ha verificado Oír Mejor por medio de mediciones con sonómetros de alta precisión.

"Cada vez atiendo a más pacientes con zumbidos intensos después de asistir a un recital o a una discoteca. Algunos pasaron la noche al lado del parlante y acuden a mí preocupados porque, después de días, la molestia sigue ahí", afirma Chimski. Los médicos denominan acúfeno a esta dolencia, y se suele percibir más por la noche porque hay más silencio en el ambiente.

Con este panorama, los jóvenes se las deben ingeniar para evitar quedar sordos sin dejar de divertirse con amigos. Analía Anchel, de 24 años, debió visitar al médico con un acúfeno muy intenso que le duró varios días, después de haber asistido a un boliche bonaerense. "Ahora evito la cercanía de los parlantes, en especial cuando están a ras del suelo, muy cerca de los oídos. En verano, intento ir a discotecas al aire libre, donde el sonido se dispersa más".

Entre los ruidos que superan los 110 decibeles, por ejemplo, se encuentran los que producen el bocinazo de un automóvil a un metro de distancia, la sirena de una ambulancia, un concierto de rock, una motocicleta con escape libre, un trueno a 600 metros a la redonda, los parlante trasero de un vehículo y un jet antes de despegar.

Los otorrinolaringólogos recomiendan proteger los oídos con algodones. "Son menos herméticos que, por ejemplo, unos tapones de silicona", dice Chimski. "Influye mucho el tiempo de exposición. No es lo mismo escuchar música durante una hora que durante ocho", añade.

"No hay estudios en la Argentina, pero, a escala mundial, la American Tinnitus Association (ATA) calcula que entre el 15 y el 18 por ciento de la población sufre de acúfeno", según el especialista Darío Roitman, quien agrega que, dentro de poco tiempo, el número de afectados irá creciendo en forma alarmante si la tendencia continúa. "En sólo tres años, he recibido un 20% más de pacientes con acúfeno", cuenta.

Europa lleva años de ventaja a la Argentina en la lucha contra el ruido, según Cabeza.

"Allí se han dado cuenta de que combatir la contaminación acústica es conveniente, incluso desde un punto de vista estrictamente económico, ya que descienden los gastos de la sanidad pública", explica.

Roitman detalla una medida que evitaría muchas lesiones: "En Europa se controla el ruido también en el interior de las discotecas. Sólo se puede superar cierto nivel de decibeles durante un tiempo limitado".

Colectivos

Según estudios realizados en la ciudad por el Departamento de Acústica y Electroacústica de la Universidad de Buenos Aires (UBA), que dan cuenta de que la Capital es una de las ciudades más ruidosas de América del Sur, el parque automotor es uno de los máximos responsables de esta situación. En los últimos 30 años, se triplicó el nivel de ruidos en la ciudad. Y son los colectivos los mayores contaminantes.

Efectos nocivos para la salud

• La Organización Mundial de la Salud (OMS) considera que exposiciones prolongadas a niveles superiores a 75 decibeles (dB) o bien a sonidos de corta duración, pero de más de 110 dB, pueden causar una sordera permanente. Y establece cómo afecta esa progresión ruidosa en la salud.
• Ya, a partir de 30 dB, aparecen dificultades para dormir.
• Con 40 dB se dificulta la comunicación verbal.
• 45 dB pueden interrumpir el sueño.
• 50 dB, malestar diurno fuerte.
• 65 dB, comunicación verbal extremadamente difícil.
• 75 dB, pérdida de la audición en el largo plazo.
• 110-140 dB, pérdida de la audición en el corto plazo.

martes, 2 de febrero de 2010

La superconductividad

Por Isaías Ferreira

Los metales son buenos conductores de la electricidad; o sea, ofrecen poca resistencia a la misma. Ahora bien, el paso de la electricidad a través de los conductores genera calor lo cual se traduce en pérdida de energía, situación indeseable la mayoría de veces. Se calcula que un 10% de la energía generada por una planta se pierde en las líneas de transmisión. He ahí una situación que podría aliviarse con el uso de superconductores.

El fenómeno de la superconductividad fue observado por primera vez en 1911 por el físico danés H. K. Onnes en experimento hecho con Mercurio a 4 grados Kelvin (452 grados Fahrenheit bajo cero).

Los superconductores son materiales, elementos o aleaciones que pierden toda resistencia a temperaturas extremadamente bajas. Estas temperaturas, llamadas temperaturas críticas (Tc) —progresivamente más altas para los diferentes materiales que se van descubriendo—, pueden ser obtenidas por medio de refrigeración con Helio o Nitrógeno en estado líquido. Estamos hablando de temperaturas en la vecindad del cero absoluto; o sea, 0 grados Kelvin (K), (460 grados Farenheit (F) ó 273 grados Celsius (ºC) bajo cero). El Nitrógeno líquido tiene una temperatura de 77 K (321 F ó 196 ºC bajo cero). Se ha logrado producir materiales que alcanzan superconductividad a temperaturas tan altas como 133 ºC bajo cero. Con esos requerimientos de temperaturas tan bajas es económicamente prohibitivo e impráctico tomar ventaja en gran escala de todos los beneficios de la superconductividad, pero la actividad en ese campo es grande y los resultados promisorios.

Debido a que estos materiales pierden toda resistencia cuando alcanzan superconductividad, una vez una corriente eléctrica se pone en movimiento, como no hay pérdida de energía, pueden conducir por largo tiempo, que es lo mismo que decir almacenan energía. Otra característica de los superconductores es que repelen los campos magnéticos, por lo que un imán que se coloque encima de un

superconductor levita o flota en el aire. (Haga clic Aquí para una demostración de la levitación magnética). Este fenómeno, conocido como el Efecto Meissner, en honor a su descubridor, Walter Meissner, ha sido utilizado en la construcción de trenes. En Japón, uno de esos trenes experimentales, que por flotar en el aire encuentra cero resistencia en forma de fricción, ha llegado a alcanzar velocidades de más de 300 millas por hora.

Entre los usos de los superconductores están los cables de transmisión de alto voltaje, generadores de electricidad, almacenamiento de energía, las máquinas de imagen por resonancia magnética (MRI), “chips” de computadoras ultra-rápidos, memorias digitales de alta velocidad y capacidad, antenas inalámbricas de transmisión miniaturizadas, sistemas para detectar submarinos y minas submarinas y los trenes de levitación por magnetismo.

Imagine materiales superconductores a temperaturas ambientales (25 ºC ó 72 F)... aunque es elusivo, no faltan los reclamos periódicos de que se ha logrado. Otro campo promisorio del que hablaré en el futuro y que también recibe su cuota de falsos reclamos periódicamente es el de la Fusión Nuclear en estado ambiental. Para más información sobre la superconductividad, visite Superconductors

HISTORIA Y EVOLUCIÓN DE LA SUPERCONDUCTIVIDAD


CÓMO FUNCIONA UN TREN CON LEVITACIÓN MAGNETICA.AVI

lunes, 11 de enero de 2010

Ventanas que no necesitan ser limpiadas y supercondensadores para automóviles eléctricos

Nanotecnología
Amazings

¿Una cobertura para ventanas o paneles solares que repele la suciedad? ¿Capacidades mayores de almacenamiento en las baterías de los próximos autos eléctricos? Una nueva investigación de la Universidad de Tel Aviv ha culminado con una innovación crucial en el ensamblaje de péptidos a escala nanométrica que en sólo unos pocos años podría hacer realidad éstas y otras anheladas metas tecnológicas.

Operando en el rango de los 100 nanómetros e incluso inferior, la investigadora Lihi Adler-Abramovich y un equipo trabajando bajo el mando de Ehud Gazit en el Departamento de Microbiología Molecular y Biotecnología de la Universidad de Tel Aviv han descubierto una manera novedosa de controlar los átomos y las moléculas de péptidos de modo que se les puede hacer "crecer" a imitación de pequeños campos de arbustos. Estos "bosques de péptidos" repelen el polvo y el agua, lo que les convierte en un perfecto recubrimiento autolimpiador para ventanas o paneles solares, los cuales se vuelven mucho menos eficientes cuando están sucios.

Usando una amplia variedad de péptidos, que son tan simples y baratos de producir como el aspartamo (un edulcorante artificial), los investigadores crean sus "nanotúbulos autoensamblados" al vacío y a temperaturas altas. Estos nanotúbulos pueden soportar un calor extremo y son resistentes al agua.

Los investigadores fueron capaces de desarrollar una técnica que permite a ciertos péptidos cortos "autoensamblarse", formando un tipo de recubrimiento completamente nuevo el cual es también un supercondensador.
Como un condensador con una densidad de energía inusualmente alta, el material nanotecnológico podría hacer dar un salto importante de prestaciones a las baterías eléctricas existentes, muy útil en un automóvil eléctrico para facilitarle su arranque, subir una pendiente, o adelantar a otros autos y camiones en la autopista. Una de las limitaciones de los autos eléctricos es el impulso, y el equipo piensa que su investigación podría conducir a una solución satisfactoria para este problema.

Recubiertas con el nuevo material, las ventanas exteriores selladas de rascacielos no necesitarían lavarse nunca más. El material del laboratorio de la Universidad de Tel Aviv puede repeler el agua de lluvia, así como el polvo y la suciedad.

La eficiencia de los paneles solares se podría mejorar también, ya que bastaría con una lluvia ocasional para retirar todo el polvo que pudiera haberse acumulado en los paneles. Esto puede ser especialmente útil en zonas áridas y polvorientas, donde hoy son instaladas muchas de las centrales solares.

Información adicional en:
Scitech News

miércoles, 6 de enero de 2010

Si existen, muy pronto será posible detectar lunas como Pandora, de la película "Avatar"

Amazings.com

Lunas pobladas por formas de vida, como Pandora en la reciente película "Avatar", son hoy ciencia-ficción, pero podrían dejar de serlo antes de lo creído. El telescopio espacial Kepler, en órbita desde Marzo de 2009, tiene la capacidad de detectar astros del tamaño de la Tierra hasta unos 500 años-luz de distancia de nosotros, y eso incluye lunas grandes alrededor de planetas gigantes. Además, tal como concluye la astrónoma Lisa Kaltenegger en un nuevo estudio, el Telescopio Espacial James Webb será capaz de analizar las eventuales lunas que sean descubiertas, y detectar gases cruciales para la vida como el oxígeno, el dióxido de carbono y el vapor de agua.

"Si Pandora existiera, podríamos potencialmente detectarla y estudiar su atmósfera en la próxima década", declara Lisa Kaltenegger, del Centro para la Astrofísica (CfA), gestionado conjuntamente por la Universidad de Harvard y el Instituto Smithsoniano.

Hasta recientemente, las búsquedas de planetas de otros sistemas solares han estado limitadas a la detección de planetas gigantes como Júpiter, de los cuales ya se conocen varios cientos. Los gigantes gaseosos, aunque fáciles de detectar, no podrían servir para sostener la vida, al menos tal como la conocemos. Sin embargo, una luna rocosa en órbita a un gigante gaseoso ubicado a la distancia idónea de su estrella (la que conlleva una temperatura que permite la existencia de agua líquida) sí podría resultar apta para albergar vida.

Todos los planetas gigantes gaseosos de nuestro sistema solar cuentan con lunas rocosas que además son ricas en hielo de agua en muchos casos. Eso hace suponer que los gigantes gaseosos de otros sistemas solares muy probablemente también posean lunas de esa clase a su alrededor. Algunas pueden tener masas comparables a la de la Tierra y ser capaces de retener una atmósfera.

La misión del Kepler es buscar planetas que, desde la dirección de observación del telescopio, crucen por delante de sus respectivas estrellas. Eso crea un minieclipse y atenúa el brillo de la estrella en un grado minúsculo pero detectable. Los tránsitos de este tipo duran unas pocas horas y requieren una alineación muy exacta de la estrella y el planeta a lo largo de la línea de visión terrestre. El Kepler examinará miles de estrellas, de manera que acabará por encontrar una cantidad significativa de soles con un planeta en tránsito.

Conociendo ya un planeta gigante gaseoso, los astrónomos pueden buscar lunas a su alrededor. La gravedad de un satélite es capaz de alterar, de modo sutil pero detectable, el movimiento de su planeta, de forma que puede acelerar o retardar su tránsito de maneras que delaten la existencia de esa luna.

Una vez hallada la luna, la siguiente cuestión a resolver es: ¿Tiene atmósfera? Si la posee, esos gases absorberán una fracción de la luz de la estrella durante el tránsito, dejando una huella sutil pero delatadora de la composición atmosférica del satélite.

Kaltenegger, tras calcular qué condiciones son las mejores para examinar las atmósferas de lunas de otros sistemas solares, ha llegado a la conclusión de que el sistema de Alfa Centauro A, escenario en la película "Avatar", sería un excelente objetivo para la búsqueda de satélites.

Alfa Centauro A es una estrella brillante y cercana, muy parecida a nuestro Sol, de manera que proporciona una señal clara y fácil de interpretar. Kaltenegger señala que bastarían unos pocos tránsitos para detectar la presencia de agua, oxígeno, dióxido de carbono y metano en una luna parecida a la Tierra, como lo es en "Avatar" el satélite Pandora. Tal como señala Kaltenegger, si esa luna de "Avatar" existiera de verdad, los astrónomos podrían detectarla y estudiarla en un futuro muy cercano mediante el Telescopio Espacial James Webb.

Aunque Alfa Centauro A es un prometedor objetivo de búsqueda de planetas o lunas habitables, las enanas rojas, muy abundantes, lo son en grado igual o incluso mayor. La zona orbital habitable (la que, por la temperatura reinante en ella, permite la existencia de agua líquida) está más cercana a la estrella en el caso de una enana roja, lo que incrementa la posibilidad de un tránsito.

Los astrónomos han debatido largamente sobre los problemas que podría acarrear para un planeta estar tan cerca de su estrella aunque la temperatura a esa distancia sea aceptable para la vida. La corta distancia de un planeta templado a su estrella enana roja influiría sobre su rotación de manera que ésta se amoldaría a la traslación y el planeta siempre le presentaría la misma cara a la estrella, como le sucede a la Luna con la Tierra. Aunque un buen régimen de vientos quizá podría repartir debidamente el calor entre la cara diurna y la nocturna, es obvio que un mundo con un hemisferio sumido en un día perpetuo y el otro en una noche perpetua, representa para la vida un mayor desafío que un mundo con una suficiente alternancia de días y noches.

Este problema de los planetas en la zona orbital habitable de una enana roja no lo sufrirían sus lunas. Una luna en tal escenario le presentaría siempre la misma cara a su planeta, pero no a la estrella, y por tanto tendría una alternancia normal de días y noches. La existencia de atmósfera también ayudaría a moderar las temperaturas. La vida vegetal podría poblar virtualmente toda la luna ya que tendría en la luz solar una fuente de energía accesible desde casi cualquier lugar de la superficie.
Debido a todas estas circunstancias, en la zona orbital habitable de una enana roja las lunas en órbita a planetas gigantes gaseosos tienen más probabilidades de albergar vida que los planetas rocosos o que las superTierras, dos tipos de planetas que se han considerado muy prometedores para acoger vida.