domingo, 29 de mayo de 2011

El disco duro crece

El sistema de almacenamiento doblará la capacidad cada dos años esta década - La memoria 'flash', 10 veces más cara, seguirá en aparatos de bolsillo.

Por LLUÍS ALONSO - Barcelona - 20/05/2011

El disco duro va a duplicar su capacidad de almacenamiento cada dos años durante esta década. Así lo llevan haciendo desde hace 50 años, según John Coyne, máximo responsable ejecutivo de Western Digital (WD), que tiene el 50% del mercado mundial.

La necesidad de guardar datos seguirá creciendo exponencialmente

La industria de discos duros sigue con un ritmo de crecimiento en torno al 10% en unidades. Los discos de 2.5 pulgadas y de 3.5 pulgadas ofrecen el doble de capacidad cada dos años por el mismo precio. El constante avance del ordenador personal se explica por el progreso de los discos duros y de los microprocesadores, precisa Rich Routledge, responsable mundial de mercadotecnia de WD.

Este crecimiento constante desde que IBM inventara en 1956 el disco duro va dejando por el camino a múltiples suministradores. En las últimas semanas, Seagate ha adquirido la división de discos duros de Samsung y Western Digital la de Hitachi, con lo que ahora solo quedan tres grandes suministradores: WD, que controlará la mitad del mercado; Seagate, el 40%, y Toshiba, el resto.

En su medio siglo de vida, el progreso de la industria ha tenido forma de S: rápido, muy rápido y otra vez rápido. Unas veces ha duplicado la capacidad cada año y medio y otras cada dos años y medio.

Estamos en estos momentos, dice Coyne, en el final de la curva de crecimiento de la tecnología perpendicular, la más empleada ahora, y harán falta nuevos desarrollos para impulsar de nuevo el aumento muy rápido.

Últimamente se ha avanzado sobre todo en lectura y grabación de datos y ya se están desarrollando las tecnologías para asegurar el crecimiento en el resto de la década, como la láser o la microondas.

En formatos, seguirán los discos de 2.5 y 3.5 pulgadas, con una participación del 55% y 45%, respectivamente, pero serán los de 2.5 pulgadas los que crecerán y los que a largo plazo subsistirán.

Según Coyne, los discos de 1.8 pulgadas no son competitivos en coste por gigabyte y están amenazados por las memorias flash, mientras los de 3.5 pulgadas son demasiado grandes para mantener el posicionamiento preciso de los cabezales. El formato óptimo es de 2.5 pulgadas, empleado en los portátiles, por fiabilidad, coste y tamaño.

La capacidad más extendida y competitiva ahora es la de 320 gigabytes por plato, pero hacia finales de año predominará la de 500 gigabytes. Por eso los portátiles van ahora típicamente con un disco de 320 gigabytes y a finales de año migrarán a 500. Las necesidades de almacenamiento seguirán aumentando de manera exponencial, entre otros factores porque, según Routledge, el 75% de todo lo almacenado es una copia de otros archivos digitales. El futuro del disco duro queda así garantizado.

Al igual que el disco duro, la memoria flash se encuentra en una encrucijada tecnológica. Se da por seguro que ambos la sortearán, pero con ingentes inversiones para producir un salto cualitativo.

Esto hará, en opinión de Coyne, que la diferencia en coste por gigabyte entre un disco duro y una memoria flash se mantenga en los próximos años. Es decir, que el progreso de ambos será paralelo y la memoria seguirá siendo 10 veces más cara que un disco a igual capacidad.

Por cuestión de tamaño, los teléfonos inteligentes, cámaras y grabador de bolsillo llevarán memoria flash, mientras que los ordenadores portátiles y de sobremesa, grabadores conectados al televisor y dispositivos de almacenamiento de bolsillo de gran capacidad tendrán su disco duro. El tamaño del aparato, y sobre todo de la pantalla, determina su uso y funcionalidad.

Por precio, la capacidad típica de una memoria flash será de 20 a 40 gigabytes y la de un disco de 250 a 500 gigabytes en los próximos 12 meses. Queda por ver si los aparatos de mano híbridos, como la tableta o el ultraportátil, llevarán flash con baja capacidad o serán algo más gruesos e irán con disco de gran capacidad.

La memoria flash, inventada en 1988, continuará progresando. La historia del almacenamiento de estas últimas décadas demuestra, dice Routledge, que seguirá la evolución, pero sin revolución.

viernes, 27 de mayo de 2011

La fortaleza de Linux está en América Latina


Por David Cuen

Linux es un sistema operativo que cuenta con una fiel base de seguidores, usuarios y programadores, pero que aún se mantiene lejos de la competencia comercial en computadoras personales. Ahí Windows lidera.

Sin embargo, poco a poco Linux ha ido ganando espacio en el terreno de consumo y una de las regiones que está impulsando este crecimiento es Latinoamérica.

De acuerdo con Royal Pingdom -un sitio conocido por sus compilaciones estadísticas sobre el ámbito tecnológico- Cuba, Venezuela y Uruguay ocupan las tres primeras posiciones mundiales en lo que a la penetración de Linux en computadoras de escritorio se refiere.

Los números de Linux en el mundo siguen siendo bajos, sobre todo si se considera que el país que más lo usa es Cuba con un 6.33% de los usuarios del país.

Razones latinas

Pero ¿por qué son los países latinoamericanos los que más usan Linux en las computadoras personales?

"Las realidades de Cuba, Venezuela y Uruguay son muy desemejantes, y, por lo tanto, es muy difícil encontrar razones comunes que expliquen el relativo éxito de Linux, aunque es posible detectar factores que sin duda han influido su adopción", dice a BBC Mundo Tomás Laurenzo, investigador e ingeniero uruguayo.

Laurenzo apunta al empuje que los gobiernos de dichos países le han dado a Linux y a la adopción del sistema por parte de la academia.

Como ejemplo cita una distribución cubana del sistema operativo, llamada Nova, creada por estudiantes y que después fue adoptada y patrocinada por el gobierno.

"Hablando de Cuba y Venezuela, es fácil encontrar puntos de encuentro entre una ideología de izquierda y el uso de software de código abierto, especialmente cuando eso permite no utilizar software de una multinacional estadounidense", afirma el también profesor asociado del Instituto de Computación de la Universidad de la República en Uruguay.

En lo que se refiere al país del Cono Sur, Laurenzo cree que puede explicarse por "un alto nivel de alfabetización informática, siendo -porcentualmente- un gran exportador de software".

Otro punto que podría considerarse -aunque aún es difícil medir- es la adopción del gobierno uruguayo del programa One Laptop Per Child (Un computador para cada niño, OLPC, por sus siglas en inglés).

Quizá con la excepción de Uruguay y Finlandia, en el resto de los diez países que más usan Linux la clave parece ser el hecho de que el sistema operativo es libre y gratuito.

Al adoptar software sin costo estos países permiten -al menos en oficinas públicas y escuelas- que las personas tengan acceso a tecnología sin la necesidad de pagar una fuerte suma de dinero por licencias.

Pero el impacto de Linux en las computadoras personales sigue siendo baja. Incluso en Cuba, las cifras indican que más del 93% de los ordenadores no usan el sistema libre.

"Es razonable pensar que los costos menores que puede conllevar el uso de Linux, más la adopción de políticas de gobierno y de educación, son factores que pueden influir en todos los países de la región", agrega el especialista.

Pero advierte: "De cualquier forma, no hay que perder la perspectiva, las razones que sostienen la hegemonía de MS Windows siguen siendo válidas, importantes, y se sostendrán en el tiempo mediato".

Más allá de las computadoras

Windows continúa dominando el mercado de sistemas operativos en el mundo con más del 90% de la participación del mercado. En países como Estados Unidos o el Reino Unido el alcance de Linux está por debajo del 1.20% de uso.

Sin embargo, al traducir los magros porcentajes de usuarios del sistema operativo a números reales es posible estimar que cerca de 20 millones de personas usan Linux en su computadora personal.

Además, más allá de los números el sistema operativo suele adquirir importancia por su comunidad de fieles usuarios que utilizan el software para crear tecnología y programas que después adquieren importancia global.

En ese sentido Linux es visto como un semillero de ideas.

Pero además, más allá del mundo de las computadoras personales, Linux tiene un gran porcentaje del mercado en lo que se refiere al mercado de servidores (las computadoras que administran redes y alojan datos) y quizá aún más importante, en lo que se refiere al mercado de teléfonos celulares.

Los teléfonos Android de Google, por ejemplo, utilizan Linux como su sistema operativo. Y según la agencia de investigación Gartner, Android de la mano de Linux, ocupará el 38.5% del mercado a finales de año.

"Linux es un proyecto extremadamente exitoso. Con un conjunto enorme de usuarios y una presencia apabullante a nivel de servidores, netbooks y teléfonos", dice Laurenzo.

"Para que Linux logre una presencia mayor del mercado, es necesario que surjan vectores de deseo que rompan el ciclo instaurado. Este deseo tiene que ser lo suficientemente fuerte como para vencer la conveniencia o la necesidad de seguir los estándares de facto", concluye el investigador uruguayo.

Mercado de sistemas operativos en el mundo:
1. Windows: 91.65%
2. Mac: 6.47%
3. Linux: 0.76%
Fuente: StatCounter, abril de 2011.

Países que más usan Linux en computadoras personales:
1. Cuba: 6.33%
2. Venezuela: 3.70%
3. Uruguay: 3.20%
4. Zimbabwe: 3.15%
5. Mozambique: 2.93%
6. Macedonia: 2.80%
7. Uganda: 2.48%
8. Etiopía: 2.42%
9. Kenia: 2.33%
10. Finlandia: 2.31%
Fuente: StatCounter y Royal Pingdom

BBC Mundo
Jueves, 26 de mayo de 2011

jueves, 26 de mayo de 2011

Mandelbrot y la belleza del caos

ENTREVISTA
Por Max Seitz

Aunque esta entrevista fue realizada en 2005 y el Dr. Mandelbrot murió en 2010, es una buena manera de entender la forma de pensar del inventor de los "fractales", porqué son importantes y algunas de sus aplicaciones. (Nota del administrador de ITC).

QUIÉN ERA MANDELBROT

Nació el 20 de noviembre de 1924 en Varsovia, Polonia.

Sus padres, de origen judío, previeron lo que sobrevendría en Europa y se mudaron a París en 1936.

Mandelbrot estudió ingeniería en Francia y en EE.UU., y se doctoró en ciencias matemáticas en París, en 1952.

En 1957 se convirtió en investigador de IBM, en cuyas computadoras exploró sus nuevas ideas que desafiaron la geometría tradicional.

Él mismo acuñó el término "fractal".

Sus obras fundamentales son "Los objetos fractales" y "La geometría fractal de la naturaleza".

Cuando se hizo esta entrevista trabajaba de investigador en la Universidad de Yale, EE.UU.

Murió el lunes 18 de octubre de 2010.

Comienza la entrevista:

Se llama Benoit Mandelbrot y es considerado una leyenda viva en su disciplina.

La razón es que este matemático de origen polaco desarrolló una nueva geometría y se dice que con ella cambió para siempre nuestra forma de ver la naturaleza.

La palabra clave es "fractal". Y esto necesita una explicación.

La geometría tradicional describía rectángulos, círculos, rectas... Todas formas puras y perfectas que no existen en la naturaleza, salvo excepciones, o son fabricadas por el hombre.

Mandelbrot desarrolló una teoría que describe mejor los contornos irregulares y aparentemente caóticos del mundo que nos rodea: sus fórmulas permiten estudiar la configuración de árboles y nubes, cordilleras y costas, células y órganos, compuestos químicos y galaxias.


En la geometría moderna se dice que hay un antes y un después de Mandelbrot (un apellido "natural", porque en alemán significa "pan de almendra").

Gracias a él, la naturaleza se ve con otros ojos. En lo que previamente sólo se percibía confusión, desorden y complejidad, ahora se observan determinadas reglas de construcción.

Mandelbrot encontró patrones, y esos patrones tienen un carácter "fractal": a grandes rasgos, las formas están hechas de pequeñas copias de sí mismas y sus partes son similares al todo: son parecidas pero a una escala menor.

"Si usted observa un árbol de lejos, ve eso, un árbol. Si se aproxima, ve una rama. Pero la rama es muy parecida a un pequeño árbol", explica el matemático.

Naturaleza fractal

Éste es un ejemplo simple, advierte, pero los hay más complejos. Es que en la naturaleza hay gradaciones: las formas son más o menos fractales.

Mandelbrot dialogó con BBC Mundo durante una de sus tantas visitas a Europa para brindar una serie de conferencias.

¿Cómo le explicaría usted la geometría fractal al más común de los mortales?

La geometría fractal es la geometría de los contornos irregulares de la naturaleza. Piense en el hombre primitivo: él estaba rodeado de muy pocas formas simples, como la luna llena o la pupila del ojo. En su experiencia había casi exclusivamente contornos accidentados.

Sin embargo, la ciencia comenzó a estudiar las formas simples y desarrolló una geometría muy poderosa. En el mundo siguen predominando los contornos irregulares, sí, pero también hay muchas formas puras, uniformes; la mayoría de éstas son el resultado de la manufactura. De alguna manera la historia de la ciencia ha descuidado los contornos irregulares de la naturaleza. Lo que yo he hecho es someter a esas formas a un tipo de análisis que es la contrapartida de la geometría tradicional: los fractales.

Los fractales son una forma de describir de una manera simple los contornos irregulares, de modo que estos pueden ser incorporados a la ciencia.

La característica más importante de los fractales es que son similares si se los ve de cerca y a la distancia. Si usted observa un árbol de lejos, ve eso, un árbol. Si se aproxima, ve una rama. Pero la rama es muy parecida a un pequeño árbol. Si se acerca aún más observará una rama todavía más pequeña que se verá como un árbol mucho menor.

En otras palabras, en la naturaleza hay numerosas formas con la propiedad de que cada parte es similar al todo.

Esta propiedad es muy simple y no parecía que tendría grandes consecuencias, porque no parecía interesante ni importante en su momento.

Las obras del artista estadounidense Jackson Pollock (1912-1956) se ven caóticas pero poseen un orden natural (fractal).

Pero durante mi vida como científico, más de 50 años, he demostrado que las formas irregulares representadas por los fractales son muy comunes y pueden ser sometidas al mismo análisis con el que la geometría tradicional ha sometido a los contornos más simples.

¿Cómo llegó a esta nueva geometría?

Tuve que dar muchas vueltas para llegar a ella, pero la parte más importante de mi trabajo comenzó alrededor de 1960, cuando encontré la forma de analizar dos importantes fenómenos irregulares en las ciencias física y social.

En cuanto a lo social, llegué a una representación matemática de la variación de las crisis en los mercados del algodón, del trigo e incluso en el bursátil. Sabemos que los precios varían de manera muy irregular.

Las tablas que aparecen en los diarios son un buen ejemplo de una curva muy accidentada. ¿Pero cómo analizar esto?

Existía una leyenda en Wall Street de que la variación de los valores era tan irregular tanto en menor como en mayor escala, por ejemplo, en los cambios en el precio del algodón en un siglo, en diez años, en un mes.

Esto era una especie de folklore, pero a mí me parecía que debía haber algo más. Por eso creé un modelo matemático por medio del cual eso se podía demostrar, de modo que se podían hacer simulaciones y ver las consecuencias.

Las consecuencias fueron muy interesantes e importantes. Porque si uno piensa en cómo se comportan los precios, todos saben que varían de modo discontinuo. Y esa discontinuidad se da de un día para otro, porque si los precios caen un día, al día siguiente tenderán a recuperarse. Mirando las tablas de precios de lejos uno observa que los eventos importantes tienden a agruparse.

De modo que mi modelo de precios resultó muy realista.

¿Y en cuanto a la ciencia física?

Poco después me interesé en la turbulencia, lo que por supuesto es la misma cosa que las tormentas, los tornados.

La turbulencia varía mucho en intensidad, así como los mercados lo hacen de un día para otro.

Elaboré un modelo de turbulencia que también terminó siendo muy efectivo para describir cómo el clima puede estar bien en determinado momento y cada tanto registrar un fenómeno de vientos y ocasionalmente tornados extremadamente fuertes, algunas veces destructivos.

¿Cómo se utiliza actualmente esta geometría de la irregularidad?

Bien, se puede hacer una larga lista. Tomemos como ejemplo la electrónica, una antena. Las antenas se concibieron primero como varillas, varillas con otras que las cruzaban, que iban hacia arriba y hacia abajo. Pero no eran muy efectivas. Hasta que a alguien se le ocurrió la idea de hacerlas de forma fractal. Y estas antenas son mucho mejores en términos de omnidireccionalidad: si se las rota, no cambian demasiado sus propiedades.

Otro ejemplo son las botellas de bebidas gaseosas, que tenían una probabilidad a quebrarse -aunque mínima- porque el plástico en la botella no soportaba la alta presión desde adentro. Alguien entonces inventó un aditivo para el plástico, un aditivo fractal, que lo volvió más resistente. Ahora las posibilidades de que los envases exploten son mucho menores.

Las paredes para atenuar el ruido en las autopistas son otra de las aplicaciones. A la gente que vive cerca de esta vías no les gusta el ruido de los automóviles y por eso se colocan esas paredes. Pero suelen ser muy ineficaces porque lo que hacen es rebotar el sonido. Pero surgió la idea de hacer esos paneles de forma fractal, es decir, irregulares. Y el resultado es que en lugar de rebotar el sonido lo absorben. Este invento ya ha sido aplicado en diferentes sitios.

La razón por la cual los fractales han tenido consecuencias en tantas y tan diversas áreas es que no sólo se refieren a aspectos específicos de la naturaleza sino a algo muy básico: una irregularidad organizada.

De modo que los objetos y las técnicas basadas en la naturaleza son más efectivas...

Exacto. Hasta ahora los ingenieros han imitado formas que en realidad no se conocían en la naturaleza. Las mesas son planas, pero no hay superficies planas en la naturaleza, sino formas imperfectas. Uno puede decir que las paredes se hacen planas porque son más fáciles de construir y de limpiar, y en esto la geometría tradicional ha sido exitosa. Pero en otros casos no.

Si se piensa en la arquitectura actual, los edificios son muy geométricos. Y a la gente no suelen gustarles, le desagradan esas torres feas.

Pero antes los arquitectos añadían todo tipo de decoración a los edificios para que se vieran más bellos, ventanas con marcos especiales, columnas, porque las construcciones en sí eran muy planas. Las columnas y los marcos de las ventanas quizás no tenían una importante función, excepto añadir irregularidad y variedad al edificio. Así, había grandes edificios tan irregulares en sus detalles que uno podía pensar que eran naturales. Hoy en día esto se puede ver, por ejemplo, en la Ópera de París.

La obra del arquitecto catalán Antoni Gaudi también podría considerarse un ejemplo de lo que usted dice, ¿no?

Claro. He ido a Barcelona a ver las obras de Gaudí y debo decir que él entendía este punto muy bien. Él llamaba orgánica a esta arquitectura; él trataba de imitar muchas de las formas de la naturaleza, como los árboles, que tienen naturaleza fractal.

Orgánico y fractal son términos muy cercanos.

¿Tiene la geometría fractal implicaciones filosóficas? En otras palabras: ¿es una manera de terminar esa oposición entre hombre y naturaleza, y aceptar la idea de que ambos están "en el mismo equipo", por decirlo así?

Diría que sí, aunque me resisto un poco a hablar en esos términos porque soy un científico y prefiero referirme a mi ámbito específico.

Pero tiene razón. El hombre primitivo encontró determinado orden -muy simple- en el desorden que rodeaba su vida, y ese orden le resultó tan extraordinario que la geometría y la ciencia se basaron en él y se desarrollaron con un éxito increíble.

Pero crecieron basadas en una pequeña parte de la experiencia humana, mientras que los fractales permiten incorporar a la geometría aspectos más amplios de la experiencia.

¿Podría afirmarse entonces que la geometría fractal nos da un acercamiento más ecológico a la naturaleza?

Me sorprende que lo pregunte y me sorprendo a mí mismo respondiendo que sí.

¿Y a los 80 años la naturaleza lo sigue sorprendiendo?

Sí, pero no debería porque de algún modo ser un científico es creer que la naturaleza no es tan complicada como parece. Los investigadores siempre han buscado rincones del universo que son más simples que otros, sobre los cuales se puede elaborar una teoría.

Si se recapitula la historia de la ciencia, la búsqueda de las cosas más simples de estudiar (por ejemplo, el desplazamiento de los planetas) no es algo importante para la vida cotidiana, pero ha fascinado a la humanidad durante mucho tiempo, en parte por la religión, en parte por el hecho de que se ve muy sencillo, se trata de ciclos reiterativos.

Pero a mí siempre me fascinó la idea de buscar la simplicidad en el desorden.

Con la geometría fractal la naturaleza se volvió más ordenada, organizada... más atractiva.

APLICACIONES

La geometría fractal ha tenido innumerables aplicaciones:

Estudio de los suelos para la prospección petrolera.

Diseño de circuitos electrónicos.

Estudio del cuerpo humano y de microorganismos, elaboración de fármacos

Análisis de tablas de variaciones de precios.

Arquitectura e ingeniería.

Pintura y música.

BBC Mundo
Viernes, 14 de enero de 2005.

miércoles, 25 de mayo de 2011

El monóxido de carbono


Por Isaías Ferreira

Según la ficha clínica, el Monóxido de carbono (CO) es un gas extremadamente tóxico producido como resultado de quemar combustibles de fósiles (gas, aceite, carbón de hulla) y puede ser emitido por los artefactos comunes alimentados por gas que utilizamos en las casas. Debido a que muchas calderas y calentadores de agua trabajan con combustibles de fósiles, estos pueden emanar CO el cual se puede acumular en la casa, si ésta no está propiamente ventilada. Los gases de un automóvil pueden producir CO, lo que convierte a los garajes en áreas potenciales de acumulación de CO.

martes, 24 de mayo de 2011

El rayo láser que puede transferir toda una biblioteca en 10 segundos

Un grupo de investigadores fijó un nuevo récord en transmisión de datos, vía un rayo láser, alcanzando 26 terabits por segundo.

A esa velocidad sería posible transferir toda la colección de la Biblioteca del Congreso de EE.UU. -la más grande del mundo- a través de un cable de fibra óptica en sólo diez segundos.

El truco consiste en utilizar lo que se conoce como "óptica transformada de Fourier" para distinguir más de 300 colores diferentes en una rayo láser, cada uno codificado con su propia cadena de información.

La técnica aparece descrita en la revista Nature Photonics.

El deseo de incrementar la capacidad de transferencia de datos en la tecnología de telecomunicaciones basadas en la luz, ha conseguido un buen número de avances en los últimos años.

Las primeras tecnologías de cables de fibra óptica que se usaron codificaban las cadenas de datos como "curvas" en cada color de luz enviando una a la vez.

Pero ahora nuevas técnicas usan varios láser para codificar diferentes cadenas de datos en diferentes colores de luz enviándolos todos al mismo tiempo a través de un cable de fibra óptica.

En el punto que recibe los datos también hay osciladores láser que son capaces de distinguir cada señal, revirtiendo así el proceso.

Revisando el pulso

Aunque la capacidad de transmisión de datos está limitada por la cantidad de rayos láser disponibles, los costos son altos, afirma Wolfang Freude, coautor del estudio y académico del Instituto Karlsruhe de Tecnología en Alemania.

"Ya hemos logrado comprobar un experimento de transmisión de 100 terabits por segundo", dijo a la BBC.

"El problema es que no tenían sólo un láser, tenían algo como 370 láser lo que es algo increíblemente costoso. Imagine 370 rayos láser que llenaban varios estantes y consumían varios kilowatts de energía", aseguró.
El profesor Freude y sus colegas se han concentrado en buscar la manera de crear tasas de transmisión de datos similares, usando sólo un rayo con pulsos extremadamente cortos.

Dentro de estos pulsos hay un número de colores discretos de luz que se conocen como "peine de frecuencias".

Cuando estos pulsos se envían a través de fibra óptica, los distintos colores pueden agregar o quitar datos y combinarlos creando cerca de 325 diferentes colores en total, cada uno de los cuales puede ser decodificado en forma independiente.

El año pasado el profesor Freude y sus colegas demostraron cómo usar un pequeño número de estos colores para transmitir 10 terabits por segundo.

Pero en el punto de recepción de los datos, los métodos tradicionales para separar los colores no funcionaron. En el experimento actual, el equipo envió las señales a través de un cable de fibra óptica de 50 km de largo y después implementaron la óptica transformada de Fourier para distinguir cada cascada de datos.

Colores por doquier

La óptica transformada de Fourier es un conocido truco matemático que, en esencia, puede extraer los diferentes colores de un rayo de información basándose únicamente en los momentos en los que llegan las diferentes partes del rayo.

El equipo logró esto en forma óptica y no matemática logrando separar el rayo de llegada en diferentes rutas dependiendo de su hora de llegada, juntándolas de nuevo en un detector.

De esta manera, reunir los datos de diferentes colores se resuelve observando el momento en el que llega cada dato en un diferente color.

El profesor Freude dice que esta técnica puede extrapolarse a un chip de silicio -como los que se usan en los procesadores de las computadoras- lo que aumentaría las posibilidades de su uso comercial.

La idea es compleja, reconoce Freude, pero cree que podrá implementarse en la medida en que la innovación busca mayores velocidad de transmisión de datos.

"Piensen en el tremendo progreso en los fotones de silicio", aseguró. "Nadie podría haber imaginado hace diez años que en la actualidad sería tan común integrar los relativamente complicados circuitos a un chip de silicio".

BBC Mundo, Tecnología
Lunes, 23 de mayo de 2011

lunes, 23 de mayo de 2011

El hombre que inventó el microprocesador


Iain Mackenzie
Periodista tecnológico

Microprocesador:

1. m. Fís. Circuito constituido por millares de transistores integrados en un chip, que realiza alguna determinada función de los computadores electrónicos digitales.

Real Academía Española


De cierta forma, Ted Hoff salvó su propia vida

En lo profundo del cuerpo de este hombre de 73 años de edad hay un microprocesador: una diminuta computadora que controla su marcapasos y, éste, a su vez, su corazón.

Él está consciente de esta curiosa coincidencia.

"Se siente bien", dice.

Los microprocesadores fueron inventados por un reducido grupo de visionarios dirigidos por Hoff en una startup del Silicon Valley llamada Intel.

Memoria

En 1967, Marcian Edward Hoff decidió dejar el mundo académico, tras haber completado su PhD en ingeniería eléctrica.

Ted Hoff

Un empleo temporal de verano, desarrollando sistemas de señalización para trenes, lo había introducido en el mundo laboral y le había gustado.

Llegó entonces la llamada telefónica que le cambiaría la vida.

"Había visto al tipo sólo una vez antes. Su nombre era Bob Noyce. Me dijo que estaba reclutando empleados para una compañía y me preguntó si yo consideraría trabajar con él", cuenta Hoff.

Seis años antes, Robert Noyce, el fundador de Fairchild Semiconductor, había patentado el chip de silicio.

Bob Noyce

Ahora su ambición era otra, y estaba buscando los integrantes de un equipo que pudiera hacerla realidad.

"La entrevista fue en su casa y él no me dijo a que se dedicaría su nueva compañía", recuerda Hoff.

"Sin embargo, me preguntó si yo tenía alguna idea de cuál sería el próximo paso para los circuitos integrados, y le contesté: 'Memoria'".

En el clavo

Lo había adivinado. El plan de Noyce era hacer chips de memoria para grandes computadoras.

Contrató a Hoff, quien se convirtió en el empleado número 12 de Intel.

En 1969, Busicom, una empresa de productos electrónicos japonesa, los contactó, pues estaba en pos de nuevos chips.

Quería algo que hiciera funcionar a una nueva línea de calculadoras y requería un sistema que usara 12 circuitos integrados distintos.

Hoff le apostó a mejorar la idea acomodando la mayoría de las funciones en una sola unidad procesadora central.

El resultado fue un sistema de cuatro chips, basado en el microprocesador 4004 de Intel.

Escépticos

El trabajo de Intel fue recibido inicialmente con escepticismo, señala Hoff.

El consenso favorecía el uso de muchos circuitos integrados simples en chips separados. Aquéllos podían ser producidos en masa y organizados en configuraciones distintas de acuerdo a las necesidades de los fabricantes de computadoras.

Y el sistema entero ofrecía las economías de escala.

Los microprocesadores, en contraste, eran considerados como altamente especializados, diseñados a un alto costo para que los usaran unos pocos manufactureros en un puñado de máquinas.

El tiempo demostró que los escépticos estaban 100% errados.

El precio de los caracteres

Intel enfrentaba otro problema.

Así la producción masiva hiciera que bajara el precio de los microprocesadores al punto que fueran más baratos que sus rivales de chips múltiples, en todo caso no eran igual de potentes.

Es posible que los primeros consumidores de computadoras sacrificaran rendimiento para ahorrarse algo de dinero, pero no era precisamente de los procesadores que dependía el precio.

"La memoria todavía era cara", subraya Hoff.

"Una página de texto puede tener 3,000 caracteres. Eso costaba unos US$300".

"Si uno va a poner unos miles de dólares de memoria (en una computadora), ¿no es más sensato gastar US$500 en un procesador hecho en pequeña o mediana escala y tener 100 más rendimiento?".

"En esa época, no tenía sentido hablar de computadoras personales", dice.

Eventualmente, el precio de la memoria empezó a bajar y la capacidad de almacenamiento a subir.

La ley de Moore

Los productos de Intel empezaron a ser más y más atractivos, aunque tomó otros tres años y cuatro generaciones de chips antes de que uno de sus procesadores llegara a una computadora personal disponible comercialmente.

Pero Intel sabía que su sistema ganaría la partida al final.

Podía incluso predecir cuándo llegarían los microprocesadores a romper la barrera del precio/rendimiento.

En 1965, Gordon Moore, quien más tarde cofundaría Intel con Robert Noyce, hizo una audaz predicción.

"La complejidad de los circuitos integrados se duplicaría cada año con una reducción de costo conmensurable".

Y, como consecuencia, los precios bajan al mismo tiempo que las prestaciones suben .

La teoría, que eventualmente llegó a ser conocida como La Ley de Moore, fue más tarde revisada y refinada.

Hoy en día, declara que el número de transistores de un circuito integrado se duplicará apróximadamente cada dos años.

"Gordon siempre presentó su idea como una observación más que una ley", apunta Hoff.

Incluso en los primeros años, dice, Intel estaba superando las predicciones de Moore.

Chips omnipresentes

Con el paso de los años, la revolución de computadora personal echó raíces.

Los microprocesadores son ahora ubicuos.

No obstante, Hoff piensa que su versatilidad no ha sido aún plenamente apreciada.

"Una de las cosas que le critico a los medios de comunicación es que cuando hablan de microprocesadores se refieren a una computadora de escritorio o a una portátil.

"No se acuerdan de los automóviles, las cámaras digitales o los celulares que también usan cómputo", apunta.

Y se lanza a analizar el poder de procesamiento de las cámaras digitales, y cuánto poder de cómputo tienen hoy en día.

Como un verdadero experto en tecnología, lo que a él le interesa reside en la frontera más lejana de la ingeniería electrónica.

Los intentos por obligarlo a elevar sus logros personales o a evaluar su lugar en la historia terminan sólo en chistes.

Él prefiere hablar de sus proyectos actuales.

"Tengo un montón de computadoras aquí en casa y me la paso jugando con microcontroles. Me gusta programarlas y hacer que me resuelvan mis problemas técnicos".

Pero si Hoff se rehusa a reconocer su propio estatus, otros están ansiosos por hacerlo.

Quizás el honor más alto llegó en 2010, cuando el presidente de Estados Unidos, Barack Obama, le otorgó la Medalla Nacional de Tecnología e Innovación.

Su nombre está ahora al lado de otros galardonados, que incluyen a Gordon Moore, Robert Noyce, Steve Jobs, Bill Gates y Ray Dolby.

Como ellos, Hoff ayudó a moldear el mundo en el que vivimos hoy.

BBC
Domingo, 22 de mayo de 2011.

viernes, 20 de mayo de 2011

Tras Fukushima, el futuro está en las energías renovables

Antony Froggatt
Investigador, Chatham House, Londres

El accidente en la planta nuclear de Fukushima, en Japón, provocado por el terremoto y posterior tsunami del 11 de marzo, ha puesto nuevamente sobre el tapete uno de los temas más importantes vinculados con la energía nuclear: la seguridad.

Es sabido que las consecuencias de un accidente nuclear catastrófico pueden ser graves, pero también se sabe que la frecuencia con la que ocurren esta clase de eventos es baja.

La industria y los reguladores de este sector han llegado a esta conclusión tomando en cuenta las probabilidades de que se produzca un incidente en un año de operaciones.

En el caso de los primeros cuatro reactores de Fukushima, la Agencia de Seguridad Industrial y Nuclear de Japón estimó en 2002 que la posibilidad de accidentes en el núcleo era de 1 en 100,000 o menos por año para cada reactor y que la probabilidad de incidentes que dañaran la vasija de contención era de 1 en 1,000,000 o menos por año, también para cada reactor.

Sin embargo, dado que han pasado unas pocas décadas -y no milenios- entre los accidentes de Fukushima, Chernobyl y Three Mile Island -la isla del estado de Pensilvania en Estados Unidos-, sobre los que también se pensaba que no estaba en riesgo el núcleo del reactor, resulta evidente que los operadores nucleares y/o los reguladores están desestimando los riesgos asociados a la tecnología nuclear.

En la cumbre sobre clima celebrada en Cancún, México, en diciembre de 2010 se dijo: "El cambio climático es uno de los desafíos más grandes de nuestro tiempo y todas las partes comparten una visión que implica trabajar de forma conjunta en el largo plazo".

Para cumplir con los objetivos de Naciones Unidas, las emisiones deberán reducirse en un 80% para 2050. Esto requiere una disminución drástica de las emanaciones de dióxido de carbono (CO2) por parte del sector energético.

Al mismo tiempo, los pronósticos anticipan un rápido incremento de la demanda de energía, impulsado fundamentalmente por el crecimiento económico de Asia, en particular China e India. La Agencia Internacional de Energía (AIE) estima que la demanda global aumentará en un 47% para 2035.

Eficiencia energética

Quienes están a favor de la alternativa nuclear creen que ésta debería jugar un rol cada vez más importante en el sector energético de alta eficiencia, que tiene como meta no emitir CO2.

Sin embargo, la energía nuclear no es actualmente una tecnología global. Sólo 30 países la utilizan -entre ellos Argentina, Brasil y México- y seis -Estados Unidos, Francia, Japón, Alemania, Rusia y Corea del Sur- generan cerca de tres cuartas partes de la electricidad del mundo que proviene de reactores nucleares.

La contribución total de las plantas nucleares a la producción global de energía que se comercializa es de aproximadamente el 6%. En comparación, el aporte del carbón es del 25% y el del gas natural es del 23%.

Para que la energía nuclear cumpla un papel importante en suplir la demanda energética en el futuro, es necesario incrementar su uso. Esto aumentará significativamente las dificultades que ya existen en torno de la seguridad y del manejo de los desechos radiactivos y dará lugar, además, a una nueva serie de temores sobre la proliferación de materiales nucleares.

Dada la dimensión y la urgencia del problema, es crucial que se de prioridad a las tecnologías de bajo costo que hayan dado prueba de su eficiencia y sean de interés para todo el mundo.

Por esta razón, la prioridad debe ser la eficiencia energética, que no sólo apunta a combatir el cambio climático sino también a disminuir las dificultades en materia de seguridad y, además, genera beneficios económicos comprobados.

Cuestión de costos

En segundo lugar está la energía renovable que, para sorpresa de muchos, ha pasado a formar parte en los últimos años de los recursos energéticos más utilizados.

Por ejemplo, en la Unión Europea las instalaciones de energía renovable son las que han permitido, en gran medida, aumentar la capacidad energética en 2008 y en 2009.

De hecho, en Alemania generan más electricidad que la propia energía nuclear.

La implementación de energías renovables a gran escala no sólo es posible técnicamente y tiene ventajas para el medio ambiente, como lo han demostrado numerosos casos, sino que además produce beneficios económicos al reducir la dependencia a las fluctuaciones en el precio de los combustibles fósiles.

Mientras que el costo de la energía nuclear ha ido en aumento, el de las energías renovables ha disminuido y en muchas ocasiones es, incluso, la opción más barata.

Impacto

Después del accidente de Fukushima, la mayoría de los analistas creen que las complicaciones y los gastos de una planta nuclear aumentarán aún más.
Se espera, en particular, que se ponga mayor énfasis en proteger las centrales de amenazas ambientales como inundaciones, tormentas y sequías, que en teoría serán más frecuentes como resultado del cambio climático.

Por otra parte, como en Fukushima los problemas fueron trasladándose de un reactor a otro y de los reactores a las piletas de almacenamiento, habrá que cambiar el diseño de las instalaciones y esto afectará -sin duda- el costo de las futuras plantas.

Varios estudios han demostrado que las fuentes renovables junto con la eficiencia energética bastan para suplir todas las necesidades de energía del planeta y que, en consecuencia, no es necesario recurrir a la opción nuclear.

El desastre de Fukushima ha puesto de manifiesto el impacto ambiental, social y económico que la energía nuclear puede tener en condiciones extremas.

Mientras Japón sigue tratando de lidiar con las consecuencias del terremoto y del tsunami del mes pasado, gran parte de los esfuerzos se han visto desviados hacia los intentos de contener la crisis en una planta que sólo produce el 3% de la energía del país.

Antony Froggatt es investigador principal del Programa de Energía, Medio Ambiente y Gestión de Recursos del centro de estudios Chatham House, en Londres.

BBC

jueves, 19 de mayo de 2011

La NASA vuelve a decepcionar tras 50 años de espera

Por Francis | 11 de mayo de 2011

Las misiones científicas de la NASA están gafadas. El satélite Gravity Probe B (GP-B) es un buen ejemplo. Ha costado 750 millones de dólares y se ha limitado a confirmar lo que ya se sabía y con un margen de error peor al logrado por experimentos anteriores. La misión fue ideada en 1959 y su primera fase, Gravity Probe A, lanzada en 1976, fue todo un éxito, aunque no logró medir el efecto buscado; pero la segunda fase ha sufrido los problemas de financiación de la NASA y tuvo que esperar a 2004 para su lanzamiento.

En 2007, tras la publicación de los primeros resultados preliminares, se supo que los resultados finales serían una decepción, no podían ser tan precisos como se pretendía. Las cartas estaban echadas y el artículo que se acaba de publicar en Physical Review Letters [1] confirma el efecto de De Sitter con un error del 0.3% y el efecto de Lense y Thirring con un error del 20%. El primer efecto ya había sido confirmado por la sonda Cassini de la NASA en 2003 con un error del 0.002% (150 veces mejor que GP-B) [2]. Shweta Krishnan en Sky & Telescope [3] nos recuerda que el segundo efecto ha sido confirmado por las medidas de la posición de la Luna en su órbita gracias a los retroreflectores instalados por la misión Apollo con un error del 0’15% (130 veces mejor que GP-B); sin embargo, la alta precisión de esta última medida ha sido puesto en duda por algunos científicos [4]. Aún así, los satélites LAGEOS y LAGEOS-2 también han medido dicho efecto con un error inferior al 10%. Por tanto, GP-B aporta poco a lo ya conocido.

El espacio ofrece una oportunidad única para medir los parámetros relativistas de la gravedad y estudiar las predicciones de la teoría de Einstein (como las ondas gravitatorias). Conocer estos parámetros con gran precisión es muy importante porque la gravedad es una teoría clásica y cualquier desviación, por pequeña que sea, puede ser una guía para el desarrollo de futura teoría cuántica de la gravedad.

La idea de medir los dos efectos objeto de la misión GP-B es de principios de la década de los 1920, pero la propuesta de su medida gracias a un giróscopo colocado en un satélite en una órbita polar alrededor de la Tierra es de los físicos George Pugh (1959) y Leonard Schiff (1960). El eje de giro del giróscopo sufre una desviación denominada precesión de Schiff que combina dos términos separados, el efecto de De Sitter o efecto geodésico (Geodetic Effect en la figura) y el efecto de Lense y Thirring o arrastre gravitatorio (Frame-dragging Effect en la figura). Ambos efectos son resultado del gravitomagnetismo.


En el electromagnetismo relativista los campos eléctrico y magnético se representan de forma unificada en un tensor (una matriz de 3×3 antisimétrica) en el que el campo eléctrico aparece en la diagonal de la matriz y el campo magnético en los elementos restantes (fuera de la diagonal). En la teoría general de la relatividad de Einstein la gravedad se representa con un tensor métrico (una matriz 4×4 simétrica) donde los efectos de la gravedad de Newton aparecen en las componentes diagonales del tensor; las componentes fuera de la diagonal representan relativistas no predichas por la teoría de Newton ni sus versiones postnewtonianas y se denominan efectos gravitomagnéticos, por analogía con el electromagnetismo.

La misión GP-B tenía por objeto medir la magnitud de los efectos gravitomagnéticos sobre un giróscopo en órbita cuyo eje se controla mediante un telescopio que apunta de forma permanente a la estrella IM Pegasi (HR 8703). En realidad son cuatro giróscopos que contienen las cuatro esferas pulidas más “redondas” fabricadas hasta hoy, las imperfecciones tienen un tamaño menor de 25 nm (Récord Mundial Guinness en 2010). Cada esfera tiene un radio de 38.2 mm (como una pelota de ping-pong) y pesa 63 gramos; las cuatro esferas giran a una velocidad angular diferente, en concreto, 79.4, 61.8, 82.1 y 64.9 Hz. Ya en la fase de pruebas en 2004 se descubrieron ciertas anomalías en el funcionamiento de los giróscopos (algunas asociadas a la incidencia de rayos cósmicos de origen solar) que limitaron la precisión de las medidas que se podría obtener en el experimento. Los resultados preliminares publicados en 2007 confirmaron el efecto negativo de estas anomalías, un error sistemático con el que los científicos de la misión han tenido que lidiar lo mejor que han podido.

Las medidas del efecto de De Sitter o efecto geodésico obtenidas por la sonda Cassini gracias al campo gravitorio del Sol, mucho más intenso que el terrestre, son mucho más precisas que las que se hubieran podido obtener, incluso en el mejor caso posible, con la misión GP-B. Sin embargo, las medidas del efecto de Lense-Thirring obtenidas utilizando la Luna y los retroreflectores allí instalados, así como las obtenidas con los satélites LAGEOS y LAGEOS-2, han sido criticadas por algunos expertos [4] que ponen en duda que se haya podido medir este efecto con un error inferior al 10% (se ha propuesto que LAGEOS-3 mejore dichas medidas). Sin los problemas que ha tenido la sonda GP-B en órbita se debería haber alcanzado una precisión inferior al 3% para el efecto de Lense-Thirring. Pero los resultados publicados en Physical Review Letters presentan un error (altísimo en mi opinión) del 20%. Por ello muchos expertos están reclamando una tercera fase de la misión, Gravity Probe C; en mi opinión las restricciones económicas de la NASA complicarán que acabe llevándose a cabo.

Quizás pienses que en Amazings.es somos muy críticos con los avances científicos de la NASA anunciados en ruedas de prensa a bombo y platillo, pero no es la intención de esta entrada criticar los resultados obtenidos por GP-B, sino ponerlos en un contexto adecuado.

[1] C. W. F. Everitt et al., “Gravity Probe B: Final results of a space experiment to test general relativity,” Physical Review Letters, Accepted, May 01, 2011.

[2] B. Bertotti et al., “A test of general relativity using radio links with the Cassini spacecraft,” Nature 425: 374-376, 2003.
[3] Shweta Krishnan, “Gravity Probe B: Relatively Important?,” Sky & Telescope, May 6, 2011.

[4] L. Iorio, “Will it be possible to measure intrinsic gravitomagnetism with Lunar Laser Ranging?,” International Journal of Modern Physics D 18: 1319-1326, 2009 [ArXiv preprint].

Tomado de amazings.es

martes, 17 de mayo de 2011

Una computadora por US$25

Por Rory Cellan-Jones

No es mucho más grande que un dedo y parece un residuo de una fábrica de electrónica, pero sus creadores creen que su equipo de US$25 podría ayudar a una nueva generación a descubrir la programación.

El programador británico David Braben y sus colegas le mostraron a la BBC algo que se llama Raspberry Pi ("Frambuesa Pi").

Es un equipo completo en una pequeña placa de circuito, compuesto por un procesador ARM, un puerto USB y una conexión HDMI.

En un extremo, se le puede conectar un teclado y en el otro una pantalla.
El resultado es una computadora que funciona con el sistema operativo Linux, a un costo mínimo, y que, como los equipos para armar uno mismo de los años 70 y 80, podría alentar a los usuarios a jugar con las partes y a aprender un poco de programación.

"Perder el tiempo"

Y es un anhelo de volver a días como esos lo que está impulsando a Braben y a otros entusiastas a convertir este prototipo incompleto en un producto que pueda ser entregado a todos los niños en el Reino Unido.

Ellos consideran que lo que los escolares aprenden hoy en día en las clases de tecnologías de la información y la comunicación los deja sin inspiración e ignorantes sobre cómo funcionan las computadoras.

Braben dice que, la manera como se imparte la asignatura en la actualidad, le recuerda las clases de mecanografía cuando él estaba en la escuela: tal vez sean útiles, dice, para preparar a los alumnos para trabajos de oficina, pero no fomentan la creatividad.

Raspberry Pi es una empresa sin fines de lucro, cuyos fundadores en su mayoría forman parte del floreciente sector tecnológico vinculado a la Universidad de Cambridge, en el Reino Unido.

Su esperanza es que los maestros, los programadores y el gobierno busquen una vía para poner el dispositivo en las manos de los niños que no pueden tener acceso a una computadora en casa o cuyos padres no les permiten "perder el tiempo con ella".

Un Portátil por Niño

De alguna manera, el plan se asemeja al proyecto de Un Portátil por Niño (OLPC, por sus siglas en inglés), que buscaba crear una computadora para los niños en el mundo en desarrollo a un costo de US$100.

OLPC tuvo éxito en promover la idea de la computación económica, generando un gran número de imitadores, pero le ha resultado difícil alcanzar el precio tan bajo que prometió y convencer a los gobiernos a apoyar la idea.

El camino de Raspberry Pi todavía podría ser largo. El equipo de voluntarios tiene que producir un prototipo que funcione mejor, debe demostrar que realmente se puede fabricar por cerca de US$25 y tiene que llamar la atención de las autoridades educacionales que decidirán si le dan el visto bueno.

Por eso, no hay garantía de que una nueva generación descubrirá que una computadora se puede usar para otras cosas más allá de encenderla, actualizar el estado de Facebook y hacer una presentación en Powerpoint.

Pero ¿no sería genial si una idea concebida por un grupo de entusiastas de Cambridge termina inspirando a los jóvenes del Reino Unido y tal vez de otras partes del mundo a relacionarse con las computadoras de una forma distinta?

BBC Tecnología
Domingo, 15 de mayo de 2011

domingo, 15 de mayo de 2011

RICHARD FEYNMAN – CÓMO BUSCAR UNA NUEVA LEY


Mr. Feynman hubiera cumplido 93 años el 11 de mayo.

Relacionado Richard Feynman

sábado, 14 de mayo de 2011

Circulando a Megahertz entre Nanómetros y Gigantes


Por Isaías Ferreira

En uno de mis escritos anteriores me refería a ese mundo fascinante que se teje en los laboratorios de las universidades y las grandes empresas electrónicas y biotecnológicas, cuyos hallazgos cambian, o prometen cambiar, nuestras vidas.

Recuerdo que mencioné una de las palabras de moda, Nanotecnología, y la pregunta no se hizo esperar, ¿qué es la Nanotecnología? Si digo “es el área de la ciencia y la tecnología que opera al nivel de átomos y moléculas”, aunque más o menos correcta, es una definición vaga que no satisface la verdadera curiosidad del que tiene interés de entender, aunque sea de manera tosca, el impacto de la ciencia en su diario vivir. Es mi parecer que lo primero que debemos comprender para interpretar ese mundo, son los prefijos tales como Mega, Nano, Giga, Pico, etc., que se han convertido en lugares comunes en periódicos y revistas. La intención de este artículo es explicar esos prefijos, con la esperanza de que la comprensión de los mismos haga más comprensible la tecnología que le rodea. Para lograrlo, utilizaremos términos sobre todo de las computadoras, que son los más inmediatos y comunes. Veamos.

A fuerza de usarlo, sabemos, por ejemplo, que el prefijo Kilo, como se usa en kilómetro, significa 1,000; en este caso, 1,000 metros. Por extensión, la industria de la computadora lo usa en términos como kilobytes, lo cual expresa aproximadamente 1,000 bytes (*). Antes de continuar, es conveniente aclarar lo que significa “byte”, pronunciado “bait”, como el “bite” de “mordida”. Byte significa octeto o grupo de 8 bits. El BIT, a su vez, es una abreviación de BInary DigiT (dígito binario), o sea, 1 ó 0, dígitos que expresan niveles de voltaje correspondientes a “encendido” (on) o “apagado” (off), respectivamente. Un byte es lo que se necesita para representar cada una de las letras del alfabeto o los caracteres especiales que tecleamos en un computador. Como se puede colegir, el byte es una unidad de almacenamiento de información codificada.

Kilobyte fue por un tiempo suficiente para medir la capacidad de almacenamiento de la memoria de un computador. Pronto, los kilobytes resultaron insuficientes, y hubo que migrar a un prefijo más poderoso, Mega, que significa “un millón”; el mismo que usted oye a diario en la lotería cuando se refieren a “MegaBucks” o “Mega Millions”, así como cuando se usa el Megapixel al referirse a la resolución o nitidez de una cámara digital. Por eso, es posible que haya usted oído decir que tal o cual computador tiene 128 MB (Megabytes) de capacidad de memoria. Resulta que ese mismo Mega se utiliza para medir la rapidez del microprocesador de las computadoras, como en la palabra MegaHertz (MHz), que ha venido utilizándose desde hace mucho tiempo en la industria de la radio, en las frecuencias de FM.

Hay en las computadoras una especie de cronómetro (clock) al ritmo del cual se ejecutan las diferentes operaciones matemáticas, lógicas y de control. Este cronómetro cambia en forma regular entre los estados 1 y 0. Pues bien, la cantidad de veces que el cronómetro cambia de estados en un segundo, se llama frecuencia. Mientras más alto ese número, en términos generales, más rápido el computador. Pero hasta el Mega ha resultado insuficiente y de un tiempo a aquí, se está utilizando el “Giga”, que significa “mil millones” o, en inglés, “billion”. Hoy es muy común el Gigabyte y el Gigahertz, cuando nos referimos a la capacidad de almacenamiento de un disco duro o a la rapidez del computador.

Cuando ni el Giga nos satisfaga, vendrá el “Tera”, o cien mil millones. De hecho, ya comienza a utilizarse.

Todo lo anterior se refiere a medidas que son extremadamente grandes, pero ¿qué sucede cuando debemos medir cosas extremadamente pequeñas?

Volvamos al metro, la unidad de medida de longitud del sistema decimal. Si dividimos un metro en cien partes iguales, cada división se llama un centímetro, y si lo dividimos en mil partes iguales, obtendremos el milímetro. Se dice, en el último caso, que el milímetro es la milésima parte de un metro. Aplique ese prefijo a los segundos, como en milisegundos, y obtendrá la rapidez de acceso a un disco duro, cuando se busca un dato. Sólo como punto de referencia, es bueno recordar que un segundo es aproximadamente el tiempo entre un latido del corazón y el siguiente. La rapidez con que pestañamos es aproximadamente un decisegundo, o sea, una décima de segundo. Un sistema que responda en milisegundos, en términos de computación, es lento. Por eso, el tiempo de acceso debe ser por lo menos un millón de veces más rápido, como en el caso de la velocidad de la memoria de un computador, que se mide en una unidad llamada “nanosegundo”, que significa la “mil millonésima” parte de un segundo.

Volvamos al metro por un instante, y antepongamos el prefijo nano, para formar la palabra nanómetro. Así como dividimos el metro en mil partes iguales para formar el milímetro, dividamos el milímetro en un millón de partes iguales y habremos obtenido el nanómetro. Un nanómetro es aproximadamente 80,000 veces más pequeño que el diámetro de una hebra de cabello, pero 10 veces más grande que el diámetro de un átomo de hidrógeno. Ya habíamos mencionado la longitud de onda, cuando nos referíamos a la luz en un artículo anterior. Esta se mide en nanómetros.

Por eso se dice, el rojo tiene una longitud de onda de 600 nanómetros o el azul 400 nanómetros. Un átomo tiene un diámetro de 0.1 nanómetro, por lo que puede usted imaginar la precisión que se necesita para desarrollar “máquinas” que puedan manipular partículas a ese nivel. Pero se está trabajando en ello y de eso trata la Nanotecnología. La próxima unidad de medida que posiblemente comience a oír pronto será “pico”, como en picosegundo, que significa “la billonésima parte” de un segundo.

(*) Es bueno aclarar que técnicamente el kilo como es usado en las computadoras no es equivalente exactamente a 1,000, sino a 1,024. Asimismo, mega en el sistema de computadoras es en realidad 1,048,576 (no un millón) y giga es 1,073,741,824 (no mil millones). La razón es que el kilo del sistema decimal tiene como base 10 (103) y el sistema de computadoras es basado en el sistema binario, o base 2. Para ver mi artículo acerca del sistema binario haga clic aquí.

viernes, 13 de mayo de 2011

La guerra sucia de internet


Google y Facebook se han enfrentado constantemente por la forma en la que manejan los datos de sus usuarios.

Facebook reconoció que emprendió una campaña de desprestigio contra su rival Google, al contratar una firma de relaciones públicas para "plantar" en medios de comunicación artículos contra el buscador relacionados con la privacidad de sus usuarios.

La guerra de propaganda no es algo nuevo. Los gobiernos la emplearon durante décadas para que algunos medios publicaran información perjudicial para Estados enemigos. También algunas empresas la han empleado para denostar a la competencia. Lo nuevo es que nos enteremos.

Los detalles salieron a la luz pública cuando un blogger publicó el intercambio de correos electrónicos con la empresa de relaciones públicas, Burson-Masteller.

Burson había estado promocionando artículos a nombre de un cliente anónimo sobre la estrategia de redes sociales de Google.

Cuando los mensajes fueron publicados se desataron una gran cantidad de rumores sobre quién podría ser el cliente de la agencia.

No tan amigos

Algunos analistas creen que la imagen de Facebook de sitio "cool" se verá afectada.

Pero fue el sitio estadounidense de noticias The Daily Beast el que reveló que el cliente era Facebook y la red social admitió su papel en los acontecimientos.

La empresa dijo que contrató a Burson-Marsteller para exponer algunas cosas que Google estaba haciendo y que exponían la privacidad de los internautas, pero rechazó haber autorizado una campaña de desprestigio.

"En vez de eso, queríamos que terceros involucrados verificarán que la gente no había autorizado la recolección y el uso de su información en Facebook y otros servicios para que Google los incluyera en sus círculos sociales, así como el que Facebook no autorizaba dicha acción", explicó la empresa.

Google y Facebook llevan meses enfrascados en una batalla sobre cómo se deben manejar los datos de los usuarios de internet.

El gigante de búsquedas ha acusado a la red social de ser un "jardín amurallado" o "callejón sin salida" para los datos de sus usuarios, mientras que sus servicios o los de otras empresas permiten a Facebook importar a su sitio contactos y libretas de direcciones.

La red social, por su parte, se defiende diciendo que cuida la información de sus miembros y sólo puede autorizar el uso de ciertos datos cuando los usuarios están de acuerdo.

Guerra sucia

La estrategia de desprestigiar a un rival en el mundo tecnológico no es algo nuevo.

Hace pocos meses Google estuvo involucrado en un intercambio de declaraciones y mensajes con Microsoft respecto a cómo funcionaban sus motores de búsqueda.

Google ha estado involucrado también en intercambio de acusaciones con Microsoft.

El buscador líder acusó a Bing de copiar sus resultados de búsqueda, en tanto que éste reviró diciendo que Google frenaba la competencia.

Pero involucrar a una agencia de relaciones públicas es algo nuevo y no es visto con buenos ojos.

"Estoy tratando de imaginar la conversación que tuvieron Facebook y la agencia de relaciones públicas en cuestión. Yo siempre le recomiendo a mis clientes que algo que no deben hacer jamás es atacar a la competencia", afirmó a la BBC Richard Merrin, director de la firma de relaciones públicas Spreckley.

"Esta presunta campaña de desprestigio es el último ejemplo público de alto perfil de lo que muchos en la industria consideran cómo la batalla de rencillas más grande que está ocurriendo en el mundo corporativo de EE.UU.", agregó.

"No olvidemos que estamos hablando de dos empresas que han gastado miles de millones de dólares en posicionar una imagen de sí mismos como si se tratara de jóvenes californianos que practican surf, son buenas personas y calzan sandalias. Ahora lo ocurrido voló por los cielos esa imagen cuidadosamente construida", finalizó.

Por su parte, bloggers de tecnología como Robert Evans, del sitio i4U, han dicho que lo único que demuestra el episodio es que "Facebook le tiene miedo a Google".

Google no ha realizado ningún comentario sobre lo ocurrido, en tanto que la agencia Burson-Marsteller aseguró que "la tarea solicitada por Facebook debió haber sido declinada".

BBC Mundo, Tecnología
Viernes, 13 de mayo de 2011

jueves, 12 de mayo de 2011

Si HTTPS es más seguro, ¿por qué no se utiliza en toda la Web?


Por Scott Gilbertson, wired.com

Usted no escribiría su nombre de usuario y contraseñas en una postal y la enviaría por correo regular para que el mundo las vea, ¿por qué entonces lo está haciendo en línea? Cada vez que se conecta a Twitter, Facebook o cualquier otro servicio que utiliza una conexión HTTP normal, eso es básicamente lo que está haciendo.

Hay una manera mejor, la versión segura de HTTP: HTTPS. Esa "S” extra en el URL (siglas en inglés de Uniform Resource Locator; o sea, localizador uniforme de recursos) significa que su conexión es segura, y es mucho más difícil que otra persona vea lo que usted está haciendo. Pero si HTTPS es más seguro, ¿por qué no se utiliza en toda la Web?

HTTPS ha existido casi por tanto tiempo como la web misma, pero es utilizado principalmente por los sitios que manejan dinero – el sitio web de su banco o los carritos de la compra que capturan los datos de su tarjeta de crédito. Incluso, muchos sitios que hacen uso de HTTPS la utilizan solo para las partes de sus sitios que lo necesitan, tales como los carritos de la compra o las páginas de cuentas.

La seguridad en la Web recibió un disparo en el brazo el año pasado cuando la herramienta de rastreo FireSheep network-sniffing tool facilitó que cualquiera pueda detectar su información de acceso en las redes inseguras, tales como el punto de acceso de su cafetería local o el Wi-Fi público de la biblioteca. Eso ocasionó que una serie de sitios de gran tamaño comenzaran a ofrecer versiones cifradas de sus servicios en las conexiones HTTPS.

Últimamente, incluso sitios como Twitter (cuyos datos son casi en su totalidad públicos) están ofreciendo conexiones HTTPS. Es posible que a usted no le importe si alguien rastrea y lee sus mensajes de Twitter en ruta hacia el servidor, pero a la mayoría de la gente creo que sí le preocuparía que alguien tenga acceso a la lectura de su nombre de usuario y la información de contraseña. Es por eso que Twitter ha anunciado recientemente una nueva opción para forzar conexiones HTTPS (tenga en cuenta que la opción HTTPS de Twitter sólo funciona con un navegador de escritorio, no con sitios móviles, que aún requieren introducir manualmente la dirección HTTPS).

Google incluso ha anunciado que añadirá HTTPS para muchas de las API (Siglas de Application Programming Interface; o sea, Interfaz de programación de la aplicación) de la compañía. Los usuarios de Firefox pueden dar un paso extra y utilizar el add-on HTTPS Everywhere (en todas partes) para forzar conexiones HTTPS para varias docenas de sitios web que ofrecen HTTPS, pero que no lo usan como parte integral.

Por tanto, si la web está claramente avanzando hacia más conexiones de HTTPS, ¿por qué no hacer todo HTTPS?

Esa es la pregunta que hice a Yves Lafon, uno de los expertos residentes en HTTP(S) de la W3C. Hay algunas cuestiones prácticas que probablemente la mayoría de los desarrolladores web reconocen, tales como el alto costo de los certificados de seguro, pero obviamente eso no es un gran problema para los servicios web de gran tamaño que tienen millones de dólares.

El verdadero problema, según Lafon, es que con HTTPS se pierde la capacidad para almacenar en cache. "Eso no es realmente un problema cuando los servidores y los clientes están en la misma región (o sea, en el mismo continente)", escribe Lafon en un correo electrónico a Webmonkey, "pero, por ejemplo, a la gente en Australia le encanta cuando algo puede ser almacenado en cache y servirse sin tomar un gran tiempo de respuesta."

Lafon también hace notar que hay otro pequeño escollo al usar HTTPS, ya que "el intercambio de claves inicial SSL se suma a la latencia." En otras palabras, una web totalmente HTTPS, orientada puramente a la seguridad, con la tecnología actual resultaría más lenta.

Para los sitios que no tienen ninguna razón para cifrar su información - en otras palabras, no necesitan clave de acceso, o no hay nada que proteger - los gastos indirectos y la pérdida de la memoria cache que viene con HTTPS simplemente no hace sentido. Sin embargo, en sitios grandes como Facebook, Google Apps o Twitter, la mayoría de usuarios podrían estar dispuestos a enfrentar el pequeño impacto de rendimiento a cambio de una conexión más segura. Y el hecho de que más y más sitios web están añadiendo soporte de HTTPS muestra que los usuarios valoran la seguridad sobre la velocidad, siempre y cuando la diferencia de velocidad sea mínima.

Otro problema con el funcionamiento de un sitio HTTPS es el costo de las operaciones. "Aunque los servidores son más rápidos, y las implementaciones de SSL más optimizadas, todavía cuesta más que el simple uso de HTTP", escribe Lafon. Si bien esto no es una preocupación para los sitios más pequeños con poco tráfico, HTTPS puede encarecer sus operaciones si su sitio de repente se vuelve popular.

Pero tal vez la principal razón por la que la mayoría de nosotros no está usando HTTPS para servir nuestros sitios web es simplemente porque no funciona con máquinas virtuales. Las máquinas virtuales, que son las más comunes en proveedores baratos de alojamientos de web, permiten al proveedor servir a múltiples sitios web desde el mismo servidor físico - cientos de sitios web, todos con la misma dirección IP. Eso funciona muy bien con conexiones regulares de HTTP, pero no funciona en absoluto con HTTPS.

Hay una manera de lograr que el alojamiento virtual y HTTPS trabajen juntos: el protocolo de extensiones TLS; pero Lafon observa que, hasta ahora, estas están implementadas solo en parte. Por supuesto, eso no es un problema para los sitios grandes, que a menudo tienen granjas enteras de servidores detrás de ellos. Pero hasta que esas especificaciones, o algo similar, no sean ampliamente utilizadas, HTTPS no va a funcionar para los sitios web pequeños, alojados virtualmente.

A fin de cuentas, no hay ninguna razón real para que toda la red no utilice HTTPS. Hay razones prácticas por lo que eso no está sucediendo hoy en día, pero con el tiempo los obstáculos prácticos se desvanecerán. Las velocidades de banda ancha van a mejorar, lo que hará que el almacenamiento en cache sea una preocupación menos, y los servidores mejorados serán optimizados para conexiones seguras.

En la web del futuro, la principal preocupación no será solo la rapidez con que el sitio cargue, sino lo bien que resguarde y proteja sus datos una vez ha sido cargado.

Traducción de Isaías Ferreira

GLOSARIO

API (Siglas de Application Programming Interface; o sea, Interfaz de programación de la aplicación)

HTTP (Hyper Text Transfer Protocol) = Protocolo de transferencia de hipertexto

HTTPS (http Secure) = Protocolo de transferencia de hipertexto seguro

URL (Uniform Resource Locator) = localizador uniforme de recursos

Wi-Fi = Equipos de Red Inalámbrica que se ajustan a la norma IEEE 802.11b

W3C (The World Wide Web Consortium (W3C)) = El Consorcio World Wide Web

SSL (Secure Sockets Layer) = Capa de seguridad

Webmonkey = Sitio web de recursos para desarrolladores:
Webmonkey

IP Address (Internet Protocol Address) = Dirección de Protocolo de Internet

TLS Extensions (Transport Layer Security Extensions) = Extensiones de seguridad de la capa de transporte

martes, 10 de mayo de 2011

Energías renovables pueden alimentar al mundo, dicen expertos

Por Richard Black

Las energías renovables podrían cubrir el 80% de la demanda energética mundial para mediados de siglo, según un nuevo informe del Panel Intergubernamental sobre Cambio Climático (IPCC, por sus siglas en inglés).

En el informe, el Panel afirma que casi la mitad de la inversión actual en la generación de electricidad está destinada a las energías renovables.

Pero el crecimiento dependerá de que las políticas correctas sean implementadas, agregan.

El IPCC se encarga de proporcionar análisis sobre cuestiones del clima para la comunidad mundial y sus conclusiones han sido respaldadas por gobiernos.

El resumen de su Informe Especial sobre fuentes de energía renovables y mitigación del cambio climático (SRREN, por sus siglas en inglés) fue presentado tras una reunión en Abu Dabi en la que representantes de todos los gobiernos miembros del IPCC firmaron el texto.

"Con un apoyo constante a la política climática y energética, las fuentes de energía renovables pueden contribuir sustancialmente al bienestar del ser humano de forma sostenible mediante el suministro de energía y la estabilización del clima," dijo el profesor Ottmar Edenhofer, copresidente del grupo de trabajo del IPCC que elaboró el informe.

"Sin embargo, el aumento sustancial de las energías renovables es técnica y políticamente, muy difícil", añadió.

Pero la expansión de las energías renovables no está limitada por ninguna noción de una oferta limitada.

El informe concluye que hay más que suficiente para satisfacer las necesidades mundiales de energía actuales y futuras.

Sol a la vanguardia

"El informe demuestra claramente que las tecnologías renovables podrían abastecer al mundo con más energía de la que se podría necesitar, y a un costo altamente competitivo", dijo Steve Sawyer, secretario general del Consejo Mundial de Energía Eólica.

"El informe del IPCC será una referencia clave para las autoridades y la industria, ya que representa el análisis más amplio y de más alto nivel hasta la fecha sobre energías renovables".

El informe analiza 164 "escenarios" del desarrollo energético futuro, y en aquellos donde las energías renovables eran más favorecidas resultó en una reducción de las emisiones mundiales de gases de efecto invernadero de alrededor de un tercio en comparación con las proyecciones hechas para el año 2050.

En la actualidad, las energías renovables cubren el 12.9% del suministro mundial de energía.

Sin embargo, la mayor fuente única de energía, que representa aproximadamente la mitad del total mundial, es la más tradicional, la quema de madera para calefacción y para cocinar en los países en desarrollo.

Este tipo de energía no siempre es verdaderamente renovable, ya que no en todos los casos son plantados los árboles nuevos que reemplazarían a la madera quemada.

La tecnología de más rápido crecimiento es la energía solar conectada a la red eléctrica, que registró un aumento del 53% de la capacidad instalada durante el año 2009.

Sin embargo, el informe sugiere que la energía solar fotovoltáica seguirá estando entre las opciones más costosas en los próximos años.

Pero en situaciones donde no hay conexión a la red, ésta y otras energías renovables puede ser una ayuda significativa para el desarrollo, contribuyendo a alcanzar los Objetivos de Desarrollo del Milenio, concluye el IPCC.

De las diversas tecnologías disponibles, la bioenergía se estima que tiene el mayor potencial a largo plazo para el crecimiento, seguida por la energía solar y eólica.

Clima cambiante

Sin embargo, los gobiernos tendrán que intensificar las políticas para estimular la inversión en tecnologías renovables para que las industrias puedan crecer sustancialmente. Mantener el status quo no será suficiente.
Si los gobiernos lo hacen o no, será un factor importante para determinar si las metas internacionales sobre el clima se cumplirán.

"En la Cumbre de Naciones Unidas sobre el clima realizada el año pasado en Cancún, México, los gobiernos acordaron limitar el aumento de la temperatura media mundial a 2ºC a lo sumo", recordó Christiana Figueres, secretaria ejecutiva de la convención sobre el clima de la ONU (UNFCCC).

"Se debe llegar a ese objetivo haciendo uso de fuentes de energía renovables en una escala muy grande. Ambiciosas políticas nacionales y una fuerte cooperación internacional serán la clave para el despliegue rápido y amplio de las energías renovables en todos los países", agregó.

Este resumen acordado en Abu Dabi ofrece las conclusiones del informe completo, elaborado por 120 expertos, que se extiende a más de 1,000 páginas.

Puntos claves del informe

 Las tecnologías renovables podrían abastecer al mundo con más energía de la que se podría necesitar, y a un costo altamente competitivo.

 La de más rápido crecimiento es la energía solar conectada a la red eléctrica, pero es de las opciones más costosas.

 La bioenergía se estima tiene el mayor potencial a largo plazo para el crecimiento, seguida por la energía solar y eólica.

 En la actualidad, las energías renovables abastecen el 12.9% del suministro mundial de energía.
 Para el 2050 podrían cubrir el 80%.

BBC
Martes 10 de mayo de 2011

lunes, 9 de mayo de 2011

Intel revoluciona las computadoras con un nano chip en 3D

Intel develó su nueva generación de tecnología de microprocesadores, con el nombre en código "Ivy Bridge".

Los chips -de pronta aparición en el mercado- serán los primeros en utilizar un proceso de fabricación de 22 nanómetros (nm) que les permitirá tener más transistores que el actual sistema de 32nm.

Para poner su tamaño en dimensión hay que saber que un nanómetro equivale a una mil millonésima parte de un metro. Un cabello humano tiene un ancho cercano a 60,000nm.

Intel dice que también usará nuevos transistores 3D Tri-Gate que consumen menos energía.

Se cree que su competencia -AMD e IBM- también están planeando diseños similares.

"Tri-Gate"

Plano Vs. Tri-Gate

El anuncio marca un significativo paso hacia adelante en la industria comercial de procesadores, que constantemente busca construir más transistores dentro de los chips de silicio que se usan en las computadoras.

Desde hace tiempo se preveía la llegada de compuertas de 22nm, aunque la naturaleza exacta de la tecnología de Intel se había mantenido en secreto hasta ahora.

La compañía espera iniciar su producción comercial a finales de este año.

Kaizad Mistry, gerente del programa de 22nm de Intel, aseguró que la llegada de los transistores Tri-Gate cambiará los productos de consumo.

"Le permitirá al mercado mayor eficiencia energética, lo que representa mejor desempeño de la batería y más duración de ésta manteniendo su desempeño", dijo Mistry.

En el diseño de los microprocesadores, un canal conductor pasa a través de una compuerta de encendido que se abre o cierra cambiando la energía de 0 a 1 (apagado o encendido).

Transistor plano

Hasta ahora esos canales -que se encuentran en la lámina de silicio- han sido planos. El sistema Tri-Gate de Intel reemplaza esos canales con aletas en 3D.
Transistor 3D

Mistry explicó que esa superficie extra los hace que tengan mejor conducción y trabajen mejor con menos energía.

Dan Hutcheson, analista de la industria de semiconductores de la empresa VLSI Research, le dijo a la BBC que el nuevo proceso afianzará el dominio de Intel en el mercado.

"Los deja en una posición muy poderosa", aseguró.

Hutcheson añadió que la innovación en la arquitectura en 3D no sólo beneficiará a los procesadores de computadoras de escritorio de la empresa, sino también a los dispositivos móviles.

"Esto hará que su línea de productos Atom compita mucho más con ARM", aseguró. ARM es una empresa británica que es líder en el desarrollo de chips para productos móviles.

Ley de Moore

El diseño de Ivy Bridge permite alojar aproximadamente el doble de transistores que existe en los chips de 32nm.

Dicha mejoría es consistente con la ley de Moore, la observación hecha por el cofundador de Intel, Gordon Moore, de que la densidad de los chips se duplicará cada dos años.

Sin embargo, Intel y otros fabricantes de chips, se están acercando cada vez más a límites físicos que les impedirían continuar sus avances.

El próximo proceso de fabricación de chips será 14nm seguido de 11nm. Los átomos miden aproximadamente 0.5 nm de ancho.

Kaizad Mistry cree que la actual tasa de crecimiento continuará por algún tiempo. "El propio Gordon Moore dijo que ningún exponencial es para siempre, pero a él le gustaría que retrasáramos esa norma por el mayor tiempo posible".

En la actualidad Intel controla el 80% del mercado de ventas globales de microprocesadores, según la empresa de análisis IDC. Su rival más cercano Advanced Micro Devices (AMD) tiene 19% del mercado.

BBC Mundo, Tecnología
Jueves, 5 de mayo de 2011

viernes, 6 de mayo de 2011

Einstein tenía razón, asegura la NASA

Por Jonathan Amos

La sonda Gravity Probe B de la Agencia Espacial Estadounidense, NASA, produjo la sorprendente confirmación de algunas de las predicciones fundamentales de Albert Einstein.

Lanzado en 2004, el experimento se proponía probar dos teorías de Einstein sobre la naturaleza del espacio y el tiempo, y cómo la Tierra los distorsiona.

Las observaciones del satélite mostraron al enorme cuerpo de la Tierra torciendo de forma muy sutil el espacio y el tiempo, e incluso jalándolos hacia sí.

Los científicos fueron capaces de ver estos efectos mediante el estudio del comportamiento de cuatro esferas de cuarzo del tamaño de bolas de ping pong perfectamente diseñadas, que se transportaron dentro de la sonda.

Los resultados fueron publicados en la revista en internet Physical Review Letters.

Esta investigación es importante no solo porque pone en evidencia una vez más la genialidad del gran científico nacido en Alemania, sino también porque proporciona herramientas más refinadas para comprender la física que mueve el cosmos.

Misión 1959

En un plano más humano, los resultados presentan la culminación de una odisea extraordinaria para los principales creadores de la misión, algunos de los cuales han dedicado más de cinco décadas a estos resultados.

La idea de la misión fue propuesta por primera vez en 1959, pero el proyecto tuvo que esperar hasta que las tecnologías necesarias para llevarlo a cabo fueran inventadas.

Entre ellos Francis Everitt, investigador principal de la misión de la Universidad de Stanford, quien se encontraba allí en el comienzo de la idea de la sonda Gravity Probe B (GP-B) a finales de la década de 1950.

"Hemos completado este experimento sin precedentes, comprobando el universo de Einstein, y Einstein sobrevive", anunció el investigador.

GP-B no fue lanzada hasta el año 2004, y desde entonces el equipo de la misión evalúa los datos, para estar seguros de sus observaciones.

Algunas de la dificultad del grupo han sido demostrar que algunas mediciones increíblemente pequeñas eran reales y que no estaban sesgadas por fallas introducidas en el montaje experimental. Durante un tiempo, parecía que el experimento no tendría éxito.

En el espacio

La sonda Gravity Probe B fue puesta en el espacio para confirmar dos importantes consecuencias derivadas de la Teoría General de la Relatividad de Einstein, su descripción de la gravedad.

En 1916, Einstein propuso que el espacio y el tiempo forman una estructura que podría curvarse ante la presencia de un cuerpo como los planetas o estrellas.

Conocido como el efecto geodésico, se trata de la cantidad por la cual la masa de la Tierra deforma su dimensión espacio-tiempo.


El otro, que los físicos denominan torsión por arrastre o efecto de alabeo, es el fenómeno por el cual la Tierra gira consigo el espacio-tiempo a su alrededor a medida que gira.

GP-B trató de observar estos dos efectos al medir pequeñas desviaciones en el eje de los cuatro giroscopios en relación con la posición de una estrella llamada IM Pegasi (HR 8703).


Para asegurar la precisión, las esferas tenían que ser enfriadas hasta cerca de "cero absoluto" (-273C) y fueron llevadas dentro de un termo gigantesco que contenía helio súper fluido. Ésta y otras medidas aislaron las esferas de las perturbaciones externas.

Si Einstein se hubiera equivocado en sus ideas, los giroscopios habrían girado sin obstáculos por las fuerzas externas (presión, calor, campo magnético, la gravedad y las cargas eléctricas).

Pero dado que el físico nos enseño que el espacio y el tiempo se deforman ante la presencia de la Tierra, esa desviación debería poderse medir, aunque con gran dificultad.

En el transcurso de un año, el esperado giro de los ejes de las bolas por el efecto geodésico fue calculado y resultó estar en la escala de unos pocos miles de milisegundos de arco. El efecto de alabeo se prevé que sea aún menor.

"Un milisegundo de arco es el ancho de un cabello humano visto a una distancia de 16 km. Realmente es un ángulo bastante pequeño, y esta es la precisión que la sonda Gravity Probe B tuvo que lograr", explicó el profesor Everitt.

"Para el efecto geodésico, el efecto de la relatividad según Einstein es de 6,606.1 de estos milisegundos de arco, y el resultado de la medida fue un poco más de un cuarto de uno por ciento de eso. La torsión por arrastre que medimos fue de un poco más de 20%".

Legado

"GP-B, a la vez que era conceptualmente simple, es tecnológicamente un experimento muy complejo", dijo Rex Geveden, el ex director del programa de la GP-B y ahora el presidente de Teledyne Brown Engineering, en Huntsville, Alabama.

"La idea surgió de tres a cuatro décadas antes de que la tecnología estuviera disponible para probarlo. Trece nuevas tecnologías se crearon para la GP-B. Las bolas de cuarzo se pensaba que eran los objetos más redondos jamás fabricados. La variación diametral en las esferas está cerca de dos décimas partes de una millonésima de pulgada".

Estas innovaciones para la Sonda Gravity Probe B se han convertido directamente en mejoras en el Sistema de Posicionamiento Global (GPS). Y una misión de la NASA llamada Cobe, que fotografió el Universo a menos de un millón de años después del Big Bang, debe su éxito a la tecnología desarrollada en la Sonda Gravity Probe B.

Unos 100 estudiantes lograron su doctorado trabajando en algún aspecto de la misión durante los muchos años que se tardó en desarrollar, construir y luego volar la sonda.

"La procesión de un giroscopio en un campo gravitacional de un cuerpo en rotación nunca antes había sido medida. Si bien el resultado en este caso es compatible con Einstein, no tenía por qué serlo", comentó el profesor Clifford Will de la Universidad de Washington, St. Louis.

"Los físicos no dejarán nunca de probar sus teorías básicas, ya sea con el fin de confirmar para bien o para revelar una nueva física más allá de las teorías estándar".

"En algunos casos, el único lugar para hacer esto, para llevar a cabo tales experimentos, es en el espacio. Este fue el caso de la GP-B".

BBC Ciencia
Jueves, 5 de mayo de 2011