domingo, 29 de mayo de 2011

El disco duro crece


El sistema de almacenamiento doblará la capacidad cada dos años esta década - La memoria 'flash', 10 veces más cara, seguirá en aparatos de bolsillo.

Por LLUÍS ALONSO - Barcelona - 20/05/2011

El disco duro va a duplicar su capacidad de almacenamiento cada dos años durante esta década. Así lo llevan haciendo desde hace 50 años, según John Coyne, máximo responsable ejecutivo de Western Digital (WD), que tiene el 50% del mercado mundial.

viernes, 27 de mayo de 2011

La fortaleza de Linux está en América Latina


Por David Cuen

Linux es un sistema operativo que cuenta con una fiel base de seguidores, usuarios y programadores, pero que aún se mantiene lejos de la competencia comercial en computadoras personales. Ahí Windows lidera.

Sin embargo, poco a poco Linux ha ido ganando espacio en el terreno de consumo y una de las regiones que está impulsando este crecimiento es Latinoamérica.

De acuerdo con Royal Pingdom -un sitio conocido por sus compilaciones estadísticas sobre el ámbito tecnológico- Cuba, Venezuela y Uruguay ocupan las tres primeras posiciones mundiales en lo que a la penetración de Linux en computadoras de escritorio se refiere.

jueves, 26 de mayo de 2011

Mandelbrot y la belleza del caos

ENTREVISTA
Por Max Seitz

Aunque esta entrevista fue realizada en 2005 y el Dr. Mandelbrot murió en 2010, es una buena manera de entender la forma de pensar del inventor de los "fractales", porqué son importantes y algunas de sus aplicaciones. (Nota del administrador de ITC).

QUIÉN ERA MANDELBROT

Nació el 20 de noviembre de 1924 en Varsovia, Polonia.

Sus padres, de origen judío, previeron lo que sobrevendría en Europa y se mudaron a París en 1936.

Mandelbrot estudió ingeniería en Francia y en EE.UU., y se doctoró en ciencias matemáticas en París, en 1952.

miércoles, 25 de mayo de 2011

El monóxido de carbono


Por Isaías Ferreira

Según la ficha clínica, el Monóxido de carbono (CO) es un gas extremadamente tóxico producido como resultado de quemar combustibles de fósiles (gas, aceite, carbón de hulla) y puede ser emitido por los artefactos comunes alimentados por gas que utilizamos en las casas. Debido a que muchas calderas y calentadores de agua trabajan con combustibles de fósiles, estos pueden emanar CO el cual se puede acumular en la casa, si ésta no está propiamente ventilada. Los gases de un automóvil pueden producir CO, lo que convierte a los garajes en áreas potenciales de acumulación de CO.

martes, 24 de mayo de 2011

El rayo láser que puede transferir toda una biblioteca en 10 segundos


Un grupo de investigadores fijó un nuevo récord en transmisión de datos, vía un rayo láser, alcanzando 26 terabits por segundo.

A esa velocidad sería posible transferir toda la colección de la Biblioteca del Congreso de EE.UU. -la más grande del mundo- a través de un cable de fibra óptica en sólo diez segundos.

El truco consiste en utilizar lo que se conoce como "óptica transformada de Fourier" para distinguir más de 300 colores diferentes en una rayo láser, cada uno codificado con su propia cadena de información.

lunes, 23 de mayo de 2011

El hombre que inventó el microprocesador


Iain Mackenzie
Periodista tecnológico

Microprocesador:

1. m. Fís. Circuito constituido por millares de transistores integrados en un chip, que realiza alguna determinada función de los computadores electrónicos digitales.

Real Academía Española

viernes, 20 de mayo de 2011

Tras Fukushima, el futuro está en las energías renovables


Antony Froggatt
Investigador, Chatham House, Londres

El accidente en la planta nuclear de Fukushima, en Japón, provocado por el terremoto y posterior tsunami del 11 de marzo, ha puesto nuevamente sobre el tapete uno de los temas más importantes vinculados con la energía nuclear: la seguridad.

Es sabido que las consecuencias de un accidente nuclear catastrófico pueden ser graves, pero también se sabe que la frecuencia con la que ocurren esta clase de eventos es baja.

jueves, 19 de mayo de 2011

La NASA vuelve a decepcionar tras 50 años de espera


Por Francis | 11 de mayo de 2011

Las misiones científicas de la NASA están gafadas. El satélite Gravity Probe B (GP-B) es un buen ejemplo. Ha costado 750 millones de dólares y se ha limitado a confirmar lo que ya se sabía y con un margen de error peor al logrado por experimentos anteriores. La misión fue ideada en 1959 y su primera fase, Gravity Probe A, lanzada en 1976, fue todo un éxito, aunque no logró medir el efecto buscado; pero la segunda fase ha sufrido los problemas de financiación de la NASA y tuvo que esperar a 2004 para su lanzamiento.

martes, 17 de mayo de 2011

Una computadora por US$25


Por Rory Cellan-Jones

No es mucho más grande que un dedo y parece un residuo de una fábrica de electrónica, pero sus creadores creen que su equipo de US$25 podría ayudar a una nueva generación a descubrir la programación.

El programador británico David Braben y sus colegas le mostraron a la BBC algo que se llama Raspberry Pi ("Frambuesa Pi").

Es un equipo completo en una pequeña placa de circuito, compuesto por un procesador ARM, un puerto USB y una conexión HDMI.

En un extremo, se le puede conectar un teclado y en el otro una pantalla.

domingo, 15 de mayo de 2011

RICHARD FEYNMAN – CÓMO BUSCAR UNA NUEVA LEY


Mr. Feynman hubiera cumplido 93 años el 11 de mayo.

Relacionado Richard Feynman

sábado, 14 de mayo de 2011

CIRCULANDO A MEGAHERCIOS ENTRE NANÓMETROS Y GIGÁMETROS


Por Isaías Ferreira Medina

En uno de mis escritos anteriores me refería a ese mundo fascinante que se teje en los laboratorios de las universidades y las grandes empresas electrónicas y biotecnológicas, cuyos hallazgos cambian, o prometen cambiar, nuestras vidas.

viernes, 13 de mayo de 2011

La guerra sucia de internet


Google y Facebook se han enfrentado constantemente por la forma en la que manejan los datos de sus usuarios.

Facebook reconoció que emprendió una campaña de desprestigio contra su rival Google, al contratar una firma de relaciones públicas para "plantar" en medios de comunicación artículos contra el buscador relacionados con la privacidad de sus usuarios.

La guerra de propaganda no es algo nuevo. Los gobiernos la emplearon durante décadas para que algunos medios publicaran información perjudicial para Estados enemigos. También algunas empresas la han empleado para denostar a la competencia. Lo nuevo es que nos enteremos.

martes, 10 de mayo de 2011

Energías renovables pueden alimentar al mundo, dicen expertos

Por Richard Black

Las energías renovables podrían cubrir el 80% de la demanda energética mundial para mediados de siglo, según un nuevo informe del Panel Intergubernamental sobre Cambio Climático (IPCC, por sus siglas en inglés).

En el informe, el Panel afirma que casi la mitad de la inversión actual en la generación de electricidad está destinada a las energías renovables.

Pero el crecimiento dependerá de que las políticas correctas sean implementadas, agregan.

El IPCC se encarga de proporcionar análisis sobre cuestiones del clima para la comunidad mundial y sus conclusiones han sido respaldadas por gobiernos.

El resumen de su Informe Especial sobre fuentes de energía renovables y mitigación del cambio climático (SRREN, por sus siglas en inglés) fue presentado tras una reunión en Abu Dabi en la que representantes de todos los gobiernos miembros del IPCC firmaron el texto.

"Con un apoyo constante a la política climática y energética, las fuentes de energía renovables pueden contribuir sustancialmente al bienestar del ser humano de forma sostenible mediante el suministro de energía y la estabilización del clima," dijo el profesor Ottmar Edenhofer, copresidente del grupo de trabajo del IPCC que elaboró el informe.

"Sin embargo, el aumento sustancial de las energías renovables es técnica y políticamente, muy difícil", añadió.

Pero la expansión de las energías renovables no está limitada por ninguna noción de una oferta limitada.

El informe concluye que hay más que suficiente para satisfacer las necesidades mundiales de energía actuales y futuras.

Sol a la vanguardia

"El informe demuestra claramente que las tecnologías renovables podrían abastecer al mundo con más energía de la que se podría necesitar, y a un costo altamente competitivo", dijo Steve Sawyer, secretario general del Consejo Mundial de Energía Eólica.

"El informe del IPCC será una referencia clave para las autoridades y la industria, ya que representa el análisis más amplio y de más alto nivel hasta la fecha sobre energías renovables".

El informe analiza 164 "escenarios" del desarrollo energético futuro, y en aquellos donde las energías renovables eran más favorecidas resultó en una reducción de las emisiones mundiales de gases de efecto invernadero de alrededor de un tercio en comparación con las proyecciones hechas para el año 2050.

En la actualidad, las energías renovables cubren el 12.9% del suministro mundial de energía.

Sin embargo, la mayor fuente única de energía, que representa aproximadamente la mitad del total mundial, es la más tradicional, la quema de madera para calefacción y para cocinar en los países en desarrollo.

Este tipo de energía no siempre es verdaderamente renovable, ya que no en todos los casos son plantados los árboles nuevos que reemplazarían a la madera quemada.

La tecnología de más rápido crecimiento es la energía solar conectada a la red eléctrica, que registró un aumento del 53% de la capacidad instalada durante el año 2009.

Sin embargo, el informe sugiere que la energía solar fotovoltáica seguirá estando entre las opciones más costosas en los próximos años.

Pero en situaciones donde no hay conexión a la red, ésta y otras energías renovables puede ser una ayuda significativa para el desarrollo, contribuyendo a alcanzar los Objetivos de Desarrollo del Milenio, concluye el IPCC.

De las diversas tecnologías disponibles, la bioenergía se estima que tiene el mayor potencial a largo plazo para el crecimiento, seguida por la energía solar y eólica.

Clima cambiante

Sin embargo, los gobiernos tendrán que intensificar las políticas para estimular la inversión en tecnologías renovables para que las industrias puedan crecer sustancialmente. Mantener el status quo no será suficiente.
Si los gobiernos lo hacen o no, será un factor importante para determinar si las metas internacionales sobre el clima se cumplirán.

"En la Cumbre de Naciones Unidas sobre el clima realizada el año pasado en Cancún, México, los gobiernos acordaron limitar el aumento de la temperatura media mundial a 2ºC a lo sumo", recordó Christiana Figueres, secretaria ejecutiva de la convención sobre el clima de la ONU (UNFCCC).

"Se debe llegar a ese objetivo haciendo uso de fuentes de energía renovables en una escala muy grande. Ambiciosas políticas nacionales y una fuerte cooperación internacional serán la clave para el despliegue rápido y amplio de las energías renovables en todos los países", agregó.

Este resumen acordado en Abu Dabi ofrece las conclusiones del informe completo, elaborado por 120 expertos, que se extiende a más de 1,000 páginas.

Puntos claves del informe

 Las tecnologías renovables podrían abastecer al mundo con más energía de la que se podría necesitar, y a un costo altamente competitivo.

 La de más rápido crecimiento es la energía solar conectada a la red eléctrica, pero es de las opciones más costosas.

 La bioenergía se estima tiene el mayor potencial a largo plazo para el crecimiento, seguida por la energía solar y eólica.

 En la actualidad, las energías renovables abastecen el 12.9% del suministro mundial de energía.
 Para el 2050 podrían cubrir el 80%.

BBC
Martes 10 de mayo de 2011

lunes, 9 de mayo de 2011

Intel revoluciona las computadoras con un nano chip en 3D

Intel develó su nueva generación de tecnología de microprocesadores, con el nombre en código "Ivy Bridge".

Los chips -de pronta aparición en el mercado- serán los primeros en utilizar un proceso de fabricación de 22 nanómetros (nm) que les permitirá tener más transistores que el actual sistema de 32nm.

Para poner su tamaño en dimensión hay que saber que un nanómetro equivale a una mil millonésima parte de un metro. Un cabello humano tiene un ancho cercano a 60,000nm.

Intel dice que también usará nuevos transistores 3D Tri-Gate que consumen menos energía.

Se cree que su competencia -AMD e IBM- también están planeando diseños similares.

"Tri-Gate"

Plano Vs. Tri-Gate

El anuncio marca un significativo paso hacia adelante en la industria comercial de procesadores, que constantemente busca construir más transistores dentro de los chips de silicio que se usan en las computadoras.

Desde hace tiempo se preveía la llegada de compuertas de 22nm, aunque la naturaleza exacta de la tecnología de Intel se había mantenido en secreto hasta ahora.

La compañía espera iniciar su producción comercial a finales de este año.

Kaizad Mistry, gerente del programa de 22nm de Intel, aseguró que la llegada de los transistores Tri-Gate cambiará los productos de consumo.

"Le permitirá al mercado mayor eficiencia energética, lo que representa mejor desempeño de la batería y más duración de ésta manteniendo su desempeño", dijo Mistry.

En el diseño de los microprocesadores, un canal conductor pasa a través de una compuerta de encendido que se abre o cierra cambiando la energía de 0 a 1 (apagado o encendido).

Transistor plano

Hasta ahora esos canales -que se encuentran en la lámina de silicio- han sido planos. El sistema Tri-Gate de Intel reemplaza esos canales con aletas en 3D.
Transistor 3D

Mistry explicó que esa superficie extra los hace que tengan mejor conducción y trabajen mejor con menos energía.

Dan Hutcheson, analista de la industria de semiconductores de la empresa VLSI Research, le dijo a la BBC que el nuevo proceso afianzará el dominio de Intel en el mercado.

"Los deja en una posición muy poderosa", aseguró.

Hutcheson añadió que la innovación en la arquitectura en 3D no sólo beneficiará a los procesadores de computadoras de escritorio de la empresa, sino también a los dispositivos móviles.

"Esto hará que su línea de productos Atom compita mucho más con ARM", aseguró. ARM es una empresa británica que es líder en el desarrollo de chips para productos móviles.

Ley de Moore

El diseño de Ivy Bridge permite alojar aproximadamente el doble de transistores que existe en los chips de 32nm.

Dicha mejoría es consistente con la ley de Moore, la observación hecha por el cofundador de Intel, Gordon Moore, de que la densidad de los chips se duplicará cada dos años.

Sin embargo, Intel y otros fabricantes de chips, se están acercando cada vez más a límites físicos que les impedirían continuar sus avances.

El próximo proceso de fabricación de chips será 14nm seguido de 11nm. Los átomos miden aproximadamente 0.5 nm de ancho.

Kaizad Mistry cree que la actual tasa de crecimiento continuará por algún tiempo. "El propio Gordon Moore dijo que ningún exponencial es para siempre, pero a él le gustaría que retrasáramos esa norma por el mayor tiempo posible".

En la actualidad Intel controla el 80% del mercado de ventas globales de microprocesadores, según la empresa de análisis IDC. Su rival más cercano Advanced Micro Devices (AMD) tiene 19% del mercado.

BBC Mundo, Tecnología
Jueves, 5 de mayo de 2011

viernes, 6 de mayo de 2011

Einstein tenía razón, asegura la NASA

Por Jonathan Amos

La sonda Gravity Probe B de la Agencia Espacial Estadounidense, NASA, produjo la sorprendente confirmación de algunas de las predicciones fundamentales de Albert Einstein.

Lanzado en 2004, el experimento se proponía probar dos teorías de Einstein sobre la naturaleza del espacio y el tiempo, y cómo la Tierra los distorsiona.

Las observaciones del satélite mostraron al enorme cuerpo de la Tierra torciendo de forma muy sutil el espacio y el tiempo, e incluso jalándolos hacia sí.

Los científicos fueron capaces de ver estos efectos mediante el estudio del comportamiento de cuatro esferas de cuarzo del tamaño de bolas de ping pong perfectamente diseñadas, que se transportaron dentro de la sonda.

Los resultados fueron publicados en la revista en internet Physical Review Letters.

Esta investigación es importante no solo porque pone en evidencia una vez más la genialidad del gran científico nacido en Alemania, sino también porque proporciona herramientas más refinadas para comprender la física que mueve el cosmos.

Misión 1959

En un plano más humano, los resultados presentan la culminación de una odisea extraordinaria para los principales creadores de la misión, algunos de los cuales han dedicado más de cinco décadas a estos resultados.

La idea de la misión fue propuesta por primera vez en 1959, pero el proyecto tuvo que esperar hasta que las tecnologías necesarias para llevarlo a cabo fueran inventadas.

Entre ellos Francis Everitt, investigador principal de la misión de la Universidad de Stanford, quien se encontraba allí en el comienzo de la idea de la sonda Gravity Probe B (GP-B) a finales de la década de 1950.

"Hemos completado este experimento sin precedentes, comprobando el universo de Einstein, y Einstein sobrevive", anunció el investigador.

GP-B no fue lanzada hasta el año 2004, y desde entonces el equipo de la misión evalúa los datos, para estar seguros de sus observaciones.

Algunas de la dificultad del grupo han sido demostrar que algunas mediciones increíblemente pequeñas eran reales y que no estaban sesgadas por fallas introducidas en el montaje experimental. Durante un tiempo, parecía que el experimento no tendría éxito.

En el espacio

La sonda Gravity Probe B fue puesta en el espacio para confirmar dos importantes consecuencias derivadas de la Teoría General de la Relatividad de Einstein, su descripción de la gravedad.

En 1916, Einstein propuso que el espacio y el tiempo forman una estructura que podría curvarse ante la presencia de un cuerpo como los planetas o estrellas.

Conocido como el efecto geodésico, se trata de la cantidad por la cual la masa de la Tierra deforma su dimensión espacio-tiempo.


El otro, que los físicos denominan torsión por arrastre o efecto de alabeo, es el fenómeno por el cual la Tierra gira consigo el espacio-tiempo a su alrededor a medida que gira.

GP-B trató de observar estos dos efectos al medir pequeñas desviaciones en el eje de los cuatro giroscopios en relación con la posición de una estrella llamada IM Pegasi (HR 8703).


Para asegurar la precisión, las esferas tenían que ser enfriadas hasta cerca de "cero absoluto" (-273C) y fueron llevadas dentro de un termo gigantesco que contenía helio súper fluido. Ésta y otras medidas aislaron las esferas de las perturbaciones externas.

Si Einstein se hubiera equivocado en sus ideas, los giroscopios habrían girado sin obstáculos por las fuerzas externas (presión, calor, campo magnético, la gravedad y las cargas eléctricas).

Pero dado que el físico nos enseño que el espacio y el tiempo se deforman ante la presencia de la Tierra, esa desviación debería poderse medir, aunque con gran dificultad.

En el transcurso de un año, el esperado giro de los ejes de las bolas por el efecto geodésico fue calculado y resultó estar en la escala de unos pocos miles de milisegundos de arco. El efecto de alabeo se prevé que sea aún menor.

"Un milisegundo de arco es el ancho de un cabello humano visto a una distancia de 16 km. Realmente es un ángulo bastante pequeño, y esta es la precisión que la sonda Gravity Probe B tuvo que lograr", explicó el profesor Everitt.

"Para el efecto geodésico, el efecto de la relatividad según Einstein es de 6,606.1 de estos milisegundos de arco, y el resultado de la medida fue un poco más de un cuarto de uno por ciento de eso. La torsión por arrastre que medimos fue de un poco más de 20%".

Legado

"GP-B, a la vez que era conceptualmente simple, es tecnológicamente un experimento muy complejo", dijo Rex Geveden, el ex director del programa de la GP-B y ahora el presidente de Teledyne Brown Engineering, en Huntsville, Alabama.

"La idea surgió de tres a cuatro décadas antes de que la tecnología estuviera disponible para probarlo. Trece nuevas tecnologías se crearon para la GP-B. Las bolas de cuarzo se pensaba que eran los objetos más redondos jamás fabricados. La variación diametral en las esferas está cerca de dos décimas partes de una millonésima de pulgada".

Estas innovaciones para la Sonda Gravity Probe B se han convertido directamente en mejoras en el Sistema de Posicionamiento Global (GPS). Y una misión de la NASA llamada Cobe, que fotografió el Universo a menos de un millón de años después del Big Bang, debe su éxito a la tecnología desarrollada en la Sonda Gravity Probe B.

Unos 100 estudiantes lograron su doctorado trabajando en algún aspecto de la misión durante los muchos años que se tardó en desarrollar, construir y luego volar la sonda.

"La procesión de un giroscopio en un campo gravitacional de un cuerpo en rotación nunca antes había sido medida. Si bien el resultado en este caso es compatible con Einstein, no tenía por qué serlo", comentó el profesor Clifford Will de la Universidad de Washington, St. Louis.

"Los físicos no dejarán nunca de probar sus teorías básicas, ya sea con el fin de confirmar para bien o para revelar una nueva física más allá de las teorías estándar".

"En algunos casos, el único lugar para hacer esto, para llevar a cabo tales experimentos, es en el espacio. Este fue el caso de la GP-B".

BBC Ciencia
Jueves, 5 de mayo de 2011

miércoles, 4 de mayo de 2011

La selección de un computador portátil en el nuevo, bravío mundo de las Tabletas

Por Walter S. Mossberg

Aunque muchas compañías están invirtiendo sus energías en los computadores tabletas (Tablets), estas no sustituyen completamente a los computadores portátiles (Laptops), al menos por ahora, dice Walt Mossberg del Wall Street Journal. Aquí está su hoja básica de los factores más importantes a tener en cuenta en la compra de lo último en computadores portátiles.

Es demasiado temprano para sustituir mi guía de compra de computadores portátiles dos veces al año con una guía de compra de tabletas, aunque a veces presiento que debiera. Gran parte de la energía que las empresas una vez vertieran en diseños y los avances de laptops, parece haber sido drenada en una carrera masiva para crear tabletas.