Por
Dalia Ventura
8 de febrero de 2025
"Mi mente divaga y se me ocurren cosas distintas día y noche. Como un
escritor de ciencia ficción, pienso: ¿qué pasaría si fuera así?". Claude
Shannon, 1916-2001
Quienes trabajaron con él en los Laboratorios Bell en Nueva York,
Estados Unidos, lo recordaban recorriendo los pasillos en un monociclo
mientras hacía malabarismos con cuatro pelotas.
Sus colegas en el Instituto Tecnológico de Massachusetts (MIT) contaban que tenía sobre su escritorio un artilugio de su propia creación
llamado la "Máquina Definitiva", una caja con un botón que, al prenderla,
salía una mano mecánica y la apagaba.
Sin olvidar, por supuesto, que a los 21 años escribió "la tesis de maestría
más importante de todos los tiempos", sentando las bases para todas las
futuras computadoras digitales.
Ni tampoco que a los 32 años publicó lo que Scientific American llamó
"la Carta Magna de la era de la información", pues inventó el bit, y explicó
cómo comprimir y enviar cualquier mensaje con perfecta precisión.
Es por eso que muchos, al referirse a él, declaran que Shannon se inventó el
futuro.
O, más bien, el presente en el que vivimos.
Y no exageran: su contribución dio la arquitectura intelectual de internet y
la era digital.
"En los Laboratorios Bell y en MIT hubo muchos que compararon la intuición de
Shannon con la de Einstein. Otros consideraron que esa comparación era
injusta... injusta con Shannon", según el autor de "La fórmula de la fortuna",
William Poundstone.
No obstante, su nombre no trascendió tanto como el de otros célebres
científicos de su época.
¿La razón?
"Porque así fue como él lo quiso", señaló Rob Goodman, coautor de la biografía
de Shannon "Una mente en juego".
"Se alejó conscientemente de la fama", agregó en una sesión con Quora.
Pero, además, porque su legado es relativamente intangible.
"Es fácil imaginar una computadora, pero más difícil imaginar el salto
creativo que demostró que los interruptores o circuitos podían evaluar
enunciados lógicos", indicó Goodman.
"Es fácil imaginar un teléfono inteligente, pero más difícil imaginar las
ideas sobre la naturaleza de la información y la comunicación que hicieron
posible ese teléfono inteligente.
"Shannon trabajó en ese nivel fundamental e intangible, razón por la cual es
venerado entre los expertos, pero un tanto invisible para el público en
general".
Esa tesis
Tras graduarse en la Universidad de Michigan en 1936, Shannon trabajó
como asistente de laboratorio para el pionero de la informática
Vannevar Bush, vicepresidente y decano de ingeniería de MIT.
Solía ayudar a científicos visitantes a usar el "analizador diferencial", la
computadora más poderosa del mundo en ese entonces, creada por Bush.
La enorme máquina análoga usaba un sistema preciso de ejes, engranajes, ruedas
y discos para resolver ecuaciones de cálculo.
Para solucionar cada problema había que reorganizar todo el mecanismo de
manera que sus movimientos correspondieran a la ecuación adecuada.
¿Pesadilla?
No para Shannon.
Desde niño, además de deleitarse resolviendo problemas matemáticos que su
hermana le pasaba, se divertía reparando radios, construyendo juguetes y hasta
convirtió una cerca de alambre de púas en una línea telegráfica para
comunicarse con un amigo.
Así que pasarse horas manipulando ese complejo mecanismo era un placer.
Y, al hacerlo, el engranaje de su mente trabajaba mucho más rápido que el de
la máquina, como evidencia su tesis de máster, "Un análisis simbólico de los
circuitos de relés y de conmutación".
En Michigan se había graduado como ingeniero eléctrico y matemático, y había
tomado un curso de filosofía en el que conoció la obra del filósofo del siglo
XIX George Boole.
Todo eso se conjugó cuando observó que la relación entre los interruptores
eléctricos y la corriente podía imitar el proceso intelectual de la lógica
simbólica y las matemáticas.
Los interruptores del circuito de control, que podían abrirse y cerrarse
automáticamente, correspondían a la elección binaria de la lógica, en la que
una afirmación es verdadera o falsa.
En el álgebra de Boole a las afirmaciones se les asignan valores: 1 a las
verdaderas, y 0 a las falsas.
Basándose en esa teoría, Shannon aplicó el valor "1" a los circuitos abiertos
y el valor "0" a los cerrados.
Además, en el álgebra booleana, las afirmaciones se pueden considerar junto
con conjunciones como "y" [AND], "no" [NOT], y "o" [OR].
Entonces, por ejemplo, algo como "si suena la alarma por la mañana y no es fin
de semana, entonces tienes que ir a trabajar" sería el equivalente lingüistico
de "si el número X no es igual al número Y, entonces realiza la operación Z"
en el circuito de interruptores.
Una muestra de cuán fundamental fue su tesis es que hoy podemos fácilmente
reconocer que eso es programar una computadora.
Pero entonces era una noción nueva que, cuando más tarde se puso en práctica,
despertó asombro: implicaba que las máquinas tenían la capacidad de decidir
qué hacer por sí solas... como los humanos.
Así, escribió Shannon, "es posible realizar operaciones matemáticas complejas
por medio de circuitos de interruptores", pues podían adoptar cursos de acción
alternativos según las circunstancias.
Con ese método simple y brillante emitió "el certificado de nacimiento de la
revolución digital", declaró Alain Vignes en su libro "El silicio, de la arena
a los chips".
Una esposa computadora
Shannon había tenido la idea crucial para organizar las operaciones internas
de un computador moderno casi una década antes de que existieran.
Pero cuando habló con el ex editor de la revista Spectrum John Horgan en 1982,
le restó importancia.
"Simplemente sucedió que nadie más estaba familiarizado con esos dos campos al
mismo tiempo", dijo, y agregó: "Siempre me ha gustado esa palabra,
'booleano'".
"Me divertí más haciendo eso que cualquier otra cosa en mi vida", le dijo a
otro periodista.
Bajo el ala de Vannevar Bush, Shannon decidió complementar su maestría
con un doctorado.
Bush pensaba que especializarse en un solo tema sofocaba una mente brillante,
así que le aconsejó hacer su tesis doctoral sobre genética, cuenta la revista
MIT Technology Review.
¿Brillaría incluso sin tener conocimientos previos en un campo?
Cuando la completó, Henry Phillips, el director del Departamento de
Matemáticas del MIT, escribió que Shannon podía "hacer una investigación de
primera clase en cualquier campo en el que se interese".
Poco después de obtener su doctorado, Shannon se fue a trabajar a AT&T
Bell Laboratories.
Era 1940 y Europa estaba bajo la sombra de la Segunda Guerra Mundial, un
conflicto en el que EE.UU. no se había querido involucrar directamente pero
que quizás, como ocurrió, no iba a poder evitar.
Así que Shannon se puso inmediatamente a trabajar en proyectos militares como
el control del fuego antiaéreo y la creación y descifrado de códigos, incluido
uno que Churchill y Roosevelt utilizaron para conferencias transoceánicas.
Y conoció a quien sería su segunda esposa, Mary Elizabeth "Betty" Moore, una
de las "computadoras" de Bell Labs.
Así se les llamaba a las personas, a menudo mujeres, que usaban y operaban las
máquinas de la unidad de informática para encontrar soluciones matemáticas a
través de lo que hoy llamamos programación.
Betty era analista numérica y se convirtió en asesora de Shannon en cuestiones
matemáticas.
La Carta Magna
Mientras trabajaba en lo urgente para la guerra, Shannon escribió "Una teoría
matemática de la criptografía", finalizada en 1945 pero clasificada y, por lo
tanto, no publicada hasta 1949.
Los entendidos consideran que con ella transformó la criptografía de un arte a
una ciencia.
En ella exploró, entre otras cosas, la naturaleza y redundancia del lenguaje,
temas que revisitaría en su obra maestra "Una teoría matemática de la
comunicación".
La había estado formulando simultáneamente, en sus ratos libres.
Estatua de Shannon en los laboratorios Claude Shannon de AT&T
Shannon había notado que, así como los códigos podían proteger la
información de miradas indiscretas, también podían protegerla del ruido o la
distorsion que sufría al ser transmitida, ya fuera por la estática u otras
formas de interferencia.
Además, esos códigos podían usarse para empaquetar información más
eficientemente, para poder transmitir una mayor cantidad de ella por
telégrafo, radio, televisión o teléfono.
Comprendió que el significado semántico de un mensaje era irrelevante para
su transmisión: no importaba qué decía, la cuestión era cómo cuantificar la
información.
Para ello, definió las unidades de información, los fragmentos más pequeños
posibles, y los llamó "bits" (o "bytes"[= 8 bits]), término que fue sugerido
por su colega John Tukey como abreviatura de 'dígito binario'.
Para expresar información en un bit, se usaría un 1 o un 0.
Cadenas de esos bits [usando el sistema binario] se podían utilizar para
codificar cualquier mensaje pues describían todo, desde palabras hasta
imágenes, canciones, videos y el software de juegos más sofisticado.
Aunque esas ráfagas de bits sufrían los mismos problemas que una señal
analógica, es decir, debilitamiento y ruido, la digital tenía una ventaja:
los 0 y los 1 eran estados tan claramente diferentes que, incluso después
del deterioro, su estado original podían reconstruirse mucho más adelante.
Estas ideas y otras más contenidas en su Teoría matemática de la
comunicación, como lo que llamó el "teorema fundamental" de la teoría de la
información, eran proféticas.
Un concepto radical que altería para siempre la comunicación electrónica.
Como un rayo
Shannon, sin embargo, no tenía prisa por publicar.
"Estaba más motivado por la curiosidad", explicó en una entrevista con la
revista Omni, en 1987, añadiendo que el proceso de escribir para su
publicación era "doloroso".
Finalmente superó su reticencia y su pionero artículo apareció en el Bell
System Technical Journal en 1948.
El efecto fue inmediato y electrizante.
"Fue como un rayo caído del cielo", recuerda John Pierce, uno de los mejores
amigos de Shannon en Bell Labs.
La revista Fortune, por ejemplo, la calificó como "una gran teoría
científica que podría alterar profunda y rápidamente la visión del mundo del
hombre".
Para Warren Weaver, director de la División de Ciencias Naturales de la
Fundación Rockefeller, la teoría abarcaba "todos los procedimientos mediante
los cuales una mente puede afectar a otra", incluyendo "no sólo el lenguaje
escrito y oral, sino también la música, las artes pictóricas, el teatro, el
ballet y, de hecho, todo el comportamiento humano".
Efectivamente, la teoría de Shannon cautivó a un público mucho más amplio
que aquel al que estaba destinada.
Lingüistas, psicólogos, economistas, biólogos y artistas intentaron
fusionarla con sus disciplinas.
A medida que la popularidad crecía, Shannon comenzó a preocuparse de que sus
ideas se estuvieran usando indiscriminadamente y, por lo tanto, perdiendo su
enfoque y significado.
En retrospectiva, no había razón para temer: la mayoría de las aplicaciones
de su teoría a otras disciplinas, como la biología, la neurociencia o el
análisis de redes sociales, han sido sólidas y muy valiosas.
Su obra era tan revolucionaria y general que sería empleada en una plétora
de campos, desde internet hasta la información genética en el ADN, a pesar
de que la formuló décadas antes de que existiera la web o se descubriera la
doble hélice.
En cualquier caso, la preocupación no le duró mucho.
Mientras la comunidad académica seguía digiriendo el impacto de la teoría de
la información, los intereses de Shannon cambiaron.
La suya no era sólo una mente teórica brillante, sino también una mente
extraordinariamente divertida, práctica e inventiva, apunta Jimmy Soni,
coautor de "Una mente en juego".
Así que se dedicó más de lleno a algo que siempre le había fascinado.
Durante gran parte de la década de 1950, Shannon pasó sus días en el
laboratorio soñando y luego construyendo ingeniosos dispositivos.
Algunos resultaron ser prototipos de lo que hoy se denomina inteligencia
artificial.
Entre ellos, el famoso Teseo, un ratón que podía resolver un laberinto
mediante ensayo y error. Además, podía recordar la solución y también
olvidarla en caso de que la situación cambiara y la solución ya no fuera
aplicable.
O la máquina que "leía la mente". Tenía dos luces y un botón. El jugador
adivinaba en voz alta si el artilugio encendería la luz izquierda o derecha,
apretaba el botón, y una de las dos luces se encendía.
El éxito de la máquina dependía del registro de patrones.
Pero su motivación no era práctica.
"Hago lo que me sale naturalmente y la utilidad no es mi objetivo principal.
Me gusta resolver problemas nuevos todo el tiempo", explicó en una ocasión.
"Me sigo preguntando: ¿Es posible crear una máquina para hacer eso? ¿Puedes
demostrar este teorema? Estos son los tipos de problemas que abordo. No
porque vaya a hacer algo útil".
Y eso estaba bien para su jefe, Henry Pollak, director de la división de
matemáticas de Bell Labs, pues Shannon "se había ganado el derecho a ser
improductivo".
Cosas inútiles
Ya desde poco después de publicar su teoría, Shannon había rechazado casi
todas las numerosas invitaciones para dar conferencias o entrevistas.
No quería ser una celebridad.
Más tarde, comenzó a retirarse no sólo de la vista del público sino también
de la comunidad de investigación, preocupando a sus colegas de MIT, que lo
había contratado en en 1958.
"Escribía artículos hermosos, cuando escribía, y daba charlas hermosas,
cuando daba una charla. Pero odiaba hacerlo", recordó el destacado teórico
de la información Robert Fano en conversación con MIT Technology Review.
Seguía, sin embargo, inventando artilugios, como su THROBAC, una calculadora
que utilizaba números romanos para todos los cálculos, y una computadora
portátil para ganarle a la ruleta en los casinos.
E incursionó en la poesía con un homenaje al cubo de Rubik, titulado "Una
rúbrica sobre las cúbicas de Rubik".
"Paso mucho tiempo en cosas totalmente inútiles", le dijo a Horgan.
Y otras más útiles: desarrolló varios modelos matemáticos para predecir el
rendimiento de las acciones y los ha probó con éxito en la bolsa de valores.
No obstante, aunque cuando colegas o estudiantes lo consultaban les daba
todo de sí, solía pasársela encerrado en su oficina y, a mediados de la
década de 1960, dejó de enseñar.
Su retiro oficial fue en 1978, y Shannon se fue feliz a su Casa de la
Entropía, como llamaba a su hogar en las afueras de Boston, donde tenía su
cuarto de juguetes.
Su ingenio no había disminuido: "¡Todavía construía cosas!", recordó su
esposa Betty al hablar con MIT Technology Review.
"Una era una figura de WC Fields que rebotaba tres pelotas en un tambor.
¡Hacía un ruido tremendo!".
La lista de sus creaciones es extensa.
Además de una variedad de máquinas diseñadas para jugar juegos abstractos,
como el hexadecimal y un robot que resuelve el cubo de Rubik, hizo una
trompeta que lanzaba llamas, un frisbee propulsado por cohetes, unos zapatos
gigantes de poliestireno para poder caminar sobre el agua en un lago
cercano...
... y muchos monociclos, en todas sus variantes: uno sin asiento; otro sin
pedales; uno construido para dos; otro con una rueda cuadrada.
Muy rara vez se le veía en público, para el pesar de sus admiradores.
Pero en 1985, alentado por Betty, hizo una aparición inesperada en el
Simposio Internacional de Teoría de la Información en Brighton, Inglaterra.
"Fue como si Newton hubiera aparecido en una conferencia de física", dijo el
presidente del simposio, Robert J. McEliece.
Ese mismo año, tristemente, él y Betty comenzaron a notar ciertos lapsus de
memoria, y en 1993 se confirmó que sufría de la enfermedad de Alzheimer.
La familia lo internó en un asilo de ancianos donde falleció en 2001.
"Claude hizo tanto por hacer posible la tecnología moderna que es difícil
saber dónde empezar y dónde terminar", comentó el eminente ingeniero Robert
G. Gallager, quien trabajó con Shannon en los años 60.
"Tenía una claridad de visión asombrosa. Einstein también la tenía: esa
capacidad de abordar un problema complicado y encontrar la forma correcta de
analizarlo, de modo que las cosas se vuelvan muy simples".
Biografía de Claude Shannon, en Wikipedia
NOTA DEL ADMINISTRADOR: En su libro
"Los innovadores. Los genios que inventaron el futuro", Walter Isaacson
habla sobre Claude Shannon reconociendo su papel como el padre de la teoría
de la información y dedicándole el capítulo titulado “El computador”. El
libro abarca las importantes contribuciones de Shannon a la revolución
digital, incluyendo su desarrollo de la lógica booleana para circuitos
electrónicos, que sentó las bases para los dispositivos digitales modernos.
Isaacson describe a Shannon como una figura central en la revolución digital
y cómo sus ideas revolucionaron la comunicación. La obra "Una Teoría
Matemática de la Comunicación" de Shannon es considerada el hito fundamental
de la teoría de la información. El libro también destaca cómo la teoría de
Shannon fue clave para el desarrollo de la computación moderna.





No hay comentarios.:
Publicar un comentario