A poca gente le debemos tanto como a Claude Shannon. Con 21 años sentó las bases del diseño de circuitos electrónicos (con sus trabajo de álgebra booleana), con 32 creó él sólo la teoría de la información y más tarde creó alguno de las primeras inteligencias artificiales.
Hoy se cumplen cien años de su nacimiento y no queríamos faltar a la cita con la persona gracias a la cual pudimos empezar a pensar en serio en las tecnologías de la información.
Nació y creció en Michigan. En una entrevista para IEEE Spectrum Shannon contó que siendo muy pequeño leyó "El escarabajo de oro" de Edgar Allan Poe y decidió que quería dedicarse a la criptografía. En el fondo, todo su trabajo fue sobre eso: sobre como transportar mensajes, como evitar el ruido y como conservar lo importante.
Ceros y unos
Cuando Boole publicó su álgebra en 1854 dijo que en los '0' y los '1' estaban la nada y el universo. El primero que se dio cuenta de que esa frase era algo más que una metáfora fue Claude Shannon.
Su trabajo de fin de máster ("A Symbolic Analysis of Relay and Switching Circuits") es casi con toda seguridad uno de los más importantes de la historia. En él, Shannon mostró que se podía usar la lógica booleana para resolver problemas implementándola a través de circuitos donde los interruptores encendidos representan los '1' y los interruptores apagados los '0'. Ahora, el potencial del binario nos parece evidente: quien lo vio fue Shannon.
Aunque el trabajo estaba motivado por la necesidad de las telefónicas de solucionar un problema logístico importantísimo (el tamaño y la complejidad de la red crecen a un ritmo mayor de lo que los operadores humanes podían asumir), rápidamente superó esos límites.
El creador de la información
En el 1948, publicó "Una teoría matemática de la comunicación" el trabajo fundacional de la teoría de la información. Shannon intentaba pensar sobre cómo transmitir mensajes y cómo impedir que se convirtieran en ilegibles entre el ruido.
En el proceso, creó la idea formal de información, introdujo el concepto de bit y desarrolló la idea de entropía de la información: su propuesta que se centraba en la idea de incertidumbre y probabilidad cambió totalmente la forma de entender la comunicación y abrió las puertas a las tecnologías de la información y la comunicación que disponemos ahora.
Desde 1958 fue profesor del MIT donde realizó algunos de los primeros desarrollos en inteligencia artificial (su trabajo sobre programas de ajedrez definió el área durante décadas) y, por si parecía un poco aburrido, desarrolló métodos estadísticos para jugar a distintos juegos de azar. La película 21 Blackjack está inspirada en el grupo de investigadores del MIT que viajaba a Las Vegas del que Shannon parece que formaba parte.
El Alzheimer nos arrebató una de las mentes más brillantes de la tecnología el 24 de febrero de 2001. Poca gente puede decir que ha visto como su trabajo ha revolucionado el mundo. Al menos, Claude Shannon se llevó eso consigo.
Imagen | Paul Keller, Filter Forge
También te recomendamos
No, esto no es un molino: es el primer sistema de telecomunicaciones, un telégrafo óptico
Estos portátiles tienen un truco para representar el color sin defectos
La rosa cíborg: científicos suecos implantan circuitos electrónicos dentro de plantas
-
La noticia Un pequeño homenaje a Claude Shannon: el hombre que creó la información fue publicada originalmente en Xataka por Javier Jiménez .
Gracias a Javier Jiménez
No hay comentarios.:
Publicar un comentario