Google+ Claude Shannon homenajeado por Google en el centenario de su nacimiento. Doodleando, Los Logos de Google

viernes, 29 de abril de 2016

Claude Shannon homenajeado por Google en el centenario de su nacimiento.


30 de Abril de 2016
Claude Shannon homenajeado por Google en el centenario de su nacimiento

Google homenajeará mañana al ingeniero y matemático Claude Shannon en varios países del mundo al celebrarse el centenario de su nacimiento.

Claude Elwood Shannon nació el 30 de abril de 1916 en Gaylord, Míchigan (Estados Unidos). Ingeniero electrotécnico y matemático estadounidense, famoso por su desarrollo de la teoría de la comunicación, conocida actualmente como teoría de la información.

En 1932 ingresó en la Universidad de Míchigan, en 1936 obtuvo los títulos de ingeniero electricista y matemático. Su interés por la matemática y la ingeniería continuó durante toda su vida. En 1940 obtuvo su doctorado en el Instituto de Tecnología de Massachusetts, donde se convirtió en miembro del cuerpo docente en 1956. En 1948 publicó The Mathematical Theory of Communication (La teoría matemática de la comunicación), un artículo en el que presentaba su concepto inicial de una teoría de unificación de la transmisión y tratamiento de la información. En este contexto la información incluye todas las formas de mensajes transmitidos, incluso los enviados a lo largo de los sistemas nerviosos de organismos vivos. La teoría de la información tiene gran importancia en la actualidad en muchos campos.


La necesidad de una base teórica para la tecnología de la comunicación surgió del aumento de la complejidad y de la masificación de las vías de comunicación, tales como el teléfono, las redes de teletipo y los sistemas de comunicación por radio. La teoría de la información también abarca todas las restantes formas de transmisión y almacenamiento de información, incluyendo la televisión y los impulsos eléctricos que se transmiten en las computadoras y en la grabación óptica de datos e imágenes. El término información se refiere a los mensajes transmitidos: voz o música transmitida por teléfono o radio, imágenes transmitidas por sistemas de televisión, información digital en sistemas y redes de computadoras, e incluso a los impulsos nerviosos en organismos vivientes. De forma más general, la teoría de la información ha sido aplicada en campos tan diversos como la cibernética, la criptografía, la lingüística, la psicología y la estadística.

Un concepto fundamental en la teoría de la información es que la cantidad de información contenida en un mensaje es un valor matemático bien definido y medible. El término cantidad no se refiere a la cuantía de datos, sino a la probabilidad de que un mensaje, dentro de un conjunto de mensajes posibles, sea recibido. En lo que se refiere a la cantidad de información, el valor más alto se le asigna al mensaje que menos probabilidades tiene de ser recibido. Si se sabe con certeza que un mensaje va a ser recibido, su cantidad de información es 0. Si, por ejemplo, se lanza una moneda al aire, el mensaje conjunto cara o cruz que describe el resultado, no tiene cantidad de información. Sin embargo, los dos mensajes por separado cara o cruz tienen probabilidades iguales de valor un medio.


No hay comentarios :

Publicar un comentario