La Red de Conocimientos Pedagógicos - Conocimientos sobre estudiar en el extranjero - El fundador de la teoría de la información es

El fundador de la teoría de la información es

El fundador de la teoría de la información es Claude Shannon. El Premio Shannon, establecido en memoria de Claude Elwood Shannon, es el premio más alto en el campo de la teoría de la comunicación y también se conoce como el "Premio Nobel en el campo de la información". "Premio Campana".

Claude Elwood Shannon (30 de abril de 1916 - 24 de febrero de 2001) fue un matemático estadounidense y fundador de la teoría de la información. Recibió una licenciatura de la Universidad de Michigan en 1936. Recibió su maestría y doctorado en el Instituto de Tecnología de Massachusetts en 1940 e ingresó a los Laboratorios Bell en 1941.

Shannon propuso el concepto de entropía de la información, sentando las bases de la teoría de la información y las comunicaciones digitales. Sus principales artículos incluyen la tesis de maestría de 1938 "Análisis simbólico de circuitos de relés y conmutadores", los "Principios matemáticos de la comunicación" de 1948 y la "Comunicación bajo ruido" de 1949.

Biografía

Shannon comenzó a pensar en la teoría de la información y los sistemas de comunicación efectivos en 1940 mientras estaba en el Instituto de Estudios Avanzados de Princeton. Después de ocho años de arduo trabajo, Shannon publicó en serie el artículo de gran alcance "Principios matemáticos de las comunicaciones" en el "Bell System Technical Journal" en junio y octubre de 1948.

En 1949, Shannon publicó otro artículo famoso, "Comunicación bajo ruido", en la revista. En estos dos artículos, Shannon aclaró las cuestiones básicas de la comunicación, dio un modelo del sistema de comunicación, propuso una expresión matemática para la cantidad de información y resolvió los problemas de capacidad del canal, características estadísticas de la fuente, codificación de la fuente, codificación del canal, etc. Una serie de cuestiones técnicas básicas. Estos dos artículos se convirtieron en los trabajos fundamentales de la teoría de la información.

En 1948, la histórica "Una teoría matemática de las comunicaciones" se dividió en dos partes y se publicó en el Bell System Technical Journal en julio y octubre. El artículo analiza sistemáticamente la definición de información, cómo cuantificarla y cómo codificarla mejor. En estos estudios, la teoría de la probabilidad fue una herramienta importante utilizada por Shannon. Shannon también propuso el concepto de entropía de la información para medir la incertidumbre de los mensajes.

En 1949, Shannon publicó otro artículo importante, "Teoría de la comunicación de los sistemas secretos". Se basa en esta práctica de trabajo y su importancia es transformar la comunicación segura de un arte a un arte. ciencia.