¿Quién publicó la teoría de la comunicación de los sistemas de seguridad en 1949?
Claude Elwood Shannon (1965438+30 de abril de 2006 - 24 de febrero de 2006 5438+0) fue un matemático estadounidense y fundador de la teoría de la información. Recibió su licenciatura de la Universidad de Michigan en 1936. Recibió su maestría y doctorado en el MIT en 1940 y trabajó en los Laboratorios Bell en 1941.
Shannon propuso el concepto de entropía de la información y sentó las bases de la teoría de la información y la comunicación digital. Sus artículos principales incluyen su tesis de maestría Análisis simbólico de circuitos de relés y conmutadores en 1938, Principios matemáticos de la comunicación en 1948 y Comunicación bajo ruido en 1949. El Premio Shannon en memoria de Claude Elwood Shannon es el premio más importante en el campo de la teoría de la comunicación y también se conoce como el "Premio Nobel en el campo de la información".
Logros de Claude Elwood Shannon.
Una característica importante de la teoría de Shannon es el concepto de entropía, que demuestra que la entropía es igual a la incertidumbre de la cantidad de información. La entropía fue introducida una vez por Boltzmann en la segunda ley de la termodinámica. Podemos entenderla como el desorden del movimiento molecular. Shannon extendió el concepto de entropía en física estadística al proceso de comunicación de canales, creando así la disciplina de la "teoría de la información".
La definición de "entropía" de Shannon también se llama "entropía de Shannon" o "entropía de información", es decir, I marca todas las muestras posibles en el espacio de probabilidad, lo que indica la probabilidad de que ocurra la muestra, y K está relacionado con la selección de unidades cualquier constante. Se puede ver claramente que las definiciones de "entropía de la información" y "entropía termodinámica" (fórmula de Boltzmann) sólo se diferencian en una determinada constante de proporcionalidad.
La entropía se refiere al grado de caos del sistema. Tiene aplicaciones importantes en cibernética, teoría de la probabilidad, teoría de números, astrofísica, ciencias de la vida y otros campos. Tiene definiciones más específicas en diferentes disciplinas. parámetros importantes. La entropía fue propuesta por Rudolf Clausius y aplicada a la termodinámica. Claude Elwood Shannon introdujo por primera vez el concepto de entropía en la teoría de la información.