El desarrollo del binario
? En matemáticas y circuitos digitales, binario se refiere a un sistema de notación de base 2, lo que significa que el sistema es binario. En este sistema se suelen utilizar 0 y 1. En los circuitos digitales, las puertas lógicas son directamente binarias. Por lo tanto, las computadoras modernas y los dispositivos dependientes de la computadora usan binario, y cada número se llama bit (bit binario). Bit es la abreviatura de número binario. El primer uso oficial de este término fue en la página 1 del famoso artículo de Shannon "Una teoría matemática de la comunicación".
? Un bit es un bit en binario y es la unidad de información más pequeña. Los bits son palabras mixtas de números binarios.
? En 1605, Francis Bacon propuso un sistema que podía convertir 26 letras en números binarios. Además, añade, esta idea se puede aplicar a cualquier cosa: "Siempre y cuando las diferencias entre esas cosas sean simples opuestos, como campanas y bocinas, luces y linternas, y el sonido de rifles y armas similares disparando". La teoría de la codificación binaria tiene implicaciones importantes. (Ver Código Bacon)
? El sistema de notación binaria moderno fue ideado por Gottfried Leibniz en 1679 y aparece en su artículo "Sobre la aritmética binaria utilizando sólo los símbolos 0 y 1, y su uso y los tiempos antiguos que asignó al uso de Fuxi" El significado de los gráficos" [1] . Los sistemas relacionados con los números binarios también aparecieron en algunas culturas anteriores, como el antiguo Egipto, la antigua China y la antigua India. El Libro chino de los cambios llamó especialmente la atención de Leibniz.
? El título completo del artículo de Leibniz sobre binario es "Sobre la aritmética binaria utilizando sólo los símbolos 0 y 1, su uso y el significado que atribuye a las figuras antiguas utilizadas por Fuxi" (1703). Al igual que los sistemas de conteo binarios modernos, el sistema de Leibniz usaba ceros y unos. Aquí hay un ejemplo del sistema de conteo binario de Leibniz:
? En 1954, el matemático británico George Boole publicó un artículo histórico que detalla un sistema de lógica algebraica que llegó a conocerse como álgebra booleana. Sus cálculos lógicos jugaron un papel fundamental en el diseño posterior de circuitos electrónicos.
? Aquí vamos a aprender álgebra booleana.
? El álgebra lógica es una rama del álgebra cuyos valores de variables constan únicamente de verdadero y falso, en realidad 1 y 0. La operación principal del álgebra lógica es NAND, por lo que es un formalismo para describir relaciones lógicas de la misma manera que el álgebra ordinaria describe relaciones numéricas. George Boole introdujo el álgebra lógica en su primer libro, El análisis matemático de la lógica (1847), y la presentó más completamente en Un estudio de las leyes del pensamiento (1854). [[1]](https://zh.wikipedia.org/wiki/logic algebra#cite_note-1) fue propuesto por primera vez por Sheffer en 1913 basándose en el término "álgebra de Boole" en Huntington. [2]
? Las variables involucradas en las operaciones lógicas se denominan variables lógicas, representadas por las letras a, b... El valor de cada variable no es 0, es decir, 1. 0 y 1 no representan el tamaño del número, sino que representan dos estados lógicos diferentes.
Disposiciones para la lógica positiva y negativa:
Las operaciones básicas del álgebra lógica son las siguientes.
? A principios del siglo XX, algunos ingenieros eléctricos se dieron cuenta de que el álgebra lógica se comportaba de manera muy similar a algunos circuitos electrónicos. Shannon demostró que este comportamiento es equivalente al álgebra lógica en su artículo de 1937.
Casi todas las computadoras modernas de uso general utilizan lógica booleana binaria para realizar operaciones. Es decir, sus circuitos son representaciones físicas de la lógica booleana binaria. Varias representaciones: voltaje en un cable, la orientación de los dominios magnéticos en un dispositivo de memoria magnética, agujeros en una tarjeta perforada o cinta de papel, etc. (pero algunas de las primeras computadoras usaban circuitos o máquinas decimales en lugar de circuitos lógicos binarios).
Por supuesto, se pueden codificar más de dos símbolos en cualquier medio. Por ejemplo, utilice 0, 1, 2 y 3 voltios en cables, codifique un conjunto de caracteres con cuatro símbolos o utilice agujeros de diferentes tamaños en tarjetas perforadas. Pero, de hecho, el ruido es un factor clave en los circuitos pequeños, de alta velocidad y de baja potencia. Esto hace que sea difícil distinguir entre múltiples símbolos posibles. Entonces el diseñador del circuito eligió dos voltajes, alto y bajo, en lugar de cuatro.
Por las razones anteriores, los ordenadores utilizan circuitos lógicos binarios.
Las arquitecturas informáticas más comunes utilizan 32 o 64 secuencias booleanas llamadas bits, como 01100110101111065438. Cuando se utiliza lenguaje de máquina, lenguaje ensamblador y algunos lenguajes de alto nivel, los programadores pueden manipular la estructura numérica de los registros. En un registro, el voltaje 0 representa el 0 lógico y un voltaje de referencia (generalmente +5 voltios o +3,3 voltios [[4]](https://zh.wikipedia.org/wiki/LogicAlgebra#cite_note-4)) representa la lógica. 1. Estos lenguajes admiten operaciones numéricas y operaciones lógicas. Las "operaciones numéricas" aquí se refieren a las operaciones de la computadora de sumar, restar, multiplicar y dividir secuencias de bits como números binarios. Una "operación lógica" se refiere a una operación AND o NOT entre dos secuencias de bits, donde cada bit de una secuencia se opera con el bit correspondiente de la otra secuencia. La diferencia clave entre estas dos operaciones es que la primera tiene un acarreo y la segunda no.
? Entre 1938 y 0937, Claude Shannon completó su tesis de maestría en ingeniería eléctrica en el MIT, utilizando relés e interruptores para implementar álgebra booleana y operaciones aritméticas binarias. El título del artículo es "Análisis simbólico de circuitos de relés y conmutadores" [7], en el que la teoría de Shannon sentó las bases teóricas de los circuitos digitales. Shannon ganó el Premio de Ingenieros Estadounidenses de la Sociedad Alfred Nobel de 1940 por este artículo. Howard Gardner, de la Universidad de Harvard, dijo que la tesis de maestría de Shannon "puede ser la tesis de maestría más importante y famosa de este siglo".
? ¿Algún lector ha visto El misterio de la codificación? El capítulo 6 de este libro ya presentó qué es un relé, pero el nombre exacto es relé electromagnético. En los misterios de la codificación parece fácil saber qué es un relé, un aparato eléctrico que conecta una bobina con otra para seguir funcionando. Pero la explicación en la wiki no es así, y el autor también siente curiosidad por saber cómo se traduce el nombre de retransmisión. La explicación en la wiki es la siguiente: