¿Qué es el símbolo octal?
OCT u O.
Octal es un método de conteo basado en 8, utilizando ocho números: 0, 1, 2, 3, 4, 5, 6 y 7, y cada ocho se ingresa como 1. Algunos lenguajes de programación suelen comenzar con el número 0 para indicar que el número es octal. Los números octales y binarios pueden corresponderse bit a bit (un número octal corresponde a tres dígitos binarios), por lo que se utilizan a menudo en lenguajes informáticos.
Al realizar los cálculos anteriores en el conocido sistema decimal, podemos ver por qué 112 en octal es igual a 64+8+2 = 74 en decimal.
Los números octales se pueden convertir fácilmente a partir de una representación binaria (similar al sistema numérico cuaternario) agrupando dígitos binarios consecutivos en grupos de tres (comenzando por la derecha, para los números enteros). Por ejemplo, la representación binaria del decimal 74 es 1001010. Puedes agregar dos ceros a la izquierda: (00)1 001 010, que corresponde a los dígitos octales 1 1 2, produciendo la representación octal de 112.
Octal se utilizó ampliamente en informática cuando sistemas como UNIVAC 1050, PDP-8, ICL 1900 y mainframes IBM utilizaban palabras de 6, 12, 24 o 36 bits. Octal es una abreviatura ideal de binario para estas máquinas porque la longitud de sus palabras es divisible por tres (cada dígito octal representa tres dígitos binarios).
De este modo, dos, cuatro, ocho o doce dígitos pueden mostrar la palabra completa de la máquina de forma sucinta. También reduce los costos al permitir el uso de tubos nixie, pantallas de siete segmentos y calculadoras para las consolas del operador. Las pantallas binarias son demasiado complejas para usar, las pantallas decimales requieren hardware complejo para convertir bases y las pantallas hexadecimales requieren mostrar más números.
Todas las plataformas informáticas modernas utilizan palabras de 16, 32 o 64 bits, que a su vez se dividen en bytes de 8 bits. En un sistema de este tipo, cada byte requiere tres dígitos octales, y el dígito octal más significativo representa dos dígitos binarios.
La representación octal de una palabra de 16 bits requiere 6 dígitos, pero el dígito octal más significativo representa sólo (de manera muy poco elegante) un bit (0 o 1). Esta representación no puede leer fácilmente el byte más significativo porque está manchado en cuatro dígitos octales. Por lo tanto, el hexadecimal se usa más comúnmente en los lenguajes de programación actuales porque dos dígitos hexadecimales especifican exactamente un byte.
Algunas plataformas con tamaños de palabras de potencia 2 todavía tienen subpalabras de instrucciones que son más fáciles de entender si se muestran en octal, incluidas las series PDP-11 y Motorola 68000.
La moderna y omnipresente arquitectura x86 también entra en esta categoría, pero octal rara vez se utiliza en esta plataforma, aunque algunas propiedades de la codificación binaria de códigos de operación se vuelven más evidentes cuando se muestran en octal, como el byte ModRM, que se divide en campos de 2, 3 y 3 bits, por lo que se puede utilizar octal para describir estas codificaciones.
Antes de la llegada de los ensambladores, algunos programadores escribían programas a mano en octal; por ejemplo, Dick Whipple y John Arnold escribieron Tiny BASIC Extended directamente en código de máquina usando octal.
Conversión
1. Conversión de octal a binario: Para convertir octal a binario, reemplace cada dígito octal con su representación binaria.
2. Conversión de binario a octal: Este proceso es el contrario al algoritmo anterior. Los dígitos binarios se agrupan en tres dígitos, comenzando con el dígito menos significativo y avanzando hacia la izquierda y la derecha. Si es necesario, agregue ceros a la izquierda (o ceros a la derecha del punto decimal) para completar el último grupo de tres. Luego reemplaza cada trío con su número octal equivalente.