La Red de Conocimientos Pedagógicos - Conocimientos matemáticos - Papel de codificación de compresión de imágenes

Papel de codificación de compresión de imágenes

Investigación y desarrollo de tecnología de compresión de imágenes digitales

Resumen: La tecnología de compresión de imágenes digitales es de gran importancia para la transmisión rápida y el procesamiento en tiempo real de información de imágenes digitales en la red. Se presentan varios de los algoritmos de compresión de imágenes más importantes: JPEG, JPEG2000, compresión de imágenes fractales y compresión de imágenes por transformada wavelet, y se resumen sus ventajas, desventajas y perspectivas de desarrollo. Luego presenta brevemente el estado de la investigación del algoritmo de codificación de objetos visuales de forma arbitraria, señalando que el algoritmo es un algoritmo de compresión de imágenes con una alta relación de compresión. Palabras clave: JPEG; compresión de imágenes fractales JPEG2000; transformada wavelet; con el continuo desarrollo de la tecnología multimedia y la tecnología de la comunicación, el entretenimiento multimedia, la autopista de la información, etc., se han planteado mayores requisitos para el almacenamiento y la transmisión de datos de información. requisitos para el ancho de banda limitado existente plantea una prueba severa, especialmente para la comunicación de imágenes digitales con grandes cantidades de datos. La transmisión y el almacenamiento son más difíciles, lo que restringe en gran medida el desarrollo de la comunicación de imágenes. Por lo tanto, la tecnología de compresión de imágenes ha recibido cada vez más atención. . El propósito de la compresión de imágenes es representar y transmitir la imagen grande original con la menor cantidad de bytes posible y exigir que la imagen restaurada tenga mejor calidad. El uso de la compresión de imágenes puede reducir la carga de almacenamiento y transmisión de imágenes, permitiendo que las imágenes se transmitan rápidamente a través de la red y se procesen en tiempo real. La tecnología de codificación por compresión de imágenes se remonta a la digitalización de señales de televisión propuesta en 1948 y tiene una historia de más de 50 años [1]. Durante este período, surgieron una variedad de métodos de codificación de compresión de imágenes, especialmente después de finales de la década de 1980, debido al establecimiento de la teoría de la transformada wavelet, la teoría fractal, la teoría de redes neuronales artificiales y la teoría de la simulación visual, la tecnología de compresión de imágenes ha logrado un desarrollo sin precedentes. La compresión de imágenes fractales y la compresión de imágenes wavelets son puntos críticos de investigación actuales. Este artículo resume los algoritmos de compresión de imágenes más utilizados en la actualidad y analiza sus ventajas, desventajas y perspectivas de desarrollo. 2. Compresión JPEG El Grupo Conjunto de Expertos en Fotografía (JPEG), responsable de formular estándares de compresión de imágenes fijas, formó el primer borrador de las especificaciones técnicas de JPEG basadas en DCT adaptativo desde junio de 0989 hasta octubre de 5438. Desde entonces, ha sido revisado muchas veces y por 65438 ISO. 1096544 se formó en junio de 0991. 1. Principio y características de la compresión JPEG En el algoritmo JPEG, la imagen primero se divide en bloques de tamaños que no se superponen y luego se realiza una transformada de coseno discreta (DCT) bidimensional en cada bloque. Los coeficientes transformados son básicamente irrelevantes y la energía de la matriz de coeficientes se concentra en la región de baja frecuencia. La cuantificación se realiza según la tabla de cuantificación. El resultado de la cuantificación conserva los coeficientes en el área de baja frecuencia y elimina los coeficientes en el área de alta frecuencia. Los coeficientes cuantificados se reorganizan según un escaneo en zigzag y luego se realiza la codificación de Huffman. Las características y ventajas de JPEG: (1) formar un estándar internacional; (2) buena calidad de imagen a velocidades de bits de rango medio y alto. Desventajas: (1) Debido al bloqueo de la imagen, se producen efectos de bloqueo graves con relaciones de compresión altas (2) La cuantificación de los coeficientes es una compresión con pérdida (3) La relación de compresión no es alta, inferior a 50; La razón del efecto de bloque en las imágenes comprimidas JPEG es que, en circunstancias normales, la señal de la imagen es altamente no estacionaria y es difícil de describir con un proceso gaussiano. Algunas estructuras de mutación en la imagen, como la información de los bordes, son mucho más importantes. que la estacionariedad de la imagen Uso El resultado de la aproximación no lineal de las señales de la imagen en base al coseno no es óptimo. 2. Estado de la investigación y perspectivas de la compresión JPEG. Dado el bloque de JPEG con relaciones de compresión altas, la imagen descomprimida es inferior. En los últimos años se han propuesto muchos métodos de mejora, entre los cuales los más eficaces son los dos métodos siguientes: (1) Codificación de árbol cero DCT La codificación de árbol cero DCT utiliza los coeficientes del bloque DCT para formar subbandas log2N y luego las codifica. con un esquema de codificación de árbol cero. Bajo la misma relación de compresión, su valor PSNR es mayor que el de EZW. Sin embargo, en el caso de una alta relación de compresión, el bloqueo sigue siendo la debilidad fatal de la codificación de árbol cero DCT. (2) Codificación jerárquica de árbol cero DCT: este algoritmo realiza una transformación DCT en la imagen, concentra bloques de baja frecuencia y realiza una transformación DCT inversa, realiza la misma transformación en la imagen recién obtenida, y así sucesivamente, hasta que se cumplan los requisitos; . Los coeficientes de la transformada DCT jerárquica y la disposición de árbol cero se codifican luego en árbol cero.

Uno de los mayores problemas en la compresión JPEG es el severo efecto de bloqueo bajo altas relaciones de compresión. Por lo tanto, en investigaciones futuras, deberíamos centrarnos en resolver el efecto de bloqueo causado por la transformación DCT y considerar combinar características visuales humanas para la compresión. La tercera generación de compresión JEPG2000 JPEG2000 es un nuevo estándar de compresión de imágenes fijas desarrollado por el grupo de estandarización ISO/IEC JTCISC29. Una de las mayores mejoras es que utiliza la transformada wavelet en lugar de la transformada coseno. En la Conferencia de Tokio de marzo de 2000, se determinó una nueva generación de método de codificación de imágenes fijas en color: el algoritmo de codificación del estándar de compresión de imágenes JPEG 2000. 1. Principio y características de la compresión JPEG2000 El diagrama de bloques del codificador y decodificador del sistema de códec JPEG 2000 se muestra en la Figura 1. El proceso de codificación se divide principalmente en los siguientes procesos: preprocesamiento, procesamiento central y organización del flujo de bits. La parte de preprocesamiento incluye segmentación de imágenes, cambio de nivel de corriente continua (DC) y transformación de componentes. La parte central de procesamiento incluye transformada wavelet discreta, cuantificación y codificación de entropía. La parte de organización del flujo de bits incluye división de áreas, bloques de código, capas y organización de paquetes. La relación de compresión de imágenes del formato JPEG2000 se puede aumentar entre un 10 y un 30% según el JPEG actual, y las imágenes comprimidas serán más delicadas y fluidas. Para el estándar JPEG actual, la compresión con pérdida y sin pérdida no se puede proporcionar en el mismo flujo de código de compresión al mismo tiempo. Sin embargo, en el sistema JPEG2000, al seleccionar parámetros, las imágenes se pueden comprimir con compresión con pérdida y sin pérdida. Actualmente, las imágenes JPEG de Internet se descargan en fragmentos, mientras que las imágenes JPEG2000 admiten la transmisión progresiva, por lo que los usuarios no necesitan recibir el flujo de código comprimido de la imagen completa. Dado que JPEG2000 utiliza tecnología wavelet, puede obtener aleatoriamente flujos de código comprimido de algunas regiones de interés (ROI) de la imagen y transmitir y filtrar los datos de la imagen comprimida. 2. Perspectivas de la compresión JPEG2000 El estándar JPEG 2000 es adecuado para la codificación por compresión de varias imágenes. Sus áreas de aplicación incluirán Internet, fax, impresión, teledetección, comunicaciones móviles, atención médica, bibliotecas digitales y comercio electrónico. El estándar de compresión de imágenes JPEG2000 se convertirá en el estándar principal de compresión de imágenes fijas en el siglo XXI. Compresión de imágenes por transformada de cuatro wavelets 1. Principio de compresión de imágenes de la transformada wavelet La idea básica de la transformada wavelet utilizada para la codificación de imágenes es descomponer la imagen en múltiples resoluciones según el algoritmo de transformación wavelet rápida de la torre Mallat. El proceso específico es el siguiente: primero realice una descomposición de wavelets de varios niveles en la imagen, luego cuantice los coeficientes de wavelets de cada capa y luego codifique los coeficientes cuantificados. La compresión de imágenes Wavelet es uno de los puntos calientes actuales en la compresión de imágenes. Se han formado estándares de compresión internacionales basados ​​​​en la transformada Wavelet, como el estándar MPEG-4 y el estándar JPEG2000 mencionados anteriormente. 2. Estado de desarrollo y perspectivas de la compresión de imágenes por transformada de wavelet. Actualmente, las tres codificaciones de imágenes de wavelet más avanzadas son la codificación de imágenes de árbol cero de wavelet incorporada (EZW), la codificación de imágenes de muestra distribuida en árboles jerárquicos (SPIHT) y la codificación de compresión de imágenes escalable (. EBCOT). (1) Codificador EZW En 1993, Shapiro introdujo el concepto de "árbol cero" de ondas y definió cuatro símbolos de POS, NEG, IZ y ZTR para codificar recursivamente el árbol de ondas espaciales, eliminando efectivamente la codificación de coeficientes de alta frecuencia y en gran medida. Se mejora la eficiencia de codificación de los coeficientes wavelet. Este algoritmo utiliza cuantificación progresiva y codificación integrada y tiene baja complejidad. El algoritmo EZW rompe un principio de larga data en el campo del procesamiento de información: un codificador de compresión eficiente sólo puede obtenerse mediante un algoritmo altamente complejo, por lo que el codificador EZW es un hito en la historia de la compresión de datos. (2) Codificador SPIHT El algoritmo de segmentación de conjunto de árboles de ondas jerárquicas (SPIHT) propuesto por Said y Pearlman adopta el método de segmentación jerárquica de árbol espacial, que reduce efectivamente la escala del conjunto de símbolos de codificación en el plano de bits. En comparación con EZW, el algoritmo SPIHT construye dos tipos diferentes de árboles de cero espaciales, haciendo un mejor uso de la ley de atenuación de amplitud de los coeficientes wavelet. Al igual que el codificador EZW, el algoritmo del codificador SPIHT tiene baja complejidad y genera un flujo de bits incorporado, pero su rendimiento mejora enormemente en comparación con el codificador EZW.

(3) El método de codificación de bloques integrado (EB cot) con optimización del punto de truncamiento del codificador EBCOT primero divide cada subbanda de descomposición de wavelets en bloques de código relativamente independientes y luego codifica estos bloques de código con un algoritmo de truncamiento jerárquico optimizado para generar un flujo de código comprimido. . El flujo de código comprimido de imagen resultante no solo tiene una relación señal-ruido y una resolución escalables, sino que también admite el almacenamiento aleatorio de imágenes. En comparación, la complejidad del algoritmo EBCOT es mayor que la de EZW y SPIHT, y el rendimiento de compresión es ligeramente mayor que el de SPIHT.

La compresión de imágenes Wavelet se considera uno de los algoritmos de compresión de imágenes más prometedores en la actualidad. La investigación sobre la compresión de imágenes wavelet se centra principalmente en la codificación de coeficientes wavelet. En trabajos futuros, se deberían considerar plenamente las características visuales humanas para aumentar aún más la relación de compresión y mejorar la calidad de la imagen. Y considere combinar la transformada wavelet con otros métodos de compresión. Por ejemplo, la combinación de compresión de imágenes fractales es un tema de investigación actual.

Compresión de imágenes de cinco fractales En 1988, Barnsley demostró experimentalmente que la compresión de imágenes fractales puede alcanzar una relación de compresión varios órdenes de magnitud mayor que la de la tecnología de codificación de imágenes clásica. En 1990, el alumno de Barnsley, A.E. Jacquin, propuso la teoría de los sistemas de funciones iterativas locales, que permitían utilizar automáticamente fractales para la compresión de imágenes en las computadoras. 1. Principio de compresión de imágenes fractales La compresión fractal utiliza principalmente características autosemejantes y se implementa mediante un sistema de funciones iterativas (IFS). Su base teórica es el teorema del sistema de funciones iterativas y el teorema del collage. La compresión de imágenes fractales divide la imagen original en varias subimágenes, y luego cada subimagen corresponde a una función de iteración, y las subimágenes se almacenan como funciones de iteración. Cuanto más simple sea la función de iteración, mayor será la relación de compresión. En el mismo proceso de decodificación, siempre que se llame e itere repetidamente la función de iteración correspondiente a cada subimagen, se puede restaurar la subimagen original y se puede obtener la imagen original. 2. Varias tecnologías importantes de codificación de imágenes fractales Con el desarrollo de la tecnología de compresión de imágenes fractales, se han propuesto cada vez más algoritmos. Según las diferentes características fractales, se puede dividir en los siguientes métodos principales de codificación de imágenes fractales. (1) Método de codificación de tamaños El método de codificación de tamaños se basa en la geometría fractal y utiliza escalas pequeñas para medir la longitud de curvas irregulares. Es similar a los métodos tradicionales de submuestreo e interpolación. Su principal diferencia es que la idea fractal se introduce en el método de codificación de tamaño y la escala cambia con la complejidad de cada componente de la imagen. (2) Método del sistema de funciones iterativas El método del sistema de funciones iterativas es actualmente la tecnología de compresión fractal más investigada y utilizada. Es una tecnología de collage de interacción persona-computadora. Se basa en las características de autocorrelación local y global ubicuas en imágenes naturales, busca la expresión de esta relación de mapeo de autocorrelación, es decir, la transformación afín, y logra el propósito de la compresión almacenando coeficientes afines más pequeños que los datos de la imagen original. Si la transformación afín es simple y eficiente, los sistemas de funciones iterativas pueden lograr relaciones de compresión muy altas. (3) Esquema fractal de A-E-Jacquin El esquema fractal de A-E-Jacquin es un esquema automático de compresión de imágenes fractales basado en el bloqueo. También es un proceso de búsqueda de relaciones de mapeo, pero el dominio del objeto buscado es la parte local de la imagen después del bloqueo: local. relación. En este esquema, se puede eliminar cierta redundancia y existen efectos de bloqueo obvios en la imagen decodificada. 3. Las perspectivas de la compresión de imágenes fractales Aunque la compresión de imágenes fractales no tiene ninguna ventaja en el campo de la compresión de imágenes, la compresión de imágenes fractales es adecuada para la compresión de imágenes autosimilares o autoafines, teniendo en cuenta tanto lo local como lo local, y la correlación entre lo local y el todo. Sin embargo, existe una gran cantidad de formas geométricas autosemejantes o autoafines en la naturaleza, por lo que tiene una amplia gama de aplicaciones. Otros algoritmos de compresión incluyen compresión NNT (Transformación de teoría de números), compresión basada en redes neuronales, compresión de imágenes de escaneo de Hilbert, compresión de subbanda polifásica adaptativa, etc. , que no se describirá en detalle aquí. La siguiente es una breve introducción a varios algoritmos para la codificación de texturas de formas arbitrarias en los últimos años [10] ~ [13]. (1) Algoritmo DCT de forma adaptable (SA-DCT) SA-DCT divide objetos visuales de formas arbitrarias en bloques de imágenes y realiza una transformación DCT en cada bloque para lograr una implementación similar a la Gilge DCT de forma adaptable[10][11] Transformada eficiente de la transformada, pero mejor que la transformada Gilge DCT. Sin embargo, SA-DCT también tiene algunas desventajas.

Empuja los píxeles para que queden alineados con un lado del cuadro rectangular, por lo que se puede perder cierta correlación espacial y luego la transformación DCT de la columna tendrá una mayor distorsión [11][14][15]. (2) Método de Egger Egger et al. [16][17] propusieron un esquema de transformación wavelet aplicado a objetos de formas arbitrarias. En este esquema, los píxeles del objeto visible primero se empujan a una posición alineada con el límite derecho del cuadro delimitador, luego los píxeles útiles de cada fila se someten a una transformación wavelet y luego la transformación wavelet se lleva a cabo en la otra fila. dirección. Este esquema aprovecha al máximo las características locales de la transformada wavelet. Sin embargo, este esquema también tiene sus problemas, por ejemplo, puede causar que partes importantes de alta frecuencia se fusionen con las partes límite, no puede garantizar que los coeficientes de distribución tengan la misma fase correcta entre sí y puede causar discontinuidades en la Segunda dirección del sexo de descomposición de las wavelets. (3) Transformada Wavelet Discreta Adaptativa de Forma (SA-DWT) Li et al. propusieron un nuevo método de codificación de objetos de forma arbitraria, la codificación SA-DWT [18]~[22]. Esta tecnología incluye SA-DWT, extensiones de codificación de entropía de árbol cero (ZTE) y codificación wavelet integrada (EZW). Las características de SA-DWT son: el número de coeficientes después de SA-DWT es el mismo que el número de píxeles del objeto visual de forma arbitraria original. SA-DWT puede expresar bien la correlación espacial, los atributos regionales y la autosemejanza entre ellos; transformada wavelet subbandas sexo. Para regiones rectangulares, SA-DWT es lo mismo que la transformada wavelet tradicional. La implementación de la tecnología de codificación SA-DWT ha sido adoptada por el nuevo estándar de codificación multimedia MPEG-4 para codificar texturas estáticas con formas arbitrarias. En trabajos futuros, podemos aprovechar al máximo la sensibilidad del sistema visual humano a los bordes de la imagen, intentar segmentar objetos de interés en la imagen y comprimir los bordes, las texturas internas y los fondos fuera de los objetos con diferentes relaciones de compresión para que el comprimido Las imágenes alcanzan una mayor relación de compresión y son más fáciles de transmitir. La tecnología de compresión de imágenes se ha estudiado durante décadas y ha logrado grandes logros, pero todavía existen muchas deficiencias que merecen un estudio más profundo. La compresión de imágenes wavelets y la compresión de imágenes fractales son puntos críticos de investigación actuales, pero también tienen sus propias deficiencias y las características visuales humanas deberían combinarse en trabajos futuros. En resumen, la compresión de imágenes es un campo de investigación muy prometedor y los avances en este campo tienen un profundo impacto en el desarrollo de nuestra vida informativa y comunicativa.

Referencias: [1] Tian Qing. Tecnología de compresión de imágenes[J]. Police Technology, 2002, (1): 30-31. [2] Zhang Haiyan, Wang Dongmu, etc. Tecnología de compresión de imágenes [J]. Journal of System Simulation, 2002, 6544.

Zhou Ning, Tang Xiaojun, Xu Weipu. Estándar de compresión de imágenes JPEG2000 y sus algoritmos clave [J Modern Electronic Technology, 2002, (12): 1-5. [5] Wu Yonghui, Yu Jianxin. Descripción general del algoritmo de compresión de imágenes JPEG2000 y perspectivas de aplicación de red [J. 29 (3): 7-10. Codificación de imágenes integradas utilizando árboles de coeficiente cero wavelet [J]. IEEE Trans. Sobre procesamiento de señales, 1993, 41(12): 3445-3462. [7]A. Dijo, W. Pearlman. Códec de imagen rápido y eficiente basado en la partición jerárquica de conjuntos de árboles [J]. IEEE Trans. Circuitos y sistemas de tecnología de vídeo. 1996, 6(3): 243-250. Compresión de imágenes escalable de alto rendimiento utilizando EBCOT [J]. IEEE Transactions on Image Processing, 2000, 9(7): 1158–1170. [9] Xu, Meng Limin. Comparación y aplicación de wavelets y ramas en la compresión de imágenes. Televisión por cable de China, 4 de marzo de 2003: 26-29. Mei Lan. Codificación de segmentos de imagen de forma arbitraria basada en transformada ortogonal generalizada [J]. Procesamiento de señales: comunicación de imágenes. , 1989, 1(10): 153–180. T. Sikora, B. Makai Transformación DCT adaptativa a la forma para codificación de video de uso general [J]. sistema de circuito. Tecnología de vídeo.

, 1995, 5(1): 59–62. T. Sikora, S. Bauer, B. Makai Eficiencia de transformaciones bidimensionales adaptables a la forma para codificar segmentos de imágenes de formas arbitrarias [J]. sistema de circuito. Tecnología de vídeo. , 1995, 5 (3): 254–258. [13] "Teoría y codificación de la información" editado por Deng Jiaxian y Kang.