¿Quién inventó el MP4?
Wikipedia, la enciclopedia libre
Un códec de vídeo es un programa o dispositivo que puede comprimir o descomprimir vídeo digital. Por lo general, este tipo de compresión es una compresión de datos con pérdida. Históricamente, las señales de vídeo se almacenaban en forma analógica en cinta magnética. Con la aparición y entrada de los discos ópticos en el mercado, las señales de audio se almacenan en formato digital, las señales de vídeo también se encuentran en formato digital y también se han desarrollado algunas tecnologías relacionadas.
Tanto el audio como el vídeo requieren métodos de compresión personalizables. Los ingenieros y matemáticos han probado muchas formas diferentes de resolver este problema.
Existe un equilibrio complejo entre la calidad del vídeo, la cantidad de datos necesarios para representar el vídeo (a menudo llamado tasa de bits), la complejidad de los algoritmos de codificación y decodificación, la sensibilidad a la pérdida de datos y Robustez de errores, facilidad de edición, acceso aleatorio, integridad del diseño del algoritmo de codificación, latencia de un extremo a otro y otros factores.
Aplicaciones de aplicaciones
En la vida diaria, los códecs de vídeo se utilizan mucho. Por ejemplo, DVD (MPEG-2), VCD (MPEG-1), varios sistemas de transmisión de televisión terrestre y satelital e Internet. El material de vídeo en línea suele estar comprimido mediante muchos códecs diferentes. Para poder ver este material correctamente, los usuarios deben descargar e instalar el paquete de códecs, un componente de códec compilado para PC.
Con la llegada de las grabadoras de DVD, se ha vuelto cada vez más popular entre los usuarios realizar su propia compresión de vídeo. Dado que los DVD que se venden en las tiendas suelen tener mayor capacidad (doble capa) y las grabadoras de DVD de doble capa no son muy populares en este momento, los usuarios a veces comprimen el material DVD dos veces para poder almacenarlo completamente en un DVD de una sola cara.
Diseño de códec de vídeo
El primer paso en un códec de vídeo digital típico es convertir la entrada de vídeo de la cámara del espacio de color RGB al espacio de color YCbCr, y suele ir acompañado de Color muestreo para producir vídeo en formato 4:2:0 (a veces utilizando el método de muestreo 4:2:2 en el caso de escaneo entrelazado). La conversión al espacio cromático YCbCr traerá dos beneficios: 1) Esto elimina parcialmente la correlación en la señal cromática y mejora la compresibilidad. 2) Esto separa la señal de brillo. La señal de brillo es la más importante para la percepción visual, mientras que la señal de crominancia es relativamente poco importante para la percepción visual, por lo que se puede muestrear a una resolución más baja (4:2:0 o 4:2: 2) Sin afectar la percepción visual de las personas.
El muestreo en el dominio espacial o temporal puede reducir eficazmente el volumen de datos del vídeo original antes de la codificación real.
Las imágenes de vídeo de entrada suelen dividirse en macrobloques y codificarse individualmente. El tamaño del macrobloque suele ser información del bloque de luma de 16x16 y la información del bloque de crominancia correspondiente. Luego se utiliza la compensación de movimiento de bloque para predecir los datos para el fotograma actual a partir del fotograma codificado. Luego, se utiliza la transformación de bloques o la descomposición de subbandas para reducir la correlación estadística en el dominio espacial. La transformada más común es la transformada de coseno discreta de 8 × 8. Luego, los coeficientes de salida transformados se cuantifican y los coeficientes cuantificados se codifican por entropía y pasan a formar parte del flujo de código de salida. De hecho, cuando se utiliza la transformación DCT, los coeficientes bidimensionales cuantificados generalmente se representan como unidimensionales mediante escaneo en zigzag, y luego se obtiene un símbolo codificando el número de coeficientes cero consecutivos y el nivel de coeficientes distintos de cero, y generalmente Hay una notación especial para indicar que todos los coeficientes restantes son iguales a cero. En este momento, la codificación entrópica generalmente utiliza codificación de longitud variable.
La decodificación básicamente realiza exactamente el proceso opuesto al proceso de codificación. El paso que no recupera completamente la información original es la cuantificación. En este momento, es necesario restaurar la información original tanto como sea posible. Este proceso se denomina cuantificación inversa, aunque la cuantificación en sí está destinada a ser un proceso irreversible.
El diseño de los códecs de vídeo suele estar estandarizado, es decir, existen documentos publicados para especificar con precisión cómo hacerlo. De hecho, para que el flujo de código codificado sea interoperable (es decir, el flujo de código codificado por el codificador A puede ser decodificado por el decodificador B y viceversa), basta con estandarizar el proceso de decodificación del decodificador. Por lo general, el proceso de codificación no está completamente definido por un estándar. Los usuarios son libres de diseñar sus propios codificadores, siempre que el flujo de código generado por el codificador diseñado por el usuario cumpla con las especificaciones de decodificación.
Por lo tanto, la misma fuente de vídeo es codificada por diferentes codificadores según los mismos estándares, y la calidad de las imágenes de salida decodificadas a menudo puede ser muy diferente.
Códecs de vídeo comunes
Muchos códecs de vídeo se pueden implementar fácilmente en ordenadores personales y aparatos electrónicos de consumo, lo que permite implementar varios códecs de vídeo en estos dispositivos simultáneamente. Impacto de un códec dominante en el desarrollo y promoción de otros códecs debido a razones de compatibilidad. Finalmente, podemos decir que ningún códec puede sustituir a todos los demás. A continuación se muestran algunos códecs de vídeo de uso común, ordenados según el momento en que se convirtieron en estándares internacionales:
H.261
H.261 se utiliza principalmente para videoconferencias y videoteléfonos de la vieja escuela. productos. H.261 es el primer estándar de compresión de vídeo digital desarrollado por el UIT-T. Básicamente, todos los códecs de vídeo estándar posteriores se basan en lo que implica. Utiliza el espacio de color común YCbCr, formato de muestreo de croma 4:2:0, precisión de muestreo de 8 bits, macrobloques de 16×16, compensación de movimiento de bloques, transformada de coseno discreta de bloques de 8×8, cuantificación, escaneo en zigzag de coeficientes de cuantificación, ejecución. -Mapeo simbólico de longitud y codificación Huffman. H.261 sólo admite entrada de vídeo progresiva.
MPEG-1 Parte 2
La segunda parte de MPEG-1 se usa principalmente en VCD, y algunos videos en línea también usan este formato. La calidad de este códec es aproximadamente equivalente a la cinta VHS original, pero vale la pena señalar que VCD es una tecnología de video digital y no perderá calidad gradualmente con el tiempo y la cantidad de reproducciones como las cintas VHS. Si la calidad de la fuente de vídeo de entrada es lo suficientemente buena y la velocidad de bits es lo suficientemente alta, el VCD puede ofrecer una calidad superior al VHS en todos los aspectos. Pero para lograr este objetivo, VCD normalmente requiere una velocidad de bits más alta que el estándar VCD. De hecho, si todos los reproductores de VCD pueden reproducirlo, no se podrán utilizar velocidades de bits de vídeo superiores a 1150 kbps ni resoluciones de vídeo superiores a 352x288. En términos generales, esta restricción sólo es efectiva para algunos reproductores de VCD independientes (incluidos algunos reproductores de DVD). La tercera parte de MPEG-1 también incluye el códec de audio *.mp3 actualmente común. Si considera la versatilidad, se puede decir que el códec de video/audio MPEG-1 es el códec más versátil. Casi todas las computadoras del mundo pueden reproducir archivos en formato MPEG-1. Casi todos los reproductores de DVD admiten la reproducción de VCD. Técnicamente hablando, MPEG-1 añade compensación de movimiento de medio píxel y fotogramas de predicción de movimiento bidireccional en comparación con el estándar H.261. Al igual que H.261, MPEG-1 sólo admite entrada de vídeo progresiva.
MPEG-2 Parte 2
La parte 2 de MPEG-2 es equivalente a H.262 y se utiliza en DVD, SVCD, la mayoría de los sistemas de transmisión de video digital y sistemas de distribución de televisión por cable. Cuando se usa en DVD estándar, admite alta calidad de imagen y pantalla ancha; cuando se usa en SVCD, su calidad no es tan buena como la del DVD, pero sí mucho mayor que la del VCD. Desafortunadamente, SVCD puede contener hasta 40 minutos de contenido en un CD, mientras que VCD puede contener una hora, lo que significa que la tasa de bits promedio de SVCD es mayor que la de VCD. MPEG-2 también se utilizará en la nueva generación de estándares de DVD HD-DVD y Blu-ray (Blu-ray Disc). Técnicamente hablando, la mayor mejora de MPEG-2 en comparación con MPEG-1 es su compatibilidad con vídeo entrelazado. MPEG-2 es un estándar de codificación de vídeo bastante antiguo, pero tiene gran popularidad y aceptación en el mercado.
263
H.263 se utiliza principalmente para videoconferencias, videoteléfonos y vídeo en red. Cuando se trata de comprimir fuentes de vídeo progresivas, H.263 ofrece importantes mejoras de rendimiento con respecto a sus estándares de codificación de vídeo anteriores. Especialmente en el extremo de la tasa de bits baja, la tasa de bits se puede ahorrar en gran medida al mismo tiempo que se garantiza una cierta calidad.
MPEG-4 Parte 2
La parte 2 del estándar MPEG-4 se puede utilizar para transmisión en red, radiodifusión y almacenamiento de medios. Su rendimiento de compresión se ha mejorado en comparación con MPEG-2 y la primera versión de H.263.
La principal diferencia con los estándares de codificación de vídeo anteriores es el método de codificación "orientado a objetos" y algunas otras técnicas que no se utilizan para mejorar la tasa de compresión de la codificación de vídeo normal. Por supuesto, también se introducen algunas tecnologías para mejorar las capacidades de compresión, incluidas algunas tecnologías H.263 y compensación de movimiento de 1/4 de píxel. Al igual que MPEG-2, admite escaneo progresivo y entrelazado.
MPEG-4 Parte 10
MPEG-4 Parte 10 es técnicamente igual que el estándar ITU-T H.264, a veces llamado "AVC"). Este estándar recientemente desarrollado es el mejor estándar de codificación de vídeo completado por ITU-T VCEG e ISO/IEC MPEG, y se utiliza cada vez más. Este estándar introduce una serie de nuevas tecnologías que pueden mejorar en gran medida el rendimiento de la compresión, ya sea una tasa de bits alta o baja, que puede superar significativamente los estándares anteriores. Los productos que han utilizado y utilizarán la tecnología H.264 incluyen, por ejemplo, la PSP de Sony, la suite de productos digitales Nero de Nero, el Mac OS X v10.4 de Apple y los estándares de DVD de nueva generación HD-DVD y Blu-ray.
Los códecs de vídeo DivX, XviD y 3ivx
Los códecs de vídeo DivX, XviD y 3ivx utilizan básicamente la tecnología MPEG-4 Parte 2 y algunos archivos terminan con el sufijo *. avi,*.mp4,*. ogm o *. mkv utiliza estos códecs de vídeo.
Virus salvaje de las paperas
WMV (Windows Media Video) es una serie de códecs de vídeo de Microsoft, que incluyen WMV 7, WMV 8, WMV 9 y WPV 10. Esta familia de códecs se puede utilizar para vídeo de banda estrecha, desde acceso telefónico a Internet hasta vídeo de banda ancha de televisión de alta definición (HDTV). Los usuarios de Windows Media Video también pueden grabar archivos de vídeo en CD, DVD u otros dispositivos. También es adecuado para su uso como servidor multimedia. WMV puede considerarse como una versión mejorada de MPEG-4. La última versión de WMV es el estándar VC-1 desarrollado por SMPTE. WMV-9 (VC-1, código de desarrollo "Corona") se llamó VC-9 cuando se lanzó por primera vez y luego SMPTE le cambió el nombre a VC-1 (VC se refiere al códec de video).
RealVideo
RealVideo es un códec de vídeo desarrollado por RealNetworks. En los últimos años hubo un período de desaceleración, pero desde entonces el mercado se ha vuelto optimista al respecto. Recientemente, es especialmente popular en la industria cinematográfica de BT.
Sorenson 3
Sorenson 3 es el códec utilizado por el software QuickTime de Apple. Muchos vídeos en formato QuickTime en Internet se comprimen utilizando este códec.
Cinepak
Cinepak es también un códec antiguo utilizado por el software QuickTime de Apple. La ventaja es que incluso ordenadores muy antiguos (como el 486) pueden soportarlo y funcionar sin problemas.
Indeo Video
Indeo Video Indeo Video es un códec desarrollado por Intel.
Todos los códecs mencionados anteriormente tienen sus propias ventajas y desventajas. A menudo veo artículos que comparan estos códecs. Lo más importante en este momento es tener en cuenta tanto la velocidad de codificación como la claridad (generalmente denominadas características de distorsión regular y robustez).
H.264/MPEG-4 AVC
Wikipedia, la enciclopedia libre
H.264, la décima parte de MPEG-4, es un formato altamente comprimido Estándar de códec de vídeo digital propuesto por el Equipo Conjunto de Vídeo (JVT) compuesto por el Grupo de Expertos en Codificación de Vídeo del UIT-T (VCEG) y el Grupo de Expertos en Imágenes en Movimiento (MPEG) de ISO/IEC. El estándar H.264 de ITU-T e ISO/iempeg-4 Parte 10 (formalmente conocido como ISO/IEC 14496-10) son iguales en tecnología de codificación y decodificación, también llamada AVC, que significa codificación de video avanzada.
El borrador final (FD) de la primera versión de la norma se completó en mayo de 2003.
H.264 es uno de los estándares ITU-T que lleva el nombre de la serie H.26x, y AVC es el nombre de ISO/IEC MPEG. Este estándar suele denominarse H.264/AVC (o AVC/H.264 o H.264/MPEG-4 AVC o MPEG-4/H.264 AVC), identificando claramente a sus dos desarrolladores. Este estándar se originó a partir del desarrollo del proyecto ITU-T y se llama H.26L. Aunque el nombre H.26L no es común, siempre se ha utilizado. El estándar a veces también se denomina "códec JVT" porque fue desarrollado por la organización JVT (no es extraño que dos organizaciones desarrollen conjuntamente el mismo estándar; el estándar de codificación de vídeo anterior MPEG-2 también fue desarrollado conjuntamente por MPEG y desarrollado por el UIT-T (por lo que MPEG-2 se denomina H.262 en la convención de nomenclatura del UIT-T).
El objetivo original del proyecto H.264/AVC era permitir que el nuevo códec funcionara a velocidades de bits mucho más bajas (por ejemplo, la mitad o menos) y proporcionara una buena calidad de vídeo. Al mismo tiempo, no se agregan muchas herramientas de codificación complejas, lo que dificulta su implementación en hardware. Otro objetivo es la adaptabilidad, es decir, el códec se puede utilizar en una amplia gama de usos (por ejemplo, incluye velocidades de bits altas y bajas, pero también diferentes resoluciones de vídeo) y puede funcionar en una variedad de redes y sistemas de trabajo (por ejemplo, multidifusión, almacenamiento de DVD). , red de paquetes RTP/IP, sistema de telefonía multimedia ITU-T).
JVT completó recientemente una extensión del estándar original llamada Fidelity Range Extension (FRExt). Esta extensión admite codificación de video de mayor precisión al admitir una mayor precisión de píxeles (incluida la precisión de píxeles de 10 y 12 bits) y una mayor precisión cromática (incluidos YUV 4:2:2 y YUV 4:4:4). Esta extensión agrega nuevas características (como transformaciones enteras adaptativas para 4x4 y 8x8, matrices de ponderación de cuantificación definidas por el usuario, codificación eficiente sin pérdidas entre fotogramas, soporte para nuevos espacios cromáticos y transformaciones entrelazadas cromáticas). El diseño de la ampliación se completó en julio de 2004 y el borrador se completó en septiembre de 2004.
Desde que se completó la primera versión del estándar en mayo de 2003, JVT ha completado una ronda de erratas para el estándar. Recientemente se completó una nueva ronda de erratas que será aprobada por el ITU-T. Obtuvo la aprobación MPEG.
Detalles técnicos
H.264/AVC incluye una gama de características nuevas que lo hacen no solo más eficiente que los códecs anteriores, sino también utilizable para una variedad de aplicaciones de red. Estas nuevas características incluyen:
Compensación de movimiento para múltiples marcos de referencia. En comparación con los estándares de codificación de vídeo anteriores, H.264/AVC utiliza más fotogramas codificados como fotogramas de referencia de una forma más flexible. En algunos casos, se pueden utilizar hasta 32 marcos de referencia (en estándares anteriores, el número de marcos de referencia para los marcos B era 1 o 2). Esta característica puede reducir la velocidad de codificación o mejorar la calidad de la mayoría de las secuencias de escenas, y puede reducir significativamente la velocidad de codificación para ciertos tipos de secuencias de escenas, como flashes rápidos y repetitivos, recortes repetidos u oclusiones de fondo.
Compensación de movimiento de tamaño de bloque variable. El uso de bloques con un valor máximo de 16 × 16 y un valor mínimo de 4 × 4 para la estimación y compensación del movimiento puede segmentar con mayor precisión las áreas de movimiento en la secuencia de imágenes.
Para reducir el efecto de "timbre" y, en última instancia, obtener una imagen más clara, se utiliza un filtro de seis toques para generar una predicción de medio píxel del componente de luminancia.
La estructura de pares de macrobloques permite macrobloques de 16x16 para el modo de campo (en comparación con 16x8 en MPEG-2).
La compensación de movimiento con una precisión de píxeles de 1/4 puede proporcionar una predicción de bloques de movimiento más precisa. Dado que el croma suele ser la mitad de la muestra de luma (ver 4:2:0), la precisión de la compensación de movimiento alcanza una precisión de 1/8 de píxel.
La predicción de movimiento ponderado se refiere a un método para agregar pesos y compensaciones cuando se utiliza compensación de movimiento. Puede proporcionar una ganancia de codificación considerable en algunas ocasiones especiales, como aparición gradual, desaparición gradual, desaparición gradual y aparición gradual.
Utiliza un filtro de desbloqueo en bucle, que reduce los artefactos de bloqueo que se encuentran comúnmente en otros códecs de vídeo basados en la transformada de coseno discreto (DCT).
Una transformada de entero 4×4 coincidente (similar al diseño de la transformada de coseno discreto), también en la extensión de alta precisión, utiliza la transformada de entero 8×8, que se puede utilizar entre 4× 4 transformadas y la transformación 8×8 Selección adaptativa entre.
Después de la primera transformación 4×4, los coeficientes DC (en casos especiales los coeficientes DC de croma y el coeficiente DC de luminancia) se someten a la transformación Hadamard para obtener una mejor compresión en el efecto de áreas suaves.
Conduce a la predicción espacial dentro del cuadro de píxeles de límites de bloques adyacentes (mejor que la predicción del coeficiente DC utilizada en el vídeo MPEG-2 y la predicción del coeficiente de transformación utilizada en el vídeo H.263 y MPEG-4).
La codificación aritmética binaria basada en contexto (CABAC) puede realizar de manera flexible codificación de entropía sin pérdidas de varios elementos de sintaxis cuando se conoce la distribución de probabilidad de contexto correspondiente.
La codificación de longitud variable basada en contexto (CAVLC) se utiliza para codificar los coeficientes de variación cuantificados. Tiene menor complejidad y relación de compresión que CABAC, pero es bastante eficiente en comparación con los esquemas de codificación de entropía utilizados en estándares de codificación de vídeo anteriores.
Se utiliza un esquema de codificación de entropía simple llamado Exp-Golomb para codificar elementos de sintaxis que no son ni CABAC ni CAVLC.
Utilice la capa de abstracción de red (NAL) para hacer que la misma sintaxis de vídeo sea aplicable a varios entornos de red. Se utilizan conjuntos de parámetros de secuencia (SPS) y conjuntos de parámetros de imagen (PPS) para proporcionar mayor robustez y flexibilidad.
Los segmentos de conmutación (incluidos SP y SI) permiten que el codificador indique al decodificador que salte a la secuencia de vídeo que se está procesando, lo que se utiliza para resolver las operaciones de cambio de velocidad de secuencia de vídeo y modo truco. Cuando el decodificador utiliza la tira SP/SI para saltar al centro de la transmisión de video, puede obtener una imagen reconstruida decodificada completamente consistente, a menos que los fotogramas decodificados posteriores se refieran a la imagen anterior al fotograma de cambio como marco de referencia.
La clasificación de macrobloques flexible (FMO de clasificación de macrobloques flexible, también conocida como tecnología de grupo de sectores) y la clasificación de sectores arbitrarios ASO se utilizan para cambiar el orden de codificación de los macrobloques, que son las unidades más básicas de codificación de imágenes. Se puede utilizar para mejorar la solidez del flujo de código en el canal lateral y para otros fines.
La partición de datos (DP para partición de datos) puede empaquetar y transmitir elementos de sintaxis de diferente importancia por separado, y utilizar UEP para una protección desigual contra errores y otras tecnologías para mejorar la resistencia de las transmisiones de video contra errores de canal/pérdida de paquetes. robustez.
El corte redundante RS también es una tecnología para mejorar la robustez del flujo de código. Usando esta técnica, el codificador envía otra representación codificada (generalmente una secuencia codificada de menor resolución) de una región (o toda) de la imagen de modo que cuando la representación principal sea incorrecta o falte, pueda reemplazarse con una segunda representación redundante. significa decodificarlo.
Un método de empaquetado automático para flujos de código de bytes, utilizado para evitar la duplicación de códigos de inicio en el flujo de código. El código de inicio es una palabra clave utilizada para el acceso aleatorio y la resincronización en el flujo de código.
SEI complementario para información de mejora suplementaria y Vui para información de disponibilidad de video agregan formas de agregar información a las transmisiones de video, proporcionando una excusa para una variedad de aplicaciones.
Las imágenes auxiliares se pueden utilizar para implementar algunas funciones especiales, como la síntesis alfa.
El número de cuadros admite la creación de subsecuencias de una secuencia de video (lo que respalda la escalabilidad en el dominio del tiempo) y también admite la detección y ocultación de cuadros completos perdidos (causados por pérdida de paquetes de red o errores de canal).
Recuento de secuencia de imágenes, utilizando esta función para hacer que el orden de cada cuadro de imagen y el valor de píxel de la imagen decodificada sean independientes de la información de tiempo (es decir, utilizando un sistema separado para transmitir, controlar y cambiar el información de tiempo, para no afectar los valores de píxeles de la imagen decodificada)
Estas tecnologías, junto con otras, permiten que H.264 mejore significativamente el rendimiento con respecto a los códecs de vídeo anteriores y admita una gama más amplia de aplicaciones en un entorno. variedad de ambientes.
En comparación con MPEG-2, el rendimiento de compresión de H.264 mejora enormemente. Con la misma calidad de imagen, la velocidad de bits se puede reducir a la mitad o incluso menos.
Al igual que otros estándares de vídeo MPEG, H.264/AVC también proporciona un software de referencia que se puede descargar de forma gratuita. Su objetivo principal es proporcionar una plataforma de demostración para demostrar las diversas funciones de H.264/AVC, en lugar de ser una plataforma de aplicación directa (consulte el enlace a continuación para obtener la dirección de descarga). Actualmente, algunos diseños de referencia de hardware también se están implementando en MPEG.
Licencia de patente
Al igual que con MPEG-2 Parte I, Parte II y MPEG-4 Parte II, los fabricantes y proveedores de servicios que utilizan H.264/AVC necesitan El titular de una patente utilizado en un producto paga una tarifa de licencia de patente. La fuente principal de estas licencias de patentes es una organización privada llamada MPEG-LA, LLC (de hecho, esta organización no tiene relación con la organización de estandarización de MPEG, pero también administra MPEG-2 Part 1 System y Part 2 Video. Video y MPEG -4 Parte 2 licencia de patente para otras tecnologías).
aplicación de aplicación
Dos tecnologías importantes que compiten por la próxima generación de formatos de DVD planean agregar H.264/AVC HP como característica requerida del reproductor en la segunda mitad de 2005, incluyendo:
p>Formato HD-DVD desarrollado por DVD Forum
Formato Blu-ray Disc desarrollado por Blu-ray Association (BDA)
En la segunda mitad de En 2004, la organización europea de estándares DVB adoptó H. 264/AVC para las transmisiones de televisión europeas.
En la segunda mitad de 2004, el Primer Ministro francés Jean-Pierre_Raffarin anunció la selección de H.264/AVC como requisito para los receptores franceses de HDTV y los servicios de transmisión de televisión digital terrestre.
La organización de estándares ATSC de EE. UU. está considerando la posibilidad de adoptar H.264/AVC para las transmisiones de televisión de EE. UU.
El servicio de transmisión multimedia digital (DMB) de Corea del Sur utilizará H.264/AVC.
El códec H.264/AVC se utilizará para los servicios de difusión de células móviles proporcionados por ISDB-T en Japón, incluidos los principales proveedores de servicios de difusión:
Asociación de Radiodifusión de Japón (NHK)
Tokyo Broadcasting Corporation
Nihon Television
TV Asahi (TV Asahi)
Fuji TV
TV Tokio
Los servicios satelitales de transmisión directa utilizarán este estándar, incluidos:
News Corp/DirecTV (en los Estados Unidos)
Echostar/Dish Network/Voom TV ( en EE.UU.)
1080€ (Europa)
Estreno (Alemania)
BSkyB (en Reino Unido e Irlanda)
El 3. Generation Partnership Project (3GPP) aprobó H.264/AVC como tecnología opcional para la sexta versión de su estándar de servicio de telefonía multimedia móvil.
La MISB, la Junta de Estándares de Imágenes en Movimiento del Departamento de Defensa de EE. UU., ha aceptado H.264/AVC como su códec de vídeo recomendado.
El IETF del Internet Engineering Task Force ha completado el formato de empaquetado de carga útil (RFC 3984) como método de empaquetado para transmitir flujos de código H.264/AVC a través del protocolo de transporte en tiempo real RTP.
La Internet Streaming Media Alliance ISMA ha aceptado H.264/AVC como su especificación técnica ISMA 2.0.
La organización MPEG integra completamente H.264/AVC en sus protocolos de sistema (como los sistemas MPEG-2 y MPEG-4) y protocolos de formato de medios ISO.
El grupo de estándares ITU-T de la Unión Internacional de Telecomunicaciones ha adoptado H.264/AVC como parte de la especificación del sistema para su serie H.32x de sistemas telefónicos multimedia.
Con la adopción de ITU-T, H264/AVC se ha utilizado ampliamente en sistemas de videoconferencia y ha contado con el respaldo de los dos principales proveedores de productos de videoteléfono (Polycom y Tandberg). Prácticamente todos los productos de videoconferencia nuevos son compatibles con H.264/AVC.
Es probable que varios VOD utilicen vídeo a la carta para ofrecer películas y programas de televisión a la carta directamente a computadoras personales en Internet.
Productos e implementación
Varias empresas están fabricando chips programables que pueden decodificar vídeo H.264/AVC. Junio de 2005 5438 En octubre, Broadcom (BCM 7411), Conexant (CX 2418x), Neomatic (MiMagic 6) y STMicroelectronics (STB 7100) proporcionaron muestras para realizar pruebas. Sigma Design espera proporcionar muestras en marzo de 2005. La aparición de estos chips promoverá en gran medida la rápida promoción de vídeos H.264/AVC de bajo coste que puedan reproducir tanto en definición estándar como en alta definición. Cuatro de los cinco chips (excepto el chip de Neomagic, que está destinado a aplicaciones de bajo consumo) tienen la capacidad de reproducir vídeo HD y la mayoría admitirá configuraciones altas en el estándar.
Apple ha integrado H.264 en Mac OS X versión v10.4 (apodado Tiger) y lanzó una versión de Quicktime que admite H.264 en mayo de 2005. En abril de 2005, Apple actualizó su software DVD Studio Pro para admitir contenido con licencia de alta definición. El software admite la grabación de contenido en formato HD-DVD en medios DVD o HD-DVD estándar (aunque todavía no existe una grabadora correspondiente). Para reproducir contenido HD-DVD grabado en DVD estándar, el hardware requerido es un PowerPC G5, el software es Apple DVD Player v4.6 y Mac OS X v10.4 o posterior.
Envivio ya puede proporcionar un codificador SD en tiempo real y un codificador HD sin conexión (720p, 1080i, 1080p) para multidifusión H.264. Envivio también proporciona decodificadores H.264, servidores de vídeo H.264 y herramientas de licencia para plataformas Windows, Linux y Macintosh.
Modulus Viode proporciona codificadores en tiempo real H.264 SD con calidad de transmisión para transmisión y telefonía, y anunció que un codificador HD en tiempo real (ME6000) estará disponible a mediados de 2005. En abril de 2004, la empresa demostró un codificador en tiempo real de alta definición en la NAB, donde recibió el premio "Pick Hit". La empresa utiliza tecnología lógica de circuitos integrados a gran escala.
Tandberg TV lanzó el codificador en tiempo real EN5990. DirecTV y BSkyB ya utilizan el codificador EN5990 para sus servicios de transmisión directa por satélite (DBS).
Harmonic también lanzó su codificador en tiempo real (modelo: div com MV 100). TF1 (locutor francés) y Video Networks Limited (VNL) han anunciado el uso del producto en sus servicios de vídeo doméstico bajo demanda con sede en Londres. Pace Micro ya suministra decodificadores a algunas de las principales empresas de transmisión directa por satélite.
Sony PSP (PlayStation Portable) proporciona soporte de hardware para la decodificación H.264 Main Profile Level 3.
El paquete de software desarrollado por Nero AG y Ateme*** lanzado por Nero Digital brinda soporte para la codificación H.264 y ganó el premio "Pick Hit" [1]] en Doom9.
Sorenson proporciona software de codificación y decodificación relacionado con la implementación de H.264. El códec Sorenson AVC Pro se ha incluido en Sorenson Squeeze 4.1 para MPEG-4.
El software del códec x264 es una versión de software gratuita y se puede descargar mediante autorización GPL.
Últimas noticias: WinDVD 7 de InterVideo se lanzó oficialmente el 24 de junio de 2005. Las versiones lanzadas se dividen en WindVD 7 Gold Edition y WinDVD 7 Gold Platinum Edition. Platinum Edition admite decodificación y reproducción H.264/MPEG-4 AVC, y la configuración recomendada es P4 3.6G (no original)
Últimas noticias: ATI lanzó las series Radium Dragon X1300, X1600 y X1800 Los chips gráficos admiten decodificación acelerada por hardware H.264.