SlideShare una empresa de Scribd logo
DESCRIPCION DEL ESTANDAR MPEG-2
                                      OLIVER HERNANDEZ
  Universidad Central de Venezuela, Facultad de Ingeniería, Escuela de Ingeniería Eléctrica. Caracas -
                                             Venezuela.
                                              Resumen

El grupo de expertos de imágenes en movimiento (MPEG) fue formado por la Organización Internacional
de Estándares (ISO) para desarrollar un conjunto de estándares para compresión de vídeo digital y en
concordancia con las siete capas del modelo OSI. El primer intento de MPEG fue para suplir compresión
de datos a velocidades de 1.5 Mbit/s para imágenes almacenadas. La segunda parte llamada MPEG 2, fue
diseñada para generar velocidades de pixel entre 5 y 10 Mbit/s, para videos de mejor calidad en CATV y
HDTV, entre otros.

                                                Abstract

The Motion Picture Experts Group has been formed by the International Standards Organization to
develop a set of standards for digital video compression in accordance with the seven layer ISO model.
The first intent of MPEG was to supply 1.5 Mbit/s compressed data rates for image storage. A new
MPEG specification, called MPEG 2, was desing for generating pixel rates between 5 and 10 Mbit/s,
provide better quality compressed video for CATV, HDTV, and others.

                                          INTRODUCCION

La ISO/IEC creo el MPEG (Moving Picture Expert Group) con el mandato para desarrollar un estándar
para comprimir TV para aplicaciones multimedia. Como resultado, en Agosto de 1993 el estándar
ISO/IEC 11172 "Código de imágenes en movimientos y audio digital asociado para medios de
almacenamiento digital para 1.5 Mbit/s" fue ratificado. Este estándar, mejor conocido como MPEG 1 está
dividido en tres partes (vídeo, audio y sistema).

La segunda fase de MPEG, llamada MPEG 2, también consta de tres partes o estándares, cubiertas por la:
ISO/IEC 13818-1 Sistemas MPEG-2 (Draft ITU-T Rec. H.222), ISO/IEC 13818-2 Vídeo MPEG-2 (Draft
ITU-T Rec. H.262) y ISO/IEC 13818-3 Audio MPEG-2. Estas fueron aprobadas finalmente como
Estándar Internacional (IS) por la asamblea N° 29 de la ISO/IEC JTC1/SC29/WG11 (MPEG) hecha en
Singapore en Noviembre de 1994.

El registro ITU-T H.262 trata con codificación de vídeo de alta calidad con posible vídeo entrelazado de
NTSC, PAL o Televisión de Alta Definición (HDTV). Esto es un intento para operar en un rango de 2 a
15 Mbit/s. Sin embargo puede funcionar a velocidades superiores de 100 Mbit/s. Un amplio rango de
aplicaciones, velocidades, resolución calidades de las señales y servicios son direccionados, incluyendo
todas las formas de medios de almacenamiento digital, televisión (incluyendo HDTV), broadcasting y
comunicaciones.

Entre las varias mejoras o extensiones introducidas en los codificadores MPEG 2, tenemos:

        Nuevos modos de predicción de campos y tramas para scanning entrelazado.
        Cuantización mejorada.
        Nuevos códigos intra-trama de longitud variable (VLC).
        Extensión escalada de resoluciones para compatibilidad, servicios jerárquicos y robustos, y
        Dos nuevas capas de sistema para multiplexaje y transporte que provee celdas/paquetes de vídeo
        de alta o baja prioridad, cuando son llevados a través de una red conmutada.
        Incrementos soportados por accesos aleatorios.
        Soporte resistente para incremento de errores.
        Múltiples programas con un multiplexor (MPEG 1 no puede hacer esto, y esto fue un driver
        principal para el MPEG 2).

Al igual que el H.261 y JPEG (Joint Photographic Expert Group), el estándar MPEG 2 es un esquema
híbrido de compresión para imágenes en pleno movimiento que usa codificación inter-trama y
codificación intra-trama y combina la codificación predictiva con la codificación con la transformada
DCT 8x8 (Discrete Cosine Transform, o sea, transformada discreta de coseno). La DCT es un algoritmo
matemático (conversión del dominio del tiempo hacia el dominio de la frecuencia), que es aplicado
típicamente a un bloque de 8x8 elementos de imagen, dentro de un cuadro. La DCT elimina redundancia
en la imagen a través de la compresión de la información contenida en 64 pixels. El cuantizador otorga
los bits para los coeficientes DCT más importantes, los cuales son transmitidos

                                          POR QUE MPEG 2 ?

El concepto de MPEG 2 es similar al MPEG 1, pero incluye extensiones para cubrir un amplio rango de
aplicaciones. La principal aplicación destinada durante el proceso de definición de MPEG 2 fue todas las
transmisiones de vídeo con calidad de TV codificadas a velocidades entre 5 y 10 Mbit/s.

Sin embargo, la sintaxis del MPEG 2 ha sido descubierta para ser eficiente para otras aplicaciones como
las de altas velocidades binarias y velocidades de muestreo (HDTV). La característica más resaltante con
respecto a MPEG 1 es la sintaxis para codificación eficiente de vídeo entrelazado.

Otras características más específicas (precisión 10 bit DCT DC, cuantización no-lineal, tablas VLC) son
incluidas, y tienen un mejoramiento notable en la eficiencia de la codificación. Otra característica clave
de MPEG 2 son las extensiones escalables las cuales permiten la división de continuas señales de vídeo
dentro de dos o más cadenas binarias codificadas, representando el vídeo en diferentes resoluciones,
calidades (por ejemplo SNR), o velocidades.

                                        NIVELES Y PERFILES

MPEG-2 es una recomendación muy compleja, tiene una larga variedad de combinaciones (sobre 10 6).
Sin embargo, un reducido conjunto de combinaciones son definidas bajo "perfiles" y "niveles".

Dentro de los perfiles, una larga variación de desempeños son posibles. Por otra parte los niveles son un
conjunto de derivaciones impuestas para los perfiles. Las combinación de un perfil y un nivel produce una
arquitectura muy bien definida para una cadena particular de bit. Los perfile limitan la sintaxis (por
ejemplo los algoritmos), mientras los niveles limitan los parámetros (velocidad de muestreo, dimensiones
de las tramas, velocidad binaria codificada, etc.).

         Niveles: proveen un rango de cualidades potenciales, definen los máximos y mínimos para la
         resolución de la imagen, muestras Y por segundo (luminancia), el número de capas de audio y
         vídeo soportados por los perfiles escalados, y la máxima velocidad binaria por perfil. A
         continuación una explicación resumida de cada uno de ellos:
             o Nivel Bajo: tiene un formato de entrada el cual es un cuarto de la imagen definida en el
                   registro ITU-R 601.
             o Nivel Principal: tiene una trama de entrada completa definida en el registro ITU-R 601.
             o Nivel Alto 1440: tiene un formato de alta definición con 1440 muestras por línea.
             o Nivel Alto: tiene un formato de alta definición con 1920 muestras por línea (para
                   aplicaciones sin cualquier limitación en velocidades de datos).
         Perfiles: son definidos subconjuntos con características de sintaxis (por ejemplo: algoritmos),
         usados para converger la información. Hay cinco diferentes perfiles y cada uno es
         progresivamente más sofisticado y agrega herramientas adicionales (y por supuesto más costoso
         para el cliente) con la característica adicional de ser compatible con el anterior. Esto significa
         que un decodificador equipado con un alto perfil descodificará perfiles simples. A continuación
         una pequeña explicación de los perfiles:
             o Perfil Simple: es el que ofrece pocas herramientas.
             o Perfil Principal: tiene herramientas extendidas o mejoradas del perfil simple y
                   predicción bidireccional. Tendrá mejor calidad para la misma velocidad binaria que el
                   perfil simple.
             o Perfil Escalable SNR y Perfil Escalable Espacial: son los próximos pasos. Estos dos
                   niveles son llamados escalables porque ellos permitirán codificar datos de vídeo que
                   sean particionados dentro de una capa base y una o más señales "Top-up". La señal
                   Top-up puede tanto tratar la proporción S/N (SNR escalable) o la resolución (escalable
                   espacial).
o    Perfil Alto: este incluye todas las herramientas de las versiones anteriores y mejoradas.
                  Tiene la habilidad de codificar diferencias de color entre líneas simultáneamente. Este
                  es un super sistema diseñado para aplicaciones donde no están contraídas sobre las
                  velocidades de los bits.

Para muchas de las aplicaciones (incluyendo transmisión de satélites) el Perfil Principal, Nivel Principal
(MP@ML, siglas en ingles) provee una buena relación entre calidad de imagen y la complejidad VLSI,
como resultado, MP@ML el punto de desarrollo para los actuales sistemas DCTV. El siguiente gráfico es
un resumen o representa de todas las combinaciones entre perfiles y niveles. También muestra las
máximas velocidades de datos para cada combinación:




  Máximas velocidades de datos para MPEG 2 y combinaciones recomendadas para perfiles y niveles.




                                                              LOS MODOS ESCALABLES DE MPEG
                                                     2

Actualmente hay cuatro modos escalables en MPEG 2. Estos modos rompen el vídeo MPEG 2 en
diferentes capas (base, media, y alta) para propósitos de proritización de datos de vídeo. Otro propósito de
la escalabilidad es para divisiones complejas. Por ejemplo, en HDTV, la alta prioridad de la cadena
binarias (720x480) puede ser descodificada bajo condiciones de ruido donde la baja prioridad (1440x960)
no pueda.

A continuación una breve explicación de los modos escalables:

         Escalabilidad espacial: Este método de dominio espacial codifica la capa base a una dimensión
         de muestro bajo (por ejemplo: resolución) que las capas superiores. Las capas bajas (base)
         reconstruidas del muestro son usadas como predicción de las capas superiores.
         Particionamiento de datos: es un método de dominio de frecuencia que rompe los bloques de 64
         coeficientes cuantizados de la transformada dentro de dos cadenas binarias. La primera, cadena
         de alta prioridad contiene los coeficientes más críticos de las frecuencias bajas e información
         (tales como valores DC, vectores, etc.), la segunda, cadena binaria de baja prioridad lleva datos
         AC de las altas frecuencias.
         Escalabilidad SNR: es un método de dominio espacial donde los canales son codificados a
         velocidades de muestreo idénticas, pero con diferentes calidades de imágenes. La cadena binaria
de alta prioridad contiene datos de la capa base que pueden ser añadidos a la capa de
         refinamiento de baja prioridad para construir una imagen de alta calidad.
         Escalabilidad temporal: Un método de dominio temporal usado por ejemplo en vídeo
         estereoscopico. La primera, la cadena binaria de alta prioridad codifica vídeo a una baja
         velocidad de tramas, y las tramas intermedias pueden ser codificadas en una segunda cadena
         binaria usando la reconstrucción de la primera cadena binaria como predicción. Por ejemplo en
         una visión estereoscopica, el canal de vídeo izquierdo puede ser predecido del canal derecho.

                   ESQUEMA DE CODIFICACION INTERTRAMA DE VIDEO

Para explorar todas las capacidades de compresión de compensación de movimiento y para incorporar
capacidades de adelantado rápido y retroceso rápido (fast forward y fast reverse FF/FR), requeridos para
servicios de almacenamiento digital, MPEG 2, incorpora algunos esquemas de codificación intertrama. El
concepto está basado en Intra-trama (I), tramas predecibles (P), tramas interpoladas o bidireccionales (B)
y tramas D (Imágenes DC).

         Una trama I es codificada sin referencia para otras imágenes o tramas contenidas en la secuencia
         del vídeo. Cualquier trama I trabaja como un punto de referencia para funcionalidad y accesos
         FF/FR. Libera muy baja compresión.
         Las tramas P son codificadas con la referencia de las tramas previamente codificadas, tanto I y P.
         Ellas incorporan compensación de movimiento, la compresión es más alta que las tramas I.
         Las tramas B requieren como referencia tanto las tramas futuras como pasadas, las tramas B
         usan compensación e interpolación de movimientos y logra alta compresión.
         Tramas D (imágenes DC) son imágenes que contienen solamente la DC (bloques de 8x8) para
         cada bloque. El soporte de éste tipo de trama es opcional, y las secuencias pueden no contener
         tramas D mezcladas con los otros tipos de tramas.

La proporción entre las tramas I, P y B es conocida como N/M, donde N representa el número de tramas
entre imágenes o tramas I y M es el número de tramas entre imágenes o tramas P. Valores típicos son de
15 y 3 para N y M respectivamente.

La incorporación de estas tres tipos de tramas, aportan alta compresión, buen acceso aleatorio y
funcionalidad FF/FR. Este esquema de codificación también incrementa significativamente el retraso de
codificación porque las tramas de las imágenes deben ser almacenadas en un buffer. Por ejemplo, el
codificador considerará la primera trama como una trama I, la segunda y tercera trama serán tramas B,
luego ellas son predecidas e interpoladas basadas en la trama previa I (o P) y la próxima trama P, serán
puestas en el buffer y codificada la próxima trama como P, la cual sólo es referida a la trama previa I.
Después de codificar la trama P, el codificador retornará a trabajar con la trama almacenada B. El
descodificador revertirá el proceso. El recibirá la trama I, la trama P y la trama B y reconstruirá la trama
original del vídeo (ver la siguiente figura). El proceso, requiere más memoria en el descodificador que en
el codificador. Este retraso de codificación hace que MPEG 2 no sea bueno para aplicaciones interactívas.

               Secuencia de transmisión usando el esquema de codificación de intertramas
AUDIO MPEG 2

El sistema de multiplexaje MPEG 2, soporta cualquier número de canales de entrada de audio tan largos
que la velocidad de transporte seleccionada pueda soportar la suma de datos. Los usuarios tienen la
flexibilidad para seleccionar su propio algoritmo de compresión de audio, tales como: Audio MPEG 2,
MUSICAM, DOLBY AC-2 o AC-3. Los canales pueden ser configurados independientemente o en pares
estéreo. Diferentes velocidades de audio es otra de las características de el sistema. Una vez más, la
velocidad también será asociada con la calidad.

La compresión de audio MPEG 2 es un algoritmo que, como el vídeo MPEG 2, explota las limitaciones
del sistema humano, en este caso el oído. Como en la compresión de vídeo, el algoritmo de compresión
de audio también elimina la información irrelevante dentro de la señal de audio. La información
irrelevante es cualquier señal imperceptible. Por ejemplo, en presencia de una señal fuerte, todas las
señales vecinas flojas son enmascaradas y aunque son parte del espectro, no son percibidas por el oído. El
algoritmo MPEG 2 es del tipo "lossy" o con pérdidas pero la distorsión insertada por la señal será
inaudible.

La configuración básica del audio MPEG 2 ofrece seis canales de audio. Esta característica debe ser usada
para distribuir tres pares de estéreos ( o seis canales mono) para aplicaciones multilenguajes o para crear
un sistema estereofónico multicanal. Lo anterior crea una realidad como a la de un campo de audio. La
recomendación de cornetas configuradas para sistemas estereofónicos multicanales es conocido como
estéreo -p/q , donde p es el número de cornetas en el frente y q es el número de cornetas en el fondo. Por
ejemplo un estéreo-3/2 proveerá un sistema con canales al frente en la derecha, centro y a la izquierda
más canales posteriores que rodean el área y ofrecen un mejor e impresionante realismo a la audiencia.

Las configuraciones típicas para sistemas estereofónicos multicanales son:

         1 Canal modo 1/0: Mono
         2 Canales estéreo 2/0: izquierda y derecha
         3 Canales estéreo 3/0: izquierda, derecha y centro
         4 Canales estéreo 3/1: izquierda, derecha, centro y posterior
         5 Canales estéreo 3/2: izquierda, derecha, centro, posterior izquierda y derecha
         5.1 Canales estéreo 3/2: izquierda, derecha, centro, posterior izquierda y derecha y un canal de
         efectos especiales de 100 Hz LFE (Low Frequency Enhancement).
Audio MPEG 2 ofrece tres diferentes capas de compresión (capa -I, -II, y -III). Cada capa usa un esquema
de reducción incremental de la velocidad binaria, con la ayuda de el incremento de la velocidad de
compresión mientras se mantiene la calidad.

Para la capa -II, la técnica de reducción de bit corresponde para el algoritmo MUSICAM, el permite
varias combinaciones de velocidades de bit (32 a 224 Kbit/s por canal), y calidad de audio sin
comprometer la complejidad del hardware. Por ejemplo una velocidad de muestreo de 56 Kbit/s y 16 KHz
en la capa -II ofrece mejor calidad que la definida en el registro ITU-G.722.

         SISTEMAS MPEG 2 PARA MULTIPLEXAJE Y TRANSPORTE (ITU-T Rec. H.222)

El multiplexaje y transporte definidos bajo MPEG 2 específica el formato de codificación para
multiplexar audio, vídeo y datos dentro de una forma manejable para almacenar o transmitir. Hay dos
formatos de cadenas de datos definidos:

    1. Cadena de transporte (TS), la cual porta o lleva uno o más programas simultáneamente, es
          optimo para aplicaciones donde la pérdida de datos puede ser requerida (como los enlaces
          satelitales). Tales errores pueden ser manifestados como errores de bit o pérdida de paquetes.
          Una TS es una sucesión de paquetes de 188 bytes de longitud llamados "paquetes de transporte".
          Es posible construir una TS a partir de:
    2.    Cadenas elementalmente paquetizadas (PES), vienen de múltiples programas. Cada programa
          debe tener velocidad variable, sin embargo, la TS será de velocidad fija. Cada programa tiene un
          Reloj Referencial Primario (PCR) asociado con el para indicar la actual velocidad del programa.
    3.    Cadenas de Programa u otra TS las cuales puedan contener uno o más programas.

La cadena de transporte es optima para transmisiones de satélites, cable, ISDN, redes ATM y
vídeotelefonía.

    1. Cadena de programa (PS). Es optima para usarse en ambientes libres de errores, como
          aplicaciones multimedia. Llevan paquetes largos de longitud variable. Cada paquete comenzará
          con una cabecera. Un error en la cabecera puede causar la pérdida del paquete completo y puede
          representar la corrupción de una trama entera de vídeo. PS puede llevar uno o más programas
          simultáneamente, pero la PES tiene que compartir un tiempo base común.

Cadena Elementalmente Paquetizada (PES): El transporte es desarrollado dividiendo las salidas del
compresor (vídeo y audio) para formar paquetes de longitud variable marcados por tiempo llamados
cadenas elementalmente paquetizadas (PES). Las PES son paquetes de longitud variable sujeto a la
máxima longitud de 64 Kbytes. El proceso de paquetización es aplicado para tanto vídeo y audio. Cada
PES es marcado con el tiempo para darse una referencia antes y después del demultiplexaje, con la
finalidad de reproducir las tramas de vídeo completamente sincronizadas con el audio PES. Este es un
tiempo de referencia para cada programa llamado Reloj Referencial Primario (PCR). El PCR es una
información independiente usada para crear un reloj de referencia en el descodificador. Cada programa
prescinde de la velocidad y si la velocidad es variable o fija son referidas para un PCR. Finalmente, la
PES viniendo de diferentes programas puede compartir un único PCR.

Multiplexaje: Un multiplexaje basado en paquete es muy flexible. Paquetes pertenecientes a diferentes
programas pueden ser distribuido de varias maneras. Un buffer es usado en el descodificador para
asegurarse que todos los datos son descodificados y presentados a tiempo. Ya que la naturaleza inherente
de la PES es variable en velocidad, el multiplexaje basado en paquetes es de gran aprovechamiento
porque puede distribuir PES de diferentes fuentes con diferentes velocidades instantáneas dentro de una
salida común con velocidad fija. Explotando la no coincidencia de picos de velocidad, se puede
transportar altas velocidades instantáneamente en una salida de baja velocidad. Este tipo de multiplexor es
algunas veces referido como "multiplexor estadístico".

Las capas del sistema ofrecen diferentes modos de operación:

    1. Multiplexaje estadístico, descrito anteriormente.
2. Multiplexaje estadístico limitado en el cual la velocidad de cualquier cadena de vídeo no podrá
         caer bajo un umbral programable.
    3. Multiplexaje con velocidad fija, las velocidades de vídeo son fijas.
    4. Modo mixto. Todos los modos previos pueden ser mezclados dentro de un simple TS.

Después del multiplexaje, la señal sufrirá el proceso final, cada paquete de transporte puede ser
encriptado y revuelta, bajo control de acceso condicional. La salida de un multiplexor portando múltiples
canales siempre será a velocidad fija.

                            DONDE HAY MPEG 2 EN LA ACTUALIDAD

         DBS (Emisión Directa de Satélite): El servicio Hughes/USSB usa vídeo y audio MPEG 2.
         Hughes/USSB DBS comenzó a dar servicios en Norte America en 1994. Dos satélites a 101
         grados al oeste comparten los requerimientos de poder de unos transponder con 120 Watts y 27
         MHz.
         CATV (Televisión por cable): La industria del cable ha colocado más o menos vídeo MPEG 2. Y
         el audio en menor proporción.
         DigiCipher: La sintaxis del DigiCipher I es similar a la del MPEG 2, pero usa pequeños
         "macrobloques de predicción" y no tramas B. La especificación DigiCipher II incluye modos
         para soportar tanto GI como sintaxis del perfil principal de vídeo MPEG 2. Servicios como HBO
         fueron actualizados con DigiCipher II en 1994.
         HDTV: La gran alianza de Estados Unidos (Grand Alliance), un consorcio de compañías que
         formalmente compiten por el estándar HDTV, ha agregado el uso de vídeo MPEG 2 y sintaxis de
         los sistemas (incluyendo imágenes o tramas B). Serán soportados ambos modos, entrelazado
         (1440x960x30 Hz) y progresivo (1280x720x60 Hz). Para esto, la alianza debe colocarse bajo
         una modulación (QAM, VSB, OFDM), convolución (MS o Viterbi), y corrección de errores
         (RSPC, RSFC).

En septiembre de 1993, el consorcio de 85 compañías europeas firmó un convenio para invertir en un
proyecto conocido como Emisión de Vídeo Digital ( DVB) el cual desarrolló un estándar para transmisión
terrestre y de cable, y éste esquema usa MPEG 2. Este consorcio puso el último clavo en el ataúd del
esquema D-MAC, para una migración gradual hacia un todo digital: HDTV.

                                            CONCLUSIONES

El MPEG 2 es un estándar de compresión para imágenes con movimiento a velocidades de pixel entre 5 y
10 Mbit/s. El estándar de vídeo consiste de cinco perfiles, referido a la complejidad del algoritmo de
compresión y cuatro niveles, los cuales se refieren a la resolución del vídeo original. El nivel principal y
el perfil principal es la combinación más usada por las opciones MPEG 2.

MPEG 2 es un estándar emergente para reproducir vídeo en pantalla completa y audio con calidad de
transmisión; está mas orientado hacia TV que MPEG 1, por ejemplo, MPEG 2 sabe cómo se entrelazan
los cuadros en TV, además de que la calidad de la imagen es superior. Por otra parte, como no puede
dependerse de la llegada del paquete anterior antes de descomprimir el paquete actual, MPEG 2 no es
ideal para transmisión vía Internet.

Más contenido relacionado

PPTX
Expo mpeg
PDF
Uni fiee rdsi sesion 16 mpls
PDF
Conmutación de Etiquetas Mult-Protocolo
PPT
Arquitectura MPLS
PDF
Protocolos
PPT
Cisco: MPLS en Castellano
PPTX
Estandares ieee y ansi
Expo mpeg
Uni fiee rdsi sesion 16 mpls
Conmutación de Etiquetas Mult-Protocolo
Arquitectura MPLS
Protocolos
Cisco: MPLS en Castellano
Estandares ieee y ansi

La actualidad más candente (20)

PPTX
Introducción a mpls
PPT
claserd
PPT
PPTX
MPLS - Multiprotocol Label Switching v1.3
PPT
Redes Informáticas
PDF
Csma cd
PPT
Proyecto 802
PPT
Protocolos en las capas del modelo osi
PDF
Estándares Inalámbricos
PPT
Presentacin Datos Fijos Mpls Tecnica Comercial
PPTX
Conferencia transición HD
PPTX
PPTX
Presentación1
PPT
[11] TALLER - GENERALIDADES DEL MODELO TCP/IP. HISTORIA Y CAPAS DEL MODELO
PDF
Sistemas operativos multimedia
PPT
CCNA 1 - Clase 2
DOCX
CCNAA2 capitulo 1 y 2
PDF
Unidad iii seguridad de redes stew
PDF
Sdh introduccion
Introducción a mpls
claserd
MPLS - Multiprotocol Label Switching v1.3
Redes Informáticas
Csma cd
Proyecto 802
Protocolos en las capas del modelo osi
Estándares Inalámbricos
Presentacin Datos Fijos Mpls Tecnica Comercial
Conferencia transición HD
Presentación1
[11] TALLER - GENERALIDADES DEL MODELO TCP/IP. HISTORIA Y CAPAS DEL MODELO
Sistemas operativos multimedia
CCNA 1 - Clase 2
CCNAA2 capitulo 1 y 2
Unidad iii seguridad de redes stew
Sdh introduccion
Publicidad

Destacado (9)

PDF
UFPUV 08 - implementation panel
PPT
Azido nukleikoak
PPT
第3回ジオメディアサミットLt
DOCX
Proposal pro forma
PDF
Vb 6ch123
PPTX
Technological Pedagogical Content Knowledge
PPT
Interviews
DOCX
Diego velez preguntas del codigo_de_policia
UFPUV 08 - implementation panel
Azido nukleikoak
第3回ジオメディアサミットLt
Proposal pro forma
Vb 6ch123
Technological Pedagogical Content Knowledge
Interviews
Diego velez preguntas del codigo_de_policia
Publicidad

Similar a MPEG (20)

PPTX
Presentación TIC Francisco Illanes (formatos de video)
PPSX
Formato de vídeo
PPTX
Los formatos de vídeo
PPT
Edu y santi mpeg 2
PPTX
Formatos de video
PPT
S4 formatos imagen y video
PDF
Mpeg2-mpeg4 canales-retorno
PPT
H.264 Codec Multimedia
PPTX
Adgdfsdfhgjedt
PPTX
Unidad didactica 3
PPTX
Maria paula
PDF
Sistemas Operativos Modernos - Clase 10 sistemas operativos multimedias.pdf
PDF
Formatos de videos NTSC y PAL
PDF
VideoDigitalComprimidi
PPT
Formatos de video
PPT
Formatos de video
Presentación TIC Francisco Illanes (formatos de video)
Formato de vídeo
Los formatos de vídeo
Edu y santi mpeg 2
Formatos de video
S4 formatos imagen y video
Mpeg2-mpeg4 canales-retorno
H.264 Codec Multimedia
Adgdfsdfhgjedt
Unidad didactica 3
Maria paula
Sistemas Operativos Modernos - Clase 10 sistemas operativos multimedias.pdf
Formatos de videos NTSC y PAL
VideoDigitalComprimidi
Formatos de video
Formatos de video

MPEG

  • 1. DESCRIPCION DEL ESTANDAR MPEG-2 OLIVER HERNANDEZ Universidad Central de Venezuela, Facultad de Ingeniería, Escuela de Ingeniería Eléctrica. Caracas - Venezuela. Resumen El grupo de expertos de imágenes en movimiento (MPEG) fue formado por la Organización Internacional de Estándares (ISO) para desarrollar un conjunto de estándares para compresión de vídeo digital y en concordancia con las siete capas del modelo OSI. El primer intento de MPEG fue para suplir compresión de datos a velocidades de 1.5 Mbit/s para imágenes almacenadas. La segunda parte llamada MPEG 2, fue diseñada para generar velocidades de pixel entre 5 y 10 Mbit/s, para videos de mejor calidad en CATV y HDTV, entre otros. Abstract The Motion Picture Experts Group has been formed by the International Standards Organization to develop a set of standards for digital video compression in accordance with the seven layer ISO model. The first intent of MPEG was to supply 1.5 Mbit/s compressed data rates for image storage. A new MPEG specification, called MPEG 2, was desing for generating pixel rates between 5 and 10 Mbit/s, provide better quality compressed video for CATV, HDTV, and others. INTRODUCCION La ISO/IEC creo el MPEG (Moving Picture Expert Group) con el mandato para desarrollar un estándar para comprimir TV para aplicaciones multimedia. Como resultado, en Agosto de 1993 el estándar ISO/IEC 11172 "Código de imágenes en movimientos y audio digital asociado para medios de almacenamiento digital para 1.5 Mbit/s" fue ratificado. Este estándar, mejor conocido como MPEG 1 está dividido en tres partes (vídeo, audio y sistema). La segunda fase de MPEG, llamada MPEG 2, también consta de tres partes o estándares, cubiertas por la: ISO/IEC 13818-1 Sistemas MPEG-2 (Draft ITU-T Rec. H.222), ISO/IEC 13818-2 Vídeo MPEG-2 (Draft ITU-T Rec. H.262) y ISO/IEC 13818-3 Audio MPEG-2. Estas fueron aprobadas finalmente como Estándar Internacional (IS) por la asamblea N° 29 de la ISO/IEC JTC1/SC29/WG11 (MPEG) hecha en Singapore en Noviembre de 1994. El registro ITU-T H.262 trata con codificación de vídeo de alta calidad con posible vídeo entrelazado de NTSC, PAL o Televisión de Alta Definición (HDTV). Esto es un intento para operar en un rango de 2 a 15 Mbit/s. Sin embargo puede funcionar a velocidades superiores de 100 Mbit/s. Un amplio rango de aplicaciones, velocidades, resolución calidades de las señales y servicios son direccionados, incluyendo todas las formas de medios de almacenamiento digital, televisión (incluyendo HDTV), broadcasting y comunicaciones. Entre las varias mejoras o extensiones introducidas en los codificadores MPEG 2, tenemos: Nuevos modos de predicción de campos y tramas para scanning entrelazado. Cuantización mejorada. Nuevos códigos intra-trama de longitud variable (VLC). Extensión escalada de resoluciones para compatibilidad, servicios jerárquicos y robustos, y Dos nuevas capas de sistema para multiplexaje y transporte que provee celdas/paquetes de vídeo de alta o baja prioridad, cuando son llevados a través de una red conmutada. Incrementos soportados por accesos aleatorios. Soporte resistente para incremento de errores. Múltiples programas con un multiplexor (MPEG 1 no puede hacer esto, y esto fue un driver principal para el MPEG 2). Al igual que el H.261 y JPEG (Joint Photographic Expert Group), el estándar MPEG 2 es un esquema híbrido de compresión para imágenes en pleno movimiento que usa codificación inter-trama y codificación intra-trama y combina la codificación predictiva con la codificación con la transformada
  • 2. DCT 8x8 (Discrete Cosine Transform, o sea, transformada discreta de coseno). La DCT es un algoritmo matemático (conversión del dominio del tiempo hacia el dominio de la frecuencia), que es aplicado típicamente a un bloque de 8x8 elementos de imagen, dentro de un cuadro. La DCT elimina redundancia en la imagen a través de la compresión de la información contenida en 64 pixels. El cuantizador otorga los bits para los coeficientes DCT más importantes, los cuales son transmitidos POR QUE MPEG 2 ? El concepto de MPEG 2 es similar al MPEG 1, pero incluye extensiones para cubrir un amplio rango de aplicaciones. La principal aplicación destinada durante el proceso de definición de MPEG 2 fue todas las transmisiones de vídeo con calidad de TV codificadas a velocidades entre 5 y 10 Mbit/s. Sin embargo, la sintaxis del MPEG 2 ha sido descubierta para ser eficiente para otras aplicaciones como las de altas velocidades binarias y velocidades de muestreo (HDTV). La característica más resaltante con respecto a MPEG 1 es la sintaxis para codificación eficiente de vídeo entrelazado. Otras características más específicas (precisión 10 bit DCT DC, cuantización no-lineal, tablas VLC) son incluidas, y tienen un mejoramiento notable en la eficiencia de la codificación. Otra característica clave de MPEG 2 son las extensiones escalables las cuales permiten la división de continuas señales de vídeo dentro de dos o más cadenas binarias codificadas, representando el vídeo en diferentes resoluciones, calidades (por ejemplo SNR), o velocidades. NIVELES Y PERFILES MPEG-2 es una recomendación muy compleja, tiene una larga variedad de combinaciones (sobre 10 6). Sin embargo, un reducido conjunto de combinaciones son definidas bajo "perfiles" y "niveles". Dentro de los perfiles, una larga variación de desempeños son posibles. Por otra parte los niveles son un conjunto de derivaciones impuestas para los perfiles. Las combinación de un perfil y un nivel produce una arquitectura muy bien definida para una cadena particular de bit. Los perfile limitan la sintaxis (por ejemplo los algoritmos), mientras los niveles limitan los parámetros (velocidad de muestreo, dimensiones de las tramas, velocidad binaria codificada, etc.). Niveles: proveen un rango de cualidades potenciales, definen los máximos y mínimos para la resolución de la imagen, muestras Y por segundo (luminancia), el número de capas de audio y vídeo soportados por los perfiles escalados, y la máxima velocidad binaria por perfil. A continuación una explicación resumida de cada uno de ellos: o Nivel Bajo: tiene un formato de entrada el cual es un cuarto de la imagen definida en el registro ITU-R 601. o Nivel Principal: tiene una trama de entrada completa definida en el registro ITU-R 601. o Nivel Alto 1440: tiene un formato de alta definición con 1440 muestras por línea. o Nivel Alto: tiene un formato de alta definición con 1920 muestras por línea (para aplicaciones sin cualquier limitación en velocidades de datos). Perfiles: son definidos subconjuntos con características de sintaxis (por ejemplo: algoritmos), usados para converger la información. Hay cinco diferentes perfiles y cada uno es progresivamente más sofisticado y agrega herramientas adicionales (y por supuesto más costoso para el cliente) con la característica adicional de ser compatible con el anterior. Esto significa que un decodificador equipado con un alto perfil descodificará perfiles simples. A continuación una pequeña explicación de los perfiles: o Perfil Simple: es el que ofrece pocas herramientas. o Perfil Principal: tiene herramientas extendidas o mejoradas del perfil simple y predicción bidireccional. Tendrá mejor calidad para la misma velocidad binaria que el perfil simple. o Perfil Escalable SNR y Perfil Escalable Espacial: son los próximos pasos. Estos dos niveles son llamados escalables porque ellos permitirán codificar datos de vídeo que sean particionados dentro de una capa base y una o más señales "Top-up". La señal Top-up puede tanto tratar la proporción S/N (SNR escalable) o la resolución (escalable espacial).
  • 3. o Perfil Alto: este incluye todas las herramientas de las versiones anteriores y mejoradas. Tiene la habilidad de codificar diferencias de color entre líneas simultáneamente. Este es un super sistema diseñado para aplicaciones donde no están contraídas sobre las velocidades de los bits. Para muchas de las aplicaciones (incluyendo transmisión de satélites) el Perfil Principal, Nivel Principal (MP@ML, siglas en ingles) provee una buena relación entre calidad de imagen y la complejidad VLSI, como resultado, MP@ML el punto de desarrollo para los actuales sistemas DCTV. El siguiente gráfico es un resumen o representa de todas las combinaciones entre perfiles y niveles. También muestra las máximas velocidades de datos para cada combinación: Máximas velocidades de datos para MPEG 2 y combinaciones recomendadas para perfiles y niveles. LOS MODOS ESCALABLES DE MPEG 2 Actualmente hay cuatro modos escalables en MPEG 2. Estos modos rompen el vídeo MPEG 2 en diferentes capas (base, media, y alta) para propósitos de proritización de datos de vídeo. Otro propósito de la escalabilidad es para divisiones complejas. Por ejemplo, en HDTV, la alta prioridad de la cadena binarias (720x480) puede ser descodificada bajo condiciones de ruido donde la baja prioridad (1440x960) no pueda. A continuación una breve explicación de los modos escalables: Escalabilidad espacial: Este método de dominio espacial codifica la capa base a una dimensión de muestro bajo (por ejemplo: resolución) que las capas superiores. Las capas bajas (base) reconstruidas del muestro son usadas como predicción de las capas superiores. Particionamiento de datos: es un método de dominio de frecuencia que rompe los bloques de 64 coeficientes cuantizados de la transformada dentro de dos cadenas binarias. La primera, cadena de alta prioridad contiene los coeficientes más críticos de las frecuencias bajas e información (tales como valores DC, vectores, etc.), la segunda, cadena binaria de baja prioridad lleva datos AC de las altas frecuencias. Escalabilidad SNR: es un método de dominio espacial donde los canales son codificados a velocidades de muestreo idénticas, pero con diferentes calidades de imágenes. La cadena binaria
  • 4. de alta prioridad contiene datos de la capa base que pueden ser añadidos a la capa de refinamiento de baja prioridad para construir una imagen de alta calidad. Escalabilidad temporal: Un método de dominio temporal usado por ejemplo en vídeo estereoscopico. La primera, la cadena binaria de alta prioridad codifica vídeo a una baja velocidad de tramas, y las tramas intermedias pueden ser codificadas en una segunda cadena binaria usando la reconstrucción de la primera cadena binaria como predicción. Por ejemplo en una visión estereoscopica, el canal de vídeo izquierdo puede ser predecido del canal derecho. ESQUEMA DE CODIFICACION INTERTRAMA DE VIDEO Para explorar todas las capacidades de compresión de compensación de movimiento y para incorporar capacidades de adelantado rápido y retroceso rápido (fast forward y fast reverse FF/FR), requeridos para servicios de almacenamiento digital, MPEG 2, incorpora algunos esquemas de codificación intertrama. El concepto está basado en Intra-trama (I), tramas predecibles (P), tramas interpoladas o bidireccionales (B) y tramas D (Imágenes DC). Una trama I es codificada sin referencia para otras imágenes o tramas contenidas en la secuencia del vídeo. Cualquier trama I trabaja como un punto de referencia para funcionalidad y accesos FF/FR. Libera muy baja compresión. Las tramas P son codificadas con la referencia de las tramas previamente codificadas, tanto I y P. Ellas incorporan compensación de movimiento, la compresión es más alta que las tramas I. Las tramas B requieren como referencia tanto las tramas futuras como pasadas, las tramas B usan compensación e interpolación de movimientos y logra alta compresión. Tramas D (imágenes DC) son imágenes que contienen solamente la DC (bloques de 8x8) para cada bloque. El soporte de éste tipo de trama es opcional, y las secuencias pueden no contener tramas D mezcladas con los otros tipos de tramas. La proporción entre las tramas I, P y B es conocida como N/M, donde N representa el número de tramas entre imágenes o tramas I y M es el número de tramas entre imágenes o tramas P. Valores típicos son de 15 y 3 para N y M respectivamente. La incorporación de estas tres tipos de tramas, aportan alta compresión, buen acceso aleatorio y funcionalidad FF/FR. Este esquema de codificación también incrementa significativamente el retraso de codificación porque las tramas de las imágenes deben ser almacenadas en un buffer. Por ejemplo, el codificador considerará la primera trama como una trama I, la segunda y tercera trama serán tramas B, luego ellas son predecidas e interpoladas basadas en la trama previa I (o P) y la próxima trama P, serán puestas en el buffer y codificada la próxima trama como P, la cual sólo es referida a la trama previa I. Después de codificar la trama P, el codificador retornará a trabajar con la trama almacenada B. El descodificador revertirá el proceso. El recibirá la trama I, la trama P y la trama B y reconstruirá la trama original del vídeo (ver la siguiente figura). El proceso, requiere más memoria en el descodificador que en el codificador. Este retraso de codificación hace que MPEG 2 no sea bueno para aplicaciones interactívas. Secuencia de transmisión usando el esquema de codificación de intertramas
  • 5. AUDIO MPEG 2 El sistema de multiplexaje MPEG 2, soporta cualquier número de canales de entrada de audio tan largos que la velocidad de transporte seleccionada pueda soportar la suma de datos. Los usuarios tienen la flexibilidad para seleccionar su propio algoritmo de compresión de audio, tales como: Audio MPEG 2, MUSICAM, DOLBY AC-2 o AC-3. Los canales pueden ser configurados independientemente o en pares estéreo. Diferentes velocidades de audio es otra de las características de el sistema. Una vez más, la velocidad también será asociada con la calidad. La compresión de audio MPEG 2 es un algoritmo que, como el vídeo MPEG 2, explota las limitaciones del sistema humano, en este caso el oído. Como en la compresión de vídeo, el algoritmo de compresión de audio también elimina la información irrelevante dentro de la señal de audio. La información irrelevante es cualquier señal imperceptible. Por ejemplo, en presencia de una señal fuerte, todas las señales vecinas flojas son enmascaradas y aunque son parte del espectro, no son percibidas por el oído. El algoritmo MPEG 2 es del tipo "lossy" o con pérdidas pero la distorsión insertada por la señal será inaudible. La configuración básica del audio MPEG 2 ofrece seis canales de audio. Esta característica debe ser usada para distribuir tres pares de estéreos ( o seis canales mono) para aplicaciones multilenguajes o para crear un sistema estereofónico multicanal. Lo anterior crea una realidad como a la de un campo de audio. La recomendación de cornetas configuradas para sistemas estereofónicos multicanales es conocido como estéreo -p/q , donde p es el número de cornetas en el frente y q es el número de cornetas en el fondo. Por ejemplo un estéreo-3/2 proveerá un sistema con canales al frente en la derecha, centro y a la izquierda más canales posteriores que rodean el área y ofrecen un mejor e impresionante realismo a la audiencia. Las configuraciones típicas para sistemas estereofónicos multicanales son: 1 Canal modo 1/0: Mono 2 Canales estéreo 2/0: izquierda y derecha 3 Canales estéreo 3/0: izquierda, derecha y centro 4 Canales estéreo 3/1: izquierda, derecha, centro y posterior 5 Canales estéreo 3/2: izquierda, derecha, centro, posterior izquierda y derecha 5.1 Canales estéreo 3/2: izquierda, derecha, centro, posterior izquierda y derecha y un canal de efectos especiales de 100 Hz LFE (Low Frequency Enhancement).
  • 6. Audio MPEG 2 ofrece tres diferentes capas de compresión (capa -I, -II, y -III). Cada capa usa un esquema de reducción incremental de la velocidad binaria, con la ayuda de el incremento de la velocidad de compresión mientras se mantiene la calidad. Para la capa -II, la técnica de reducción de bit corresponde para el algoritmo MUSICAM, el permite varias combinaciones de velocidades de bit (32 a 224 Kbit/s por canal), y calidad de audio sin comprometer la complejidad del hardware. Por ejemplo una velocidad de muestreo de 56 Kbit/s y 16 KHz en la capa -II ofrece mejor calidad que la definida en el registro ITU-G.722. SISTEMAS MPEG 2 PARA MULTIPLEXAJE Y TRANSPORTE (ITU-T Rec. H.222) El multiplexaje y transporte definidos bajo MPEG 2 específica el formato de codificación para multiplexar audio, vídeo y datos dentro de una forma manejable para almacenar o transmitir. Hay dos formatos de cadenas de datos definidos: 1. Cadena de transporte (TS), la cual porta o lleva uno o más programas simultáneamente, es optimo para aplicaciones donde la pérdida de datos puede ser requerida (como los enlaces satelitales). Tales errores pueden ser manifestados como errores de bit o pérdida de paquetes. Una TS es una sucesión de paquetes de 188 bytes de longitud llamados "paquetes de transporte". Es posible construir una TS a partir de: 2. Cadenas elementalmente paquetizadas (PES), vienen de múltiples programas. Cada programa debe tener velocidad variable, sin embargo, la TS será de velocidad fija. Cada programa tiene un Reloj Referencial Primario (PCR) asociado con el para indicar la actual velocidad del programa. 3. Cadenas de Programa u otra TS las cuales puedan contener uno o más programas. La cadena de transporte es optima para transmisiones de satélites, cable, ISDN, redes ATM y vídeotelefonía. 1. Cadena de programa (PS). Es optima para usarse en ambientes libres de errores, como aplicaciones multimedia. Llevan paquetes largos de longitud variable. Cada paquete comenzará con una cabecera. Un error en la cabecera puede causar la pérdida del paquete completo y puede representar la corrupción de una trama entera de vídeo. PS puede llevar uno o más programas simultáneamente, pero la PES tiene que compartir un tiempo base común. Cadena Elementalmente Paquetizada (PES): El transporte es desarrollado dividiendo las salidas del compresor (vídeo y audio) para formar paquetes de longitud variable marcados por tiempo llamados cadenas elementalmente paquetizadas (PES). Las PES son paquetes de longitud variable sujeto a la máxima longitud de 64 Kbytes. El proceso de paquetización es aplicado para tanto vídeo y audio. Cada PES es marcado con el tiempo para darse una referencia antes y después del demultiplexaje, con la finalidad de reproducir las tramas de vídeo completamente sincronizadas con el audio PES. Este es un tiempo de referencia para cada programa llamado Reloj Referencial Primario (PCR). El PCR es una información independiente usada para crear un reloj de referencia en el descodificador. Cada programa prescinde de la velocidad y si la velocidad es variable o fija son referidas para un PCR. Finalmente, la PES viniendo de diferentes programas puede compartir un único PCR. Multiplexaje: Un multiplexaje basado en paquete es muy flexible. Paquetes pertenecientes a diferentes programas pueden ser distribuido de varias maneras. Un buffer es usado en el descodificador para asegurarse que todos los datos son descodificados y presentados a tiempo. Ya que la naturaleza inherente de la PES es variable en velocidad, el multiplexaje basado en paquetes es de gran aprovechamiento porque puede distribuir PES de diferentes fuentes con diferentes velocidades instantáneas dentro de una salida común con velocidad fija. Explotando la no coincidencia de picos de velocidad, se puede transportar altas velocidades instantáneamente en una salida de baja velocidad. Este tipo de multiplexor es algunas veces referido como "multiplexor estadístico". Las capas del sistema ofrecen diferentes modos de operación: 1. Multiplexaje estadístico, descrito anteriormente.
  • 7. 2. Multiplexaje estadístico limitado en el cual la velocidad de cualquier cadena de vídeo no podrá caer bajo un umbral programable. 3. Multiplexaje con velocidad fija, las velocidades de vídeo son fijas. 4. Modo mixto. Todos los modos previos pueden ser mezclados dentro de un simple TS. Después del multiplexaje, la señal sufrirá el proceso final, cada paquete de transporte puede ser encriptado y revuelta, bajo control de acceso condicional. La salida de un multiplexor portando múltiples canales siempre será a velocidad fija. DONDE HAY MPEG 2 EN LA ACTUALIDAD DBS (Emisión Directa de Satélite): El servicio Hughes/USSB usa vídeo y audio MPEG 2. Hughes/USSB DBS comenzó a dar servicios en Norte America en 1994. Dos satélites a 101 grados al oeste comparten los requerimientos de poder de unos transponder con 120 Watts y 27 MHz. CATV (Televisión por cable): La industria del cable ha colocado más o menos vídeo MPEG 2. Y el audio en menor proporción. DigiCipher: La sintaxis del DigiCipher I es similar a la del MPEG 2, pero usa pequeños "macrobloques de predicción" y no tramas B. La especificación DigiCipher II incluye modos para soportar tanto GI como sintaxis del perfil principal de vídeo MPEG 2. Servicios como HBO fueron actualizados con DigiCipher II en 1994. HDTV: La gran alianza de Estados Unidos (Grand Alliance), un consorcio de compañías que formalmente compiten por el estándar HDTV, ha agregado el uso de vídeo MPEG 2 y sintaxis de los sistemas (incluyendo imágenes o tramas B). Serán soportados ambos modos, entrelazado (1440x960x30 Hz) y progresivo (1280x720x60 Hz). Para esto, la alianza debe colocarse bajo una modulación (QAM, VSB, OFDM), convolución (MS o Viterbi), y corrección de errores (RSPC, RSFC). En septiembre de 1993, el consorcio de 85 compañías europeas firmó un convenio para invertir en un proyecto conocido como Emisión de Vídeo Digital ( DVB) el cual desarrolló un estándar para transmisión terrestre y de cable, y éste esquema usa MPEG 2. Este consorcio puso el último clavo en el ataúd del esquema D-MAC, para una migración gradual hacia un todo digital: HDTV. CONCLUSIONES El MPEG 2 es un estándar de compresión para imágenes con movimiento a velocidades de pixel entre 5 y 10 Mbit/s. El estándar de vídeo consiste de cinco perfiles, referido a la complejidad del algoritmo de compresión y cuatro niveles, los cuales se refieren a la resolución del vídeo original. El nivel principal y el perfil principal es la combinación más usada por las opciones MPEG 2. MPEG 2 es un estándar emergente para reproducir vídeo en pantalla completa y audio con calidad de transmisión; está mas orientado hacia TV que MPEG 1, por ejemplo, MPEG 2 sabe cómo se entrelazan los cuadros en TV, además de que la calidad de la imagen es superior. Por otra parte, como no puede dependerse de la llegada del paquete anterior antes de descomprimir el paquete actual, MPEG 2 no es ideal para transmisión vía Internet.