presentacion de PowerPoint de la fuente de poder.pptx
Televisión digital fundamentos
1. Fundamentos de la Televisión Digital
En el siguiente capítulo se pretende abordar los temas que llevan a la tecnología de la televisión digital, los
canales digitales ofrecen multitud de programas en un mismo paquete de televisión y se han introducido otros
conceptos como el pago por canal, pago por programa, la repetición de los programas en distintas partes del
mundo, canales que ofrecen la programación entre otras ventajas, como que la codificación de audio y video
puede ser transmitida en un ancho de banda menor.
En los países que han adoptado la norma digital, se está llevando a cabo un proceso de transición donde el
objetivo principal es que todos los televisores análogos sean remplazados por digitales o bien conectados a un
codificador de señal. Mientras tanto las estaciones televisoras transmiten 2 señales: una analógica por VHF y
otra digital por UHF.
La televisión digital tiene sus comienzos en el año 1982. En ese año se desarrolla el estándar CCIR-601. (UTI-
601), el cual ha sido el primer estándar internacional de codificación de televisión digital, misma que prevé la
codificación de la señal análoga a digital por componentes a 8 bits de resolución de cuantificación. Con la
televisión digital se logra el desarrollo de efectos en 2D y 3D.
Esta tecnología permite a los televidentes interactuar con datos multimedia, internet, audio, video, telefonía y
muchos otros más también es sin duda alguna la televisión digital ha representado un significativo avance en el
área de las telecomunicaciones de la nueva era. La televisión digital de la mano con la norma DVB contempla
tener un sistema global, logrando así eliminar los problemas de compatibilidad con los anteriores estándares
NTSC, SECAM y PAL, aunque hay otro inconveniente ya que no se tenía contemplado el surgimiento de
alternativas tecnológicas al DVB y el despertar del término HDTV fuera de las fronteras europeas.
Estados unidos por una parte a desarrollado un sistema llamado ATSC al que califica como de alta definición, es
por eso que el DVB inicia una fase de implantación en su terreno y de promoción en otros, lo cual estamos
llegando a una situación muy similar a la que se produjo en la fase de expansión de los estándares analógicos y
a esto le agregamos que Japón anuncia que está poniendo a punto otro sistema.
HDTV High Definition Televisión, es uno de los formatos que se caracteriza por emitir señales televisivas en una
calidad digital superior a los sistemas tradicionales, este término se aplicaba a los modelos diseñados en los
años de 1930 y en Europa a los modelos D2 MAC y HD MAC
Es la transcripción de señales analógicas en señales digitales, con el propósito de facilitar su procesamiento
(codificación, compresión, etc.) y hacer la señal resultante (digital) más inmune al ruido y otras interferencias a
las que son más sensibles las señales analógicas.
El año 1993 se formó el grupo de trabajo llamado “Digital Vídeo Broadcasting” (DVB), que tenía como objetivo
definir una serie de estándares para la implantación de un sistema de televisión digital para su transmisión vía
terrestre, satélite y cable.
Este grupo tomo como formato para comprimir la información digital el MPEG-2, que es el utilizado en los
reproductores de DVD, y creo un conjunto de estándares denominados DVB que define como adaptar esta señal
comprimida para ser utilizada en los diferentes medios de transmisión.
Los principales estándares son:
DVB- Satélite (DVB-S)
DVB-Terrestre (DVB-T)
DVB-Cable (DVB-C)
Mismos que serán explicados en uno de los siguientes capítulos.
Proceso de transmisión y recepción de la televisión digital
1.- Sistemas de digitalización de la señal de audio y video. Consiste en sistemas que digitalizan las señales de
audio y video a partir de señales analógicas y que obtienen un formato PCM convencional sin comprimir. En el
caso de la señal de audio, el formato PCM es parecido al sistema Compact Disc, con una frecuencia de muestreo
de 44.1 KHz por canal y 16 bits por muestra.
2.-Sistemas de compresión / descompresión de la información. El formato ITU 601 contiene una gran cantidad de
datos que impiden su transmisión y es por eso que se opta por la utilización del formato de codificación MPEG
mismo que puede permanecer por un periodo prolongado de tiempo en el mercado ya que combina distintas
estrategias de codificación, utilizando tanto la información que más se repite en la imagen como la información
que es perceptible por el ojo humano, por tal motivo el sistema de compresión es complejo pero el de
descompresión es algo más sencillo ya que el receptor no debe tomar decisiones ya que la señal a recibir esta
entre los 2 y los 9 Mbits/s.
3.- Multiplexación / Demultiplexacion de señales de video y audio y varios programas. La trama de bits asociada
a un canal puede estar formado por varios programas, donde cada uno está constituido por una señal de audio y
una de video por lo cual es necesario que la señal de audio sea mezclada entre la información de video para
poder lograr una sincronía durante la reproducción, las normas de este proceso son mencionadas en el capitulo
en la sección que corresponde al estándar MPEG”.
4.- Transmisión / Recepción de las señales. La transmisión de las señales de televisión digitales está
normalizada por la organización DVB, este estándar cubre toda la normativa de transmisión por satélite, cable y
2. terrena y establece los procedimientos utilizados para el acceso a los programas, códigos de protección,
sistemas de modulación, entre otras que se explicaran en el Capitulo 5 de estándares.
Principios de Digitalización
Digitalización es el proceso de generalización del uso de la tecnología digital. En el mercado de la televisión se
habla de digitalización para hacer referencia a cómo las emisiones de televisión pasan de transmitirse en señales
analógicas para hacerlo a través de señales digitales.
El proceso de digitalizar, se refiere a la transición de la recepción analógica a la digital. Esto se aplica a todos los
sistemas de transmisión de la señal de televisión existentes: terrestre, cable, satélite y DSL. Por tanto,
digitalización es un término generalista que engloba a todo tipo de tecnologías de transmisión de señales. El
proceso de digitalización de una señal analógica lo realiza el conversor analógico/digital. Esta representación,
numérica en bits, permite someter la señal de televisión mediante procesos complejos en imágenes sin
degradación de calidad, que ofrecen múltiples ventajas y abren un abanico de posibilidades de nuevos servicios
en el hogar.
La digitalización tiene consecuencias económicas y sociales importantes.
Económicamente, la digitalización genera una de-fragmentación de los mercados.
En efecto, si todos los agentes utilizan la misma tecnología se elimina la segmentación del mercado. Por otro
lado, la digitalización reduce las barreras de entrada a la industria debido a la ampliación del número de canales
disponibles.
Finalmente, la digitalización facilita el desarrollo de los sectores implicados dado que se necesita mucha inversión
para reformar a todos los agentes del mercado, así como para incorporar las nuevas tecnologías.
Para la sociedad, la digitalización puede favorecer el desarrollo de la “sociedad de la información”, dado que
amplía la información que puede llegar a los ciudadanos.
En general, se puede afirmar que la tecnología digital ha modificado la estructura del mercado de la televisión.
Para comprender las implicaciones de estos cambios resulta interesante comparar las características del
mercado de la televisión analógica y del mercado de la televisión digital.
Conversiones: analógico digital
Como antecedentes para entender el proceso de conversión es necesario conocer los conceptos análogo y
digital.
El termino análogo hace referencia a las señales continuas en el tiempo lo cual significa que pueden adquirir
cualquier valor en un límite superior e inferior, mientras que una señal digital es aquella que presenta valores
discretos (0,1).
Conversión analógica digital
Es el proceso de convertir una señal continua a un código digital, mediante sistemas que procesan, almacenan,
interpretan, transportan y manipulan dichos valores analógicos, cabe mencionar que éste no es un proceso
exacto, la conversión analógico-digital consta de varios procesos:
Muestreo
Figura 3.1 Muestreo
Consiste en tomar muestras periódicas de la amplitud de onda. La velocidad con que se toma esta muestra, es
decir, el número de muestras por segundo, es lo que se conoce como frecuencia de muestreo.
Toda la tecnología digital está basada en la técnica de muestreo (sampling), este proceso consiste en tomar
muestras de la señal análoga durante un tiempo determinado. Muestreo convierte el voltaje a 0`s y 1`s mismos
que pueden ser fácilmente representados y vueltos nuevamente a su forma original.
Razón de muestreo es la frecuencia de muestreo de una señal en un segundo medida en Hertz. Esta determina
el rango de frecuencias en un sistema y cabe mencionar que a mayores frecuencias de muestreo hay mejor
precisión y calidad.
El muestreo representa el tiempo de captura de la señal, mejor dicho, mide el tiempo, como se menciono
anteriormente el muestreo es el proceso de tomar muestras de tensiones en diferentes puntos de la onda
senoidal y la frecuencia a la que se realiza el muestreo de denomina razón o también frecuencia de muestreo y
es medida en Hertz.
3. Retención: las muestras tomadas han de ser retenidas (retención) por un circuito de retención (hold), el tiempo
suficiente para permitir evaluar su nivel (cuantificación). Desde el punto de vista matemático este proceso no se
contempla, ya que se trata de un recurso técnico debido a limitaciones prácticas, y carece, por tanto, de modelo
matemático.
El proceso de muestreo consigue el conjunto completo de parámetros necesario para representar una señal
digital de video, incluyendo pixeles por línea, número de líneas por cuadro, relación de aspecto, y la velocidad de
cuadros/campos. El muestreo en la dirección horizontal nos proporciona el parámetro de pixeles por línea, que
define la resolución horizontal de una imagen. El muestreo vertical nos determina la resolución vertical, indicada
por el número total de líneas. El muestreo temporal determina la velocidad de cuadros o campos.
Cuantización
Figura 3.2 Cuantización
Es el proceso de convertir una serie de valores continuos a serie de valores discretos, es decir, es la encargada
de determinar cuál es el valor de las muestras.
En este proceso se mide el nivel de voltaje de cada una de las muestras. Consiste en asignar un margen de valor
de una señal analizada a un único nivel de salida.
Incluso en su versión ideal, añade, como resultado, una señal indeseada a la señal de entrada: el ruido de
cuantificación.
Cuantización es el componente de amplitud del muestreo, es la técnica donde un evento analógico es medida
dado un valor numérico. En esta parte del proceso es donde los valores de la sinusoide se convierten en series
de valores numéricos decimales discretos mismo que corresponden o los diferentes niveles de voltajes que
contiene la señal analógica original.
Figura 3.3 Error de cuantización
Para reducir el error de cuantización es preciso muestrear a menores tiempos y cuantizar a mayor numero de
niveles (bits).
Codificación
Es la representación numérica de la cuantización, y se utilizan códigos ya establecidos y estándares, el más
conocido es el binario aunque existen otros entonces la codificación es el último paso el cual consiste en la
representación numérica de la cuantización. Consiste en traducir los valores obtenidos durante la cuantificación
al código binario. Hay que tener presente que el código binario es el más utilizado, pero también existen otros
tipos de códigos que también son utilizados.
Figura 3.4 Codificación
4. Es donde las tomas de voltajes se representan numéricamente por medio de códigos y estándares previamente
establecidos. La codificación permite asignar valores numéricos binarios equivalentes a los valores de tensiones
o voltajes que conforman la señal eléctrica analógica original.
Tipos de codificación
Etapas de codificación y transmisión de una señal de video digital
Codificación fuente. Consiste en extraer toda la redundancia posible en la señal, es decir, reducir los bits de una
manera que no se represente una perdida en la calidad de la información, los métodos empleados para la
compresión son muy variados por lo que resulta difícil emplear un procedimiento de compresión ya que depende
en gran medida de las características de las señales.
Multiplexación. Se encarga de formar una trama binaria que transporte la información y contenidos de distintas
señales por todo el canal definido por el estándar.
Codificación de canal. Es utilizada para adecuar la forma de onda de las señales a las características del canal.
Es donde se introducen los códigos de protección frente a errores, códigos de encriptación de la información y se
adecua la forma de onda de la señal para que pueda ser usada en la etapa de modulación o transmisión.
Transmisión. Esta etapa es la encargada de adaptar los datos a las características del medio de transmisión,
para garantizar una correcta recepción de señales. El medio condiciona el tipo de modulación que se utiliza y la
codificación del canal.
Compresión
La técnica de compresión se puede aplicar a cualquier tipo de mensaje con el fin de reducir significativamente el
espacio que ocupa en bits; así su almacenamiento y transmisión requerirán menos capacidad.
Existen 2 tipos de compresión: con pérdida y sin pérdida. La mayor parte de los sistemas trabajan con pérdida ya
que se menciona que no es necesario enviar toda la imagen sino elementos que componen la imagen antes de
comprimirla,
Compresión implica disminuir el número de parámetros requerido para representar la señal, manteniendo una
buena calidad perceptual. Estos parámetros son codificados para almacenarse o transmitirse. El resultado de la
compresión de video digital es que se convierte a un formato de datos que puede transmitirse a través de las
redes de comunicaciones actuales y ser procesadas por computadoras.
Estándares de compresión
H.261
El estándar H.261 fue desarrollado para satisfacer la compresión de video para transmisiones de bajo ancho de
banda, conocido también como px64, es considerado como un compresor de tipo lossy (con pérdida) que soporta
velocidades de transmisión con múltiplos de 64 Kbps y consta de 5 etapas:
1.- Etapa de compensación de movimiento.
2.- Etapa de transformación. (DCT).
3.- Etapa de cuantificación “lossy” (con pérdida).
4.- Etapa de codificación sin pérdidas (Run-Leght).
5.- Etapa de codificación sin pérdidas (Huffman).
Fue el primer estándar de codificación de video (1990), opera entre 40 kbit/s y 2 Mbit/s, remueve redundancia
temporal con vectores de movimiento y redundancia espacial con Transformada del Coseno discreta.
El estándar H.261 fue desarrollado (antes que MPEG) para satisfacer la compresión de video para transmisiones
de bajo ancho de banda y su aplicación más extendida es la de videoconferencia. Conocido también como px64,
es considerado como un compresor del tipo lossy (con pérdida) que soporta velocidades de transmisión con
múltiplos de 64 Kbps, de ahí su gran difusión en videoconferencia sobre RDSI.
Consta básicamente de cinco etapas:
· Etapa de compensación del movimiento,
5. · Etapa de transformación (DCT),
· Etapa de cuantificación "lossy" (con pérdidas) y
· Dos etapas de codificación del tipo sin pérdidas (codificación Run-length y codificación de Huffman).
Se puede considerar como un subconjunto de la codificación MPEG, evidentemente, con una calidad bastante
inferior aunque útil para sus aplicaciones.
H.262
Este estándar no se mencionara mucho debido a que su funcionamiento es similar al estándar MPEG-2 mismo
que será explicado en este mismo capítulo pero más adelante. (ISO/IEC 13818-2)
H.263
Este estándar es para bajas velocidades en videoconferencia y fue diseñado para sistemas basados en H.323
(comunicación audiovisual en cualquier red de paquetes), ahora para streaming media y soluciones Internet
conferencing. Basado en H.261, el estándar previo para compresión de video. Se sustituyó por el H262 v3.H.263
MPEG
MPEG es el más ampliamente utilizado y más conocido, una cadena MPEG se compone de tres capas: audio,
video, y una capa a nivel de sistema, (esta última incluye información sobre sincronización, tiempo, calidad) se
establecieron cuatro tipos:
MPEG 1.- Fue establecido en 1991, está orientado básicamente a la codificación de imágenes en movimiento y
audio asociado para medios de almacenamiento digital hasta 1.5 Mbit/s
MPEG 2.- Establecido en 1994, está hecho para mayor calidad con mayor ancho de banda, proporciona
resoluciones de 720 x 576 pixeles, es decir calidad de TV. Este ofrece compatibilidad con MPEG-1. Es usado en
los DVD y en televisión digital.
MPEG 3 “La planificación original contemplaba su aplicación a sistemas HDTV; finalmente fue incluido dentro de
MPEG 2”.
MPEG 4.- Este estándar aun se encuentra perfeccionándose, pero está más orientado a videoconferencias,
proporciona codificación y composición de objetos audio tanto naturales como sintetizados.
En la especificación MPEG-1 y MPEG-2 existen tres partes diferenciadas, llamadas, Sistema, Video y Audio. La
parte de video define la sintaxis y la semántica del flujo de bits de la señal de video comprimida. La parte de
audio opera igual, mientras que la parte Sistema se dirige al problema de la multiplexación de audio y video en un
único flujo de datos con toda la información necesaria de sincronismo, sin desbordar los buffers del decodificador.
Adicionalmente, MPEG-2 contiene una cuarta parte llamada DSMCC (Digital Storage Media Command Control,
Medios Digitales de Almacenamiento de Mando y Control), que define un conjunto de protocolos para la
recuperación y almacenamiento de los datos MPEG desde y hacia un medio de almacenamiento digital.
Grupo de imágenes (GOP)
Matemáticamente, cada imagen es realmente una unión de los valores que representan a un pixel: una
componente de luminancia y dos de crominancia; es decir, tres matrices de pixeles. Ya que el ojo humano no es
muy sensible a los cambios de la región cromática comparada con la región de luminancia, las matrices de croma
son decimadas o reducidas en tamaño por un factor de dos en ambas direcciones horizontal y vertical.
Consecuentemente hay una cuarta parte de números de pixeles de crominancia para procesar con los pixeles de
luminancia. Este formato, denominado formato (4:2:0), se emplea en MPEG-1.
MPEG-2 adicionalmente permite la posibilidad de no decimar o sólo decimar horizontalmente la componente
croma, consiguiente formatos 4:4:4 y 4:2:2 respectivamente.
Las imágenes pueden clasificarse principalmente en tres tipos basados en sus esquemas de compresión.
· I (Intraframes) o intra cuadros.
· P (Predictive) o cuadros predecidos.
· B (Bi-directional) o cuadros bidireccionales.
Las imágenes I son codificadas por ellas mismas, de ahí el nombre intra. Cada imagen se divide en bloques de
pixeles de 8x8 no solapados. Cuatro de estos bloques se organizan adicionalmente en un bloque mayor de
tamaño 16x16, llamado macro bloque.
La transformada explota la correlación espacial de los pixeles convirtiéndolos en un conjunto de coeficientes
independientes. Los coeficientes de baja frecuencia contienen más energía que los de alta frecuencia. Estos
coeficientes son cuantificados utilizando una matriz de cuantificación, este proceso permite que los coeficientes
de baja frecuencia (contienen gran energía) sean codificados con un número mayor de bits, mientras que para
los coeficientes de mayor frecuencia (menor energía) se usan menos bits o cero bits.
Los coeficientes de alta energía pueden eliminarse ya que el ojo carece de la habilidad de detectar cambios de
alta frecuencia. Reteniendo sólo un subconjunto de los coeficientes se reduce el número total de parámetros
necesarios para la representación en una cantidad considerable. El proceso es idéntico para los bloques de
pixeles de luminancia y crominancia. Sin embargo, ya que la sensibilidad del ojo humano a la luminancia y a la
crominancia varía, las matrices de cuantificación para las dos varían.
6. Figura 3.5 Codificación de Imágenes
El proceso de cuantificación también ayuda en el control de velocidad, por ej.
Permitiendo al codificador producir un flujo de bits a una determinada velocidad. Los coeficientes DCT son
codificados empleando una combinación de dos esquemas de codificación especiales: Run length y Huffman.
Los coeficientes son escaneados siguiendo un patrón en zig-zag para crear una secuencia de una dimensión.
MPEG-2 proporciona un patrón alternativo. La secuencia resultante de 1-D usualmente contiene un gran número
de ceros debido a la naturaleza del espectro DCT y del proceso de cuantificación. Cada coeficiente diferente de
cero se asocia con un par de apuntadores. Primero, su posición en el bloque que se indica por el número de
ceros entre él y el coeficiente anterior diferente de cero (Run length). Segundo, su valor.
Zig-Zag
Basado en estos dos apuntadores, se le asigna un código de longitud variable (Huffman) en función de una tabla
predeterminada. Este proceso se realiza de tal forma que las combinaciones con una alta probabilidad consiguen
un código con pocos bits, mientras que los poco habituales obtienen un código mayor. Adoptando esta
codificación sin pérdidas, el número total de bits disminuye. Sin embargo, ya que la redundancia espacial es
limitada, las imágenes I sólo proporcionan una compresión moderada. Estas imágenes son muy importantes para
acceso aleatorio utilizado para fines de edición. La frecuencia de imágenes I es normalmente una de cada 12 o
15 cuadros. Un GOP está delimitado por dos cuadros I.
En las imágenes P y B es donde MPEG proporciona su máxima eficiencia en compresión. Esto lo consigue
mediante una técnica llamada predicción basada en la compensación de movimiento (MC: Motion
Compensation), que explota la redundancia temporal. Ya que los cuadros están relacionados, podemos asumir
que una imagen puede ser modelada como una translación de la imagen en el instante anterior. Entonces, es
posible representar de manera precisa o predecir los valores de un cuadro basándonos en los valores del cuadro
anterior, estimando el movimiento. Este proceso disminuye considerablemente la cantidad de información.
En las imágenes P, cada macro bloque de tamaño 16x16 se predice a partir de un macrobloque de la anterior
imagen I. Ya que, los cuadros son instantáneos en el tiempo de un objeto en movimiento, los macrobloques en
los dos cuadros pueden no corresponder a la misma localización espacial, por lo tanto, se debe proceder a
buscar en el cuadro I para encontrar un macrobloque que coincida lo máximo posible con el macrobloque que se
está considerando en el cuadro P.
Figura 3.6 Coeficientes DCT
La diferencia entre los dos macrobloques es el error de predicción. Este error puede codificarse como tal o en el
dominio DCT. La DCT del error consigue pocos coeficientes de alta frecuencia, que tras la cuantificación
requieren un número menor de bits para su representación. Las matrices de cuantificación para los bloques de
7. error de predicción son diferentes de las utilizadas en los intra bloques, debido a la distinta naturaleza de sus
espectros. La distancia en las direcciones horizontal y vertical del macrobloque coincidente con el macrobloque
estimado se denomina vector de movimiento.
Figura 3.7 Interpolación de la imagen
Imágenes I, B y P
La predicción no es casual, ya que se usan cuadros anteriores y posteriores. Comparados con los cuadros I y P,
los B proporcionan la máxima compresión. Otras ventajas de los cuadros B son la reducción del ruido debido a
un proceso de promedio y el uso de cuadros posteriores para la codificación. Esto es particularmente útil para la
codificación de "áreas descubiertas". Los cuadros B nunca se usan por sí solos para predicciones para no
propagar errores. MPEG-2 permite MC para cuadros y campos. Para una secuencia de imágenes de variación
lenta es mejor codificar los cuadros (combinando los dos campos, si es necesario). MC basada en campos es
especialmente útil cuando la señal de video incluye movimientos rápidos.
Figura 3.8 Imágenes I, B y P
8. MPEG-2
El estándar MPEG-2 es una evolución de MPEG-1, fue ideado para conseguir calidad no interior a NTSC/PAL y
superior a la calidad CCIR 601. Es un conjunto de herramientas de compresión que configuran varios algoritmos
de compresión de video, y por lo tanto de diferentes calidades, para integrarse en una única sintaxis capaz de
aplicarse a los requerimientos de diferentes aplicaciones.
Para definir subconjuntos de herramientas de compresión se añadieron los conceptos de nivel y perfil. Como
regla general, cada perfil define una nueva colección de algoritmos que se añaden a los del perfil inferior. Un
nivel especifica el rango de parámetros que soporta la implementación, por ejemplo, tamaño de la imagen,
velocidad de cuadros o de transmisión.
En el perfil principal (MAIN Profile) define la compresión no escalable para fuentes de video progresivas y
entrelazadas, como una extensión de MPEG-1. En el perfil SIMPLE no se permite la codificación de cuadros B.
Soporta las siguientes relaciones de aspecto 4:3, 16:9 y 2.21:1 (cinemascope). Existen diferentes alternativas
para poder ver imágenes 16:9 o cinemascope en el formato estándar 4:3.
El objetivo de los códigos escalables es proporcionar interoperatibilidad entre diferentes servicios y soportar
flexibilidad en cuanto a receptores con capacidades diferentes de visualización. Por ejemplo, pueden existir
receptores que no sean capaces de reconstruir la señal de video con toda su resolución, y entonces decodifica
un subconjunto de las capas en las que se codifica el flujo de bits, mostrando la señal de video con una
resolución espacial o temporal menor o con menor calidad.
Tabla 3.1 Interoperatibilidad
PARÁMETROS
NIVEL Max. Vel.
Muestras/línea Líneas/cuadro Cuadros/s
(Mbps)
HIGH 1920 1152 60 80
HIGH 1440 1152 60 60
MAIN 720 576 30 15
LOW 352 288 30 4
Tabla 3.3 Características de la interoperatibilidad
PERFIL CARACTERÍSTICAS
Soporta algoritmos de codificación no escalables para video progresivo/entrelazado
Soporta predicción de cuadros B
MAIN
Acceso aleatorio
Representación 4:2:0 YUV (4:1:1)
Soporta toda la funcionalidad de MAIN
SNR Escalable
Codificación escalable de SNR
Espacial Escalable Soporta toda la funcionalidad de SNR Escalable
9. Codificación espacial escalable
Representación 4:0:0
Soporta toda la funcionalidad del perfil Espacial escalable
HIGH 3 capas con modos de codificación escalable SNR y Espacial
Representación 4:2:2
SIMPLE Soporta toda la funcionalidad de MAIN excepto la predicción de cuadros B
A la hora de almacenar video, un método que incrementa de forma significativa la eficiencia de la compresión
MPEG es la utilización de una velocidad variable de bits (VBR, Variable Bit Rate). Este método ofrece la
posibilidad de adaptar la velocidad utilizada por el codificador a la complejidad de la imagen en segmentos de
25ms.
Por ejemplo, imágenes simples necesitaran una velocidad instantánea de bits baja, mientras que una compleja
demandará una velocidad mayor. Por el contrario si utilizamos una velocidad constante (FBR, Fixed Bit Rate),
esta será aquella necesaria para codificar la imagen más compleja y por lo tanto en el resto de casos se
desperdiciará espacio. La codificación a velocidad constante es inherentemente un subconjunto de la codificación
VBR, por lo que todos los decodificadores soportarán FBR, siendo VBR opcional.
Herramientas de compresión
Como se ha visto los algoritmos de compresión MPEG son una combinación inteligente de un número de
diversas herramientas, cada una de ellas explota una redundancia concreta de la señal de video.
Tabla 3.3 Herramientas de compresión
HERRAMIENTA REDUNDANCIA
DCT Espacial
Predicción de compensación de movimiento Temporal
Codificación Run Length/Huffman Codificación
Codificación diferencial Temporal
TV digital vs. Tv analógica
El principal problema de la televisión analógica es que no saca partido al hecho de que en la mayoría de los
casos, las señales de vídeo varían muy poco al pasar de un elemento de imagen (píxel) a los contiguos, o por lo
menos existe una dependencia entre ellos. En pocas palabras, se derrocha espectro electromagnético.
Además al crecer el número de estaciones transmisoras, la interferencia pasa a convertirse en un grave
problema.
En la televisión analógica, los parámetros de la imagen y del sonido se representan por las magnitudes
analógicas de una señal eléctrica. El transporte de esta señal analógica hasta los hogares ocupa muchos
recursos.
En el mundo digital esos parámetros se representan por números; en un sistema de base dos, es decir, usando
únicamente los dígitos “1” y “0”.
El proceso de digitalización de una señal analógica lo realiza el conversor analógico/digital. Esta representación,
numérica en bits, permite someter la señal de televisión procesos muy complejos, sin degradación de calidad,
que ofrecen múltiples ventajas y abren un abanico de posibilidades de nuevos servicios en el hogar.
Sin embargo, la señal de televisión digital ofrecida directamente por el conversor analógico/digital contiene una
gran cantidad de bits que no hacen viable su transporte y almacenamiento sin un consumo excesivo de recursos.
La cantidad de bits que genera el proceso de digitalización de una señal de televisión es tan alta que necesita
mucha capacidad de almacenamiento y de recursos para su transporte.
Ejemplos de la cantidad de bits que genera la digitalización de 3 diferentes formatos de televisión:
En formato convencional (4:3) una imagen digital de televisión está formada por 720x576 puntos (pixeles).
Almacenar una imagen requiere: 1 Mbyte. Transmitir un segundo de imágenes continuas, requiere una velocidad
de transmisión de 170 Mbit/s.
En formato panorámico (16:9) una imagen digital de televisión está formada por 960x 576 puntos (pixeles):
requiere un 30% más de capacidad que el formato 4:3.
En formato alta definición la imagen digital de televisión consiste en 1920 x1080 puntos (píxeles). Almacenar una
imagen requiere más de 4 MB por imagen.
Transmitir un segundo de imágenes continuas, requiere una velocidad de transmisión de 1GB/s.
Afortunadamente, las señales de televisión tienen más información de la que el ojo humano necesita para percibir
correctamente una imagen. Es decir, tienen una redundancia considerable. Esta redundancia es explotada por
las técnicas de compresión digital, para reducir la cantidad de "números" generados en la digitalización hasta
unos niveles adecuados que permiten su transporte con una gran calidad y economía de recursos.
10. Estas y otras técnicas han sido los factores que han impulsado definitivamente el desarrollo de la televisión
digital, permitiendo el almacenamiento y transporte de la señal de televisión digital con un mínimo uso de
recursos.
Los canales radioeléctricos de la televisión digital ocupan la misma anchura de banda (8 MHz) que los canales
utilizados por la televisión analógica pero, debido a la utilización de técnicas de compresión de las señales de
imagen y sonido (MPEG), tienen capacidad para un número variable de programas de televisión en función de la
velocidad de transmisión, pudiendo oscilar entre un único programa de televisión de alta definición (gran calidad
de imagen y sonido) a cinco programas con calidad
técnica similar a la actual (norma de emisión G con sistema de color PAL), o incluso más programas con calidad
similar al vídeo. Sin embargo, inicialmente, se ha previsto que cada canal múltiple (canal múltiple se refiere a la
capacidad de un canal radioeléctrico para albergar varios programas de televisión) de cobertura nacional o
autonómica incluya, como mínimo, cuatro programas. Por el momento, no se contempla la emisión de programas
de televisión de alta definición.
Desventajas de la televisión
Televisión Digital
En los inicios de la televisión digital se encontró un problema de transmisión. Una señal de televisión digital
ofrecida directamente por el conversor analógico/digital contiene una gran cantidad de bits que no hacen viable
su transporte y almacenamiento sin un consumo excesivo de recursos.
La cantidad de bits que genera el proceso de digitalización de una señal de televisión es tan alta que necesita
mucha capacidad de almacenamiento y de recursos para su transporte.
Ejemplos de la cantidad de bits que genera la digitalización de 3 diferentes formatos de televisión:
MPEG-1 sólo soporta secuencias progresivas, mientras que MPEG-2 permite secuencias progresivas y
entrelazadas. Cada secuencia de video consiste en un número variable de grupos de imágenes. Un GOP
contiene un número variable de imágenes y jugará un papel muy importante en el proceso de compresión.
Televisión analógica
El principal problema de la televisión analógica es el derroche de espectro electromagnético además al crecer el
número de estaciones transmisoras, la interferencia pasa ha convertirse en un grave problema.
En la televisión analógica, los parámetros de la imagen y del sonido se representan por las magnitudes
analógicas de una señal eléctrica. Si se producen modificaciones de la señal (situación lejos de un repetidor de
televisión, edificios altos que nos afectan la "visibilidad" de la señal, etc.) siempre tienen un efecto negativo sobre
la calidad de imagen y sonido que finalmente recibimos.
Ejemplo, en la televisión analógica la imagen se compone de líneas horizontales (las famosas 625 líneas). La
luminosidad a lo largo de una línea se traduce en una señal eléctrica de tensión proporcional a dicha luminosidad
(el blanco equivale a la mayor tensión y el negro a la menor). Esto es válido para la televisión en blanco y negro.
Para el caso del color, el procedimiento es algo más complejo. Cualquier variación de esta señal eléctrica nos
puede hacer variar la información transmitida, acarreando siempre un efecto negativo sobre la calidad de imagen
y sonido que se recibe.
En el mundo digital esos parámetros se representan por números; en un sistema de base dos, es decir, usando
únicamente dos dígitos.