VIDEO DIGITAL y sus FORMATOS

 Indice:

1.- Vídeo Digital, ¿en qué consiste?

2.- Práctica.

3.-Vídeo Digital, lo que también debes saber.

4.- Glosario.

5.- Conclusión.

————– + ————-

1.- Vídeo digital, ¿en qué consiste?

El vídeo digital consiste en aplicar los tres procesos de digitalización a una señal de vídeo analógico. Estos procesos son: el muestreo, la cuantificación y la codificación.

Fig. : Proceso de obtención de la señal de vídeo digital.

Cada uno de estos procesos generará una serie de variantes que darán lugar a las decenas de formatos de vídeo digital que coexisten en la actualidad.

Muestreo.

Consiste en tomar muestras de una señal de vídeo analógico, lo usual es que se haga de la señal en componentes (Y, R-Y, B-Y), aunque cuando se busca la máxima calidad en la señal digital el muestreo se hace de la señal RGB.

Cuando el muestreo se hace a partir de la señal en componentes se le llama subsampling1 y consiste en tomar muestras de cada componente de la señal, es decir, de la luminancia (Y), de la  componente de rojo (R-Y) y de la componente de azul (B-Y).

Cuantificación.

Las muestras obtenidas del subsampling, deben ser cuantificadas, es decir, se les debe asignar una palabra binaria, de esta forma aparece el concepto de profundidad de color1 que hace referencia al nº de bits que se utilizarán para identificar cada muestra obtenida del subsampling.

Codificación.

Después de la cuantificación, normalmente de 8,10 ó 12 bits, el flujo binario obtenido es muy alto, varios cientos Mb/s (Mega bits por segundo),  se necesitan unos discos duros rápidos para poder grabarlo y ocuparía mucho espacio. Esto no es funcional por lo que se requiere el último paso: la Codificación.

Con la codificación reducimos el flujo binario  o bitrate1  , con lo que cada minuto de vídeo nos ocupará menos MB (Mega Bytes) en el disco duro y no necesitaremos discos duros tan rápidos.

La codificación genera  inconvenientes:

1º  Pérdida de calidad irreversible en el vídeo.

2º Pérdida de calidad en las transcodificaciones (exportar el vídeo para llevarlo a otros programas).

3º Menos fluidez al trabajar en la edición.

La solución pasa por  usar un codec1 adecuado. Si vamos a trabajar con varios programas, interesa un codec con poca compresión, un muestreo alto ( 444 ó 422) y una profundidad de color alta (10 ó 12 bits).

Los programas de edición, cuando realizamos la importación de material, nos preguntarán con qué codec deseamos trabajar, por ejemplo Final Cut por defecto trabaja con ProRess 422, por tanto convertirá el formato del vídeo importado a ProRess 422 para trabajar de forma más fluida.

2.- Práctica.

En el siguiente enlace se puede descargar la Ficha de Prácticas que utilizan mis alumnos de Formación Profesional de la rama de Telecomunicaciones. En ella, previo a la práctica, realizan los esquemas de montaje y la resolución de cuestiones preparatorias. Tras su revisión, proceden al montaje de la práctica y toma de medidas y/o datos.

Enlace a  Práctica  “ Grabación y Formatos de vídeo digital   

Vídeo Informe más representativo Curso 18 19

3.- Vídeo Digital, lo que también debes saber.

Frame Rate

Es la cantidad de imágenes (frames) por segundo capturadas por una cámara o mostradas por un dispositivo de visualización. Se utilizan las siglas «fps» (frames por segundo).

Veamos una clasificación de los formatos de vídeo en función de su frame rate:

Cine (4K): 24 fotogramas/seg. Hay algunas películas que están utilizando 48 por ejemplo «El hobbit: un viaje inesperado», con ello se consiguen movimientos más reales.

PAL (720×576) : 25fps  y 50i (entrelazado) para emisión en TV.

NTSC (720×480) : 29,97 ó  30fps y 59,94i ó 60i para emisión en TV.

HDTV (1280×720 ó 1920×1080) : desde 23,976 a 60 fps. En emisión de TV: 720p (deportes)  y 1080i (resto de programas).

UHDTV (4k y 8k) : desde 23,976 a 120 fps (ya no utiliza el escaneo entrelazado).

La «i» indica que se usa un sistema de escaneo  entrelazado1 (interlaced), en el cual la imagen completa (cuadro o frame)  está formada por dos semimágenes denominadas campos.

Cuando el sistema NTSC introdujo el color en 1953, la tasa de 60 campos por segundo fue reducida en un factor de 1000/1001 para evitar la interferencia entre la señal de color y la de sonido. Apareció entonces el frame rate de  29.97 fps y 59,94i (30 cuadros y 60 campos) , esto ha perdurado hasta la actualidad, pero ya no tiene sentido su uso, por lo que actualmente es mejor usar 30 fps ó 60i, siempre que el equipo a configurar lo permita.

En edición de vídeo conviene trabajar con material en progresivo, además con un frame rate  alto se evita el desenfoque de la imagen con el movimiento (motion blur) y se mejora la visualización en cámara lenta.

Hay software como Smoothvídeo Project (SVP) que aumenta el frame rate generando frames intermedios mediante una interpolación entre el frame anterior y posterior.

Resolución

Es el nº de píxeles que contiene la imagen. Viene determinada por dos números, el primero indica la cantidad de pixeles en horizontal (píxeles por línea) y el segundo en vertical (nº de líneas).

Fig. : Resoluciones de vídeo más usuales.

Las resoluciones 2K y 4K se definieron por la DCI (Digital Cinema Initiatives) que es un consorcio que apareció en 2002, cuyos miembros fundadores fueron los siete mayores estudios de cine estadounidenses (Walt Disney Pictures, Fox Broadcasting Company, MGM, Paramount, Sony Pictures Entertainment, Universal Studios y Warner Bros). Este consorcio emitió en 2005 las recomendaciones técnicas para la Producción de Cine Digital (DCP) ya que hasta esa fecha no había ningún tipo de norma.

Códecs y contenedores

Los códecs  son algoritmos realizados con software para comprimir y descomprimir una trama digital con vídeo y audio en tiempo real.

Al archivo generado se le denomina Contenedor y es el que determina la organización de la información de audio, vídeo y metadatos. Cada contenedor soportará unos códec de audio y vídeo determinados. En las tablas siguientes se muestran algunos contenedores y códecs de uso común.

Fig. :  Contenedores y códec de vídeo.
Fig. : Contenedores y códec de audio.

Un contenedor muy usado para el intercambio de material entre profesionales  es el MXF. La figura siguiente muestra las opciones MXF que ofrece el programa Compressor de Apple, vemos como puede contener diferentes códecs.

Fig. : Contenedor MXF en el software Compressor.

Hay varias versiones de MXF (Patrones Operacionales) con especificaciones particulares  que definen el tipo de imagen/sonido que contiene y la estructura de los metadatos. Las versiones más comunes son la OP-1a y la OP-Atom, quedando identificadas en los programas  de codificación como MXF OP-1a y MXF OP-Atom. Un archivo .mxf puede ser reproducido sin problemas con el reproductor VLC.

Con aplicaciones gratuitas como videoSpec (OSX), Format Factory (Windows) o mediainfo, podemos inspeccionar las características de cualquier vídeo.

Fig. : Análisis de un archivo de vídeo con videoSpec.

Códec Apple ProRes

Son una  familia de códecs de mucha calidad muy usados sobre todo en entornos MAC, aunque también en windows pero con algunas restricciones. Sus características vienen definidas en un documento llamado libro blanco (white paper) que se actualiza periódicamente.

Fig. : Características de códecs Apple ProRes (libro blanco Apple ProRes 2014)
Fig. : Usos de los códecs Apple ProRes (libro blanco Apple ProRes 2014).

Códecs AVID DNxHD.

Esta familia de códecs es más numerosa que la ProRes, en la siguiente tabla se muestran los más usuales. Obsérvese que por debajo de 220x, la profundidad de color es de 8 bit mientras que en ProRes se mantiene a 10 bits.

Fig. : Códecs AVID DNxH.

Códecs H264.

H.264 ó MPEG-4 parte 10 es una norma que define un códec de vídeo de alta compresión, desarrollada conjuntamente por el ITU-T Video Coding Experts Group (VCEG) y el ISO/IEC Moving Picture Experts Group (MPEG). Este códec mejora a los de los estándares anteriores: MPEG-2, H.263 o MPEG-4 parte 2.

La ITU-T quiso ponerle el nombre:  ITU-T H.264  y el ISO/IEC prefería: MPEG-4 Parte 10 Códec de Video Avanzado (AVC), al final, ni para uno ni para el otro, le pusieron:  H.264/MPEG-4 AVC.

La norma H.264, distingue varios Perfiles (o extensiones) y dentro de cada perfil varios Niveles (Layers). En la tabla siguiente se ha tomado como ejemplo el Nivel @L4.1 para varios perfiles.

Fig. : Perfiles de la Norma H264.

Veamos un par de ejemplos:

Main@L4.0 : perfil Main y nivel 4.0 (este es libre, los fabricantes no pagan ningún canon por implementarlo en sus cámaras).

High@L5.1 : perfil High y nivel 5.1.

En esta tabla se analizan los perfiles H264 de varios ajustes de la cámara de acción GoPro HERO5 Session.

En este enlace se pueden ver las especificaciones de los perfiles así como las características de los diferentes niveles disponibles para la norma H264.

Códecs H265.

Recibe los siguientes nombres: H.265 , MPEG-H Parte2 ó HEVC (High Efficiency vídeo Coding).

Es una norma sucesora al  H.264/MPEG-4 AVC y desarrollado por el mismo grupo de trabajo.

Se organiza de forma similar al H264, en perfiles (extensiones)  y niveles. Para adaptarse a cualquier uso se han definido 9 perfiles y 13 niveles, en este enlace  pueden verse.

Ventajas  respecto al H264:

  • Mantiene la calidad con bitrates   2 ó 2,5 veces inferiores, por lo que es muy interesante para la grabación en 4K, prácticamente todos los teléfonos móviles que graban en 4K lo implementan.
  • Puede trabajar con vídeo de hasta 8K y 300 fps mientras que el H264 sólo hasta 4K 60 fps.

Formato RAW.

Raw significa grabación en bruto, este formato contiene toda la información entregada por el sensor de la cámara, por ello el formato RAW nos proporciona la mejor imagen que pueda dar la cámara.

Un ejemplo de flujo de trabajo para RAW tipo CinemaDNG puede ser el siguiente:

1.- La cámara genera dos tipos de archivo:  .dng (foto) para cada frame de video y .wav para el audio.

Fig. : Archivos .dng  y .wav generados por la cámara en modo RAW CinemaDNG.

2.- Con un programa como DaVici Resolve se importan los archivos DNG y se retoca  la colorimetría, encuadre, balance de blancos y exposición.

3.- Se exporta la secuencia a un formato como el ProRes 422 HQ.

4.- Se importa la secuencia con un programa de edición, por ejemplo  Final Cut Pro X y se procede a su edición.

Ventajas:

  • Se conserva toda la información, viéndose con más calidad.
  • Mayor profundidad de color, normalmente 12 o 16 bits con lo que se mejora el tratamiento del color y los degradados.
  • Permite modificar el balance de blancos en postproducción.
  • Permite mover los valores de exposición uno o dos  puntos, por encima o por abajo sin apenas generar ruido en la imagen. Esto hace que podamos modificar el rango dinámico en postproducción.

Inconvenientes:

  • Incremento de bitrate.
  • Un flujo de trabajo (workflow) más complicado. Hay que exportar el archivo RAW a una secuencia de DNGs, para después hacer la corrección de color pertinente y volver a importarlos para crear la secuencia.
  • Es necesario un ordenador más potente con discos rápidos (SSD) y mucho espacio de almacenamiento. Como ejemplo, en una cámara Blackmagic Cinema en raw con resolución 2400×1350 a 24 fps graba unos 7GB por minuto.

Formatos habituales usados para grabación en RAW:

  • CinemaDNG (2008): desarrollado por Adobe.
  • ProRes RAW (2018): desarrollado por Apple.
  • Blackmagic RAW (2018): desarrollado por Blackmagic.
Fig. : Comparación del Apple ProRes RAW (libro blanco Apple ProRes RAW 2018) con otros códec ProRes.

Conexiones en vídeo digital.

SDI.

SDI  responde a las siglas Serial Digital Interface, transmite señal de vídeo, audio y datos por un solo cable, es el interfaz predominante para la comunicación de equipos de vídeo profesionales. Se  utiliza un cable coaxial de 75 Ω de impedancia y conectores BNC.

Fig. : Cable SDI para 4K.

La longitud del cable máxima dependerá de la calidad del cable y del tipo de señal SDI transportada.

Fig. : Distancias para cables SDI flexibles de la firma Emelec.

Los diferentes tipos de señales SDI han sido creadas paulatinamente según han ido apareciendo nuevas resoluciones de vídeo en el mercado. Cada una de ellas está definida por un estándar distinto que marca los parámetros que la caracterizan.

Estos estándares los crea la sociedad americana SMPTE (Society of Motion Picture and Television Engineers), una asociación de ingenieros especializados en vídeo que actúan como propulsores marcando las características que deben cumplir estas señales.

SDI estándar ( SMPTE 259m y SMPTE 344m ):  creado para regular las señales de definición estándar con resoluciones de 480 y 576 entrelazadas y progresivas.

HD-SDI (SMPTE 292m): Para señales de 720p y 1080i a 60 fps con un bitrate de 1,50Gbps.

3G-SDI (SMPTE 424m): Para señales de 1080p a 60 fps con un bitrate de 3Gbps.

6G-SDI (SMPTE 2081): Para señales de 4K a 30 fps con un bitrate de 6Gbps.

12G-SDI (SMPTE 2082): Para señales de 4K a 60 fps con un bitrate de 12Gbps.

HDMI.

HDMI responde a las siglas de High Definition Multimedia Interface. Apareció en 2003 y permite conectar vídeo y audio digital sin compresión entre dos dispositivos a través de un único cable.

Fig. :  Interior de cable HDMI.
Fig. : Tipos de conectores HDMI.

Ha habido varias versiones de HDMI, siendo compatibles hacia atrás, veamos las últimas:

HDMI 1.4 (2009).

  • Resolución: 1080/60 fps y  4K (4096 x 2160 /24 fps ó 3840 x 2160 /30 fps).
  • Máximo ratio de transferencia: 10,3 Gbps.
  • 3D: 1080p a 60 fps.
  • Audio: 8 canales / 192 kHz.

HDMI 2.0 (2013)

  • Resolución: 4K (4096 x 2160 /60 fps).
  • Máximo ratio de transferencia: 18 Gbps.
  • 3D: 4K a 25 imágenes/segundo.
  • Soporte para trabajar con la tecnología HDR (High Dinamic Range).
  • Audio: 32 canales / 1536 kHz.

HDMI 2.1 (2017)

  • Resolución: 8K a 60 fps y 4K a 120 fps.
  • Máximo ratio de transferencia: 48 Gbps.
  • Soporte para trabajar con la tecnología HDR.
  • Audio: 32 canales / 1536 kHz.

Además del audio y el vídeo, el cable HDMI permite realizar otras  conexiones:

CEC (Consumer Electronics Control): Se introdujo a partir del HDMI 1.0 y sirve para enviar comandos de control entre aparatos de forma que con un mando a distancia  se controlan los equipos conectados por HDMI. No todos los fabricantes lo implementan en sus equipos.

ARC (Audio Return Channel):  desde el HDMI 1.4 y sirve para que un televisor pueda transmitir audio hacia un amplificador de Home Cinema por ejemplo. Nos ahorra el tener que conectar un cable de audio entre ambos equipos.

HEC (HDMI Ethernet Channel):  desde el HDMI 1.4 y sirve para realizar una comunicación Ethernet a 100 Mbit/s entre los equipos conectados.

En cuanto a la distancia máxima de un cable HDMI, a partir de unos 12 metros, es necesario usar cables de calidad superior a la estándar, es posible encontrar cables de hasta de 20 m, si se desea una distancia mayor,  hay que insertar un amplificador de HDMI.

DVI.

DVI responde a las siglas de Digital Video Input. Apareció en 1999 y se utiliza para conectar monitores y proyectores a ordenadores. No transporta audio.

Fig. : Tipos de conexiones DVI.

Tipos de conexiones DVI:

DVI-A: 17 pines, 12+5 y contiene las mismas señales que el conector VGA solo que con diferente disposición, por tanto la señal es analógica, con un simple adaptador se puede convertir a VGA.

DVI-D: Transmite únicamente señal de vídeo digital y puede ser tipo Single Link o de Dual Link. El segundo posee más ancho de banda. Con un simple adaptador se puede convertir a HDMI.

DVI-I: Transmite señal analógica y digital, con un simple adaptador se puede convertir a HDMI o a VGA.

Fig. : Cable adaptador DVI-D dual link- HDMI con Ferrita.
DisplayPort.

Es un conector muy similar al HDMI en sus características técnicas, pero libre de licencias y cánones (no tiene la protección anti-copia HDCP como el HDMI), se suele incluir en algunas tarjetas gráficas y es raro verlo en televisores, su principal inconveniente es su incompatibilidad con DVI y HDMI. Hay dos tipos: el normal y el mini.

Fig. : Mini DisplaPort y DisplayPort.

Soporta un  flujo de datos máximo de 10,8 Gbit/s y resolución WQXGA (2560×1600) sobre un cable de 15 metros. En distancias más cortas soporta la resolución 4k.

4.- Glosario.

Subsampling: Determina el número de muestras  tomadas de la señal de componentes. El primer número representa las muestras tomadas de Luminancia, que al ser un 4 indica que  se muestran todos los píxeles.

Los dos números siguientes indican las muestras tomadas de las dos componentes de color R-Y y B-Y.

Fig. : Patrones de subsampling.

El  códec utilizado determinará qué patrón de subsampling se utiliza,  veamos algunos ejemplos:

4:4:4 :   ProRes 4:4:4 XQ y 4:4:4 (apple).

4:2:2 : AVC-Intra 100 (panasonic), ProRes HQ,  LT y Proxy (apple), Betacam Digital (sony), DVCPRO 50 (panasonic), DVCPRO HD (panasonic), Digital-S ( JVC), XDCAM HD (sony), Canon MXF HD.

4:1:1 :  DVCPRO (panasonic), NTSC DV (panasonic), NTSC DVCAM (sony).

4:2:0 : Estándares MPEG-1, MPEG-2, MPEG-4  y códecs AVCHD (sony y panasonic), AVC-Intra 50 (panasonic), Apple Intermediate Codec, MJPEG, VC-1,  PAL DV, PAL DVCAM (sony), HDV.

4:1:0 : Calidad muy baja similar al VHS, es poco utilizado.

 

Profundidad de color: Indica los bits utilizados para representar (cuantificar) cada pixel de una imagen. Puede ser de 8, 10, 12, 16 y 32 bits.

Con una profundidad de color de 8 bits se disponen de 256 niveles (28) para cuantificar cada  pixel,  como son tres componentes (rojo, verde y azul): 256 x 256 x 256 = 16.777.216 colores.

Si fuera de 10 bits se dispondrían de 1024 niveles (210) lo que nos daría 1.073.741.824, más de un billón de colores.

Por tanto si se va a corregir el color con programas como  DaVinci Resolve  es conveniente escoger un códec con profundidad de color de 10 ó 12 bits.

Bitrate:  Es el Nº de bits por segundo que genera la trama de vídeo. El bitrate nos permitirá conocer lo que ocupa nuestro material en el disco duro y si los discos duros son capaces de grabarlo. Si trabajamos con varias capas en un programa de edición, debemos multiplicar el bitrate calculado por el nº de capas para saber si nuestro disco duro es lo suficientemente rápido para trabajar con este material. Como ejemplo un disco duro SATA de 7200 rpm suele grabar a unos 100 o 150 MB/s y un disco SSD desde unos 300 MB/s si es SATA hasta unos 2000 MB/s si es PCI express.

En este enlace se puede descargar una calculadora de bitrate para IOS y Android.

Fig. : Calculadora de bitrate AJA DataCalc

Los datos que introduciremos son: tiempo, códec, resolución, frame rate , nº de canales de audio, frecuencia de muestreo de audio y nº de bits de cuantificación de audio.

Esta calculadora nos proporciona la cantidad de memoria que ocupará el material en el disco duro en MB ó GB. Para saber el bitrate, debemos poner en TIME:  1 segundo y el resultado será en MB/s, multiplicando este valor por 8 lo podemos pasar Mbps (Mega bits por segundo).

Fig. : Influencia del bitrate en la imagen.

En las emisiones de TDT, los operadores ajustan el bitrate en función del programa emitido, en la figura anterior se observa cómo afecta esto a una imagen estática.

Entrelazado: Es una técnica en la que se divide la información de una imagen (frame) en dos semimagenes (campos). Así es como capturan las imágenes las cámaras analógicas, las digitales además pueden capturar en Progresivo, en este caso la imagen se captura completa.

El entrelazado se realiza para ahorrar ancho de banda o bitrate y para evitar el parpadeo de la imagen pero genera problemas de imagen borrosa en objetos en movimiento.

Este sistema de exploración de la imagen se utiliza en la emisión de TV de calidad SD (standard) y en HD 1080i ,  «i» significa entrelazado y «p» progresivo. Cuando el programa de TV es de deportes lo habitual es que se emita en HD 720p. El bitrate de 1080i y 720p es similar.

Fig. : Comparación de vídeo Progresivo y Entrelazado.

En la figura anterior vemos un vídeo en pausa de un coche a 30 Km/h se observa lo siguiente:

  • En progresivo los objetos en movimiento se ven de forma más nítida, ver detalle de rueda.
  • Los objetos estáticos se ven igual en progresivo que en entrelazado.
  • Con el procedimiento de desentrelazado mediante duplicación de líneas se mejora algo la visualización de los objetos en movimiento.

5.- Conclusión.

Recuerdo cuando, en mi colegio,  instalamos el estudio de RTV  (1999) para las prácticas del módulo de Grado Superior » Equipos de RTV «, Magnetoscopios DVCAM, controlador de edición, mesa de mezclas que aunque digital, las entradas/salidas eran analógicas, se grababa en cinta magnética. Entonces los equipos informáticos no tenían suficiente potencia para trabajar cómodamente la edición de vídeo, había que invertir mucho para eso.

La potencia de los equipos informáticos ha aumentado mucho en estos últimos años, lo que ha permitido trabajar fluidamente con resoluciones de vídeo mayores, actualmente estamos enclavados en la resolución 1080 (full HD) pero el 4K está empujando mucho, las TV que se están vendiendo actualmente a un precio asequible están preparadas para 4K.

Ya se está emitiendo en 4K en algunos canales de satélite  y  la llegada del DVB-T2, el sucesor de la TDT actual (DVB-T), traerá las emisiones en 4K de algunos canales. Muchos móviles graban en 4K usando el códec H265 (unos 350 MB/min). Para que se implante el 8K todavía  falta, aunque algún móvil ya lo lleva.

El mundo del vídeo digital es muy cambiante y posee muchos términos, en este artículo he pretendido poner un poco de orden en este tema usando un lenguaje sencillo, sobre todo para ayudar a los que se inician en esto, espero haberlo conseguido.

Un Saludo.

LeandroGG68

GuardarGuardar

Loading

VIDEO ANALOGICO y sus FORMATOS

Indice:

1.- Vídeo analógico, qué es  y  tipos de formatos.

2.- Videoprácticas.

3.- Vídeo analógico, lo que también debes saber.

  • Sincronismos.
  • Medidas con un monitor de forma de onda.
  • Medidas con un vertorscopio.

4.- Conclusión.

————– + ————-

1.- Vídeo analógico, qué es  y  tipos de formatos.

El vídeo analógico es la imagen que se presenta sobre una pantalla de televisión y se obtiene tras aplicar una señal a un televisor, trazándose líneas en la pantalla a mucha velocidad y gracias a nuestra persistencia retiniana (se mantiene la imagen en la retina durante una fracción de tiempo), conseguimos integrar las líneas viendo las imágenes completas.

Tipos de Formatos.

Existen cuatro tipos de señal de vídeo analógico: RGB, Componentes (Y,Pb,Pr), Video-S (Y/C) y Vídeo Compuesto (CVBS).

Generación de formatos de vídeo analógico
Fig. 1.Generación de formatos de vídeo analógico.

RGB.

Es el formato original, el que entregan las cámaras de vídeo tras captar la escena. Se usan tres componentes ( Rojo, Verde y Azul ), ocupando un ancho de banda de 5 MHz cada canal.

Este formato se utiliza para visualización, es decir, conexión directa a monitores, no se han fabricado equipos que lo graben debido al su gran ancho de banda. Permite transmitir vídeo con calidad HD.

Los conectores usados son:  el BNC en equipos profesionales, el VGA para proyectores y pantallas planas y el EUROCONECTOR para televisores más antiguos.

Euroconector - EL CAJON DEL ELECTRONICO
Fig. 2 . Equivalencia de pines del Euroconector y el  JP21 (equivalente Japonés).

Los equipos de fabricación Japonesa usan un conector igual al euroconector europeo pero con distinta correspondencia de sus pines.

Cuando una televisión tiene varios euroconectores, normalmente sólo uno será capaz de recibir la señal RGB, debemos identificarlo usando el manual, además debemos entrar en el menú del televisor y configurar esa entrada para señal RGB. Por defecto todas las entradas de euroconector van configuradas para vídeo compuesto (de peor calidad que RGB).

COMPONENTES (R-Y , B-Y , Y).

Formato obtenido del RGB mediante una matriz sumadora sin reducir apenas la calidad  pero sí el ancho de banda, pasando de 15 MHz  para RGB a 7 MHz, esto se consigue eliminando la información redundante de luminosidad de las tres componentes RGB. Se transmite mediante tres líneas.

Las componentes R-Y y B-Y contienen la información de color y la componente de Y o luminancia aporta la información de luminosidad de la imagen y además contiene los sincronismos necesarios. La luminancia se obtiene de la siguiente forma:

 =  0,30 R  +  0,59 G  +  0,11 B

, G , B   = componentes de la señal RGB.

Entrada/salidas para este formato las encontramos en multitud de equipos profesionales, también en las pantallas planas y proyectores. Este formato se utiliza generalmente como base para la digitalización de señales de vídeo. Puede transmitir vídeo con calidad HD.

Los conectores usados para este formato son: el RCA en equipos domésticos y el BNC en equipos profesionales.

Conectores de señal de COMPONENTES - EL CAJON DEL ELECTRONICO
Fig. 3. Conexiones de señal de componentes.

En equipos domésticos, a las componentes R-Y y B-Y se las identifica con las siglas  PR/CR  y  PB/CB.

Como podemos apreciar en la figura de arriba,  los equipos profesionales, usualmente, comparten los conectores BNC para la señal de RGB y la de componentes, la selección se hace mediante un conmutador.

VIDEO S (Y/C).

Posee dos componentes:  luminancia (Y) y crominancia (C).

La señal de luminancia en este fomato es idéntica a la de componentes (Y).

La crominancia se obtiene modulando (modulación tipo QAM)  una subportadora de 4,43 MHz con las componentes R-Y y B-Y, este proceso implica una pérdida importante de calidad.

Para poder recomponer la información de color se necesita una muestra de la subportadora «limpia» (sin modular) consiguiendo así una referencia de la amplitud y fase originales para saber a partir de qué valor hay que comparar el nivel de tonalidad y saturación. Para ello, se añade unos ciclos de la subportadora a la señal de sincronismo después de cada barrido horizontal. Estos impulsos se conocen como Burst o Color Burst.

Los antiguos grabadores S-VHS y Hi 8 graban este formato, actualmente lo podemos encontrar en pantallas planas, proyectores, tarjetas capturadoras, etc, se usa un conector minidin, su resolución en el sistema PAL es de 720 x 576 píxeles (realmente tiene 625 líneas pero sólo 576 son visibles).

Conector minidin para VIDEO S - EL CAJON DEL ELECTRONICO
Fig. 4. Conector minidin para vídeo S.

VIDEO COMPUESTO (CVBS).

En los equipos, este tipo de señal se suele identificar como CVBS (Color, Vídeo, Borrado y Sincronismos), se obtiene mezclando la señal de croma con la luminancia.

La croma se inserta en los huecos del espectro que no están siendo usados por la luminancia,  lo que hace que se reduzca a 5 Mhz el ancho de banda utilizado. El inconveniente es que cuando la  imagen es compleja (mucho entramado), los huecos libres de la luminancia se reducen creando una distorsión denominada moire.

Espectro de un señal de video compuesto - EL CAJON DEL ELECTRONICO
Fig. 5. Espectro de la señal de vídeo compuesto
Distorsión de Moiré - EL CAJON DEL ELECTRONICO
Fig. 6. Distorsión de Moiré en una imagen

El vídeo compuesto se transmite con una sola línea, ideal para modular un canal de radiofrecuencia. Los emisores de vídeo analógico emiten en este formato, su resolución en el sistema PAL es de 720 x 576 píxeles.

Este formato se graba en los antiguos equipos VHS y 8 mm y su calidad es algo inferior a la que proporciona el formato  vídeo S.

Los conectores que se utilizan son: el BNC para equipos profesionales y el RCA (amarillo) para los domésticos.

2.- Vídeo Prácticas.

2.1. –   Medida de diferentes parámetros de la señal de señal de vídeo compuesto  mediante un Osciloscopio.

2.2. –  Estudio de los formatos de vídeo analógicos: Vídeo Compuesto, Vídeo S y RGB. Se compara la calidad entre los mismos y se estudia la señal de sincronismo que se utiliza en RGB.

 

3.- Vídeo analógico, lo que también debes saber.

Sincronismos.

Son señales que acompañan a todos los formatos de vídeo analógico para que el televisor pueda sincronizarse con el equipo fuente de imagen ( cámara o reproductor). Son dos los tipos de sincronismos que se manejan: horizontal y vertical.

Sincronismo horizontal: establece la velocidad a la que se trazan las líneas de la imagen, en el sistema PAL es de 15625 Hz.

Sincronismo vertical: establece la velocidad a la que se muestran los grupos  de líneas que conforman una semimagen o campo, en el sistema PAL es de 50 Hz.

Señal de video compuesto en Osciloscopio
Fig. 7. Retrazado vertical en señal de vídeo compuesto.

En la señal de RGB los sincronismos pueden transmitirse de tres formas distintas:

  • Sincronismos separados (RGBHV): hay una línea para el sincronismo horizontal HSync y otra  para el sincronismo vertical VSync. Se necesitan 5 hilos para la transmisión, un ejemplo es la señal RGB que se lleva desde un ordenador a un monitor mediante cable VGA
Conector VGA - EL CAJON DEL ELECTRONICO
Fig. 8. Conector D-Sub15 (VGA).
  • Sincronismo compuesto (RGBS): Se transmite el sincronismo horizontal y vertical por un mismo cable, se necesitan por tanto un total de 4 hilos para la transmisión.
  • Sincronismo en verde (RGsB): La información del sincronismo horizontal y vertical se transmite junto con la señal de color verde, necesitándose sólo 3 hilos para la transmisión.

En la siguiente figura vemos como es posible seleccionar si el sincronismo se introduce en el verde o no, también permite cambiar la polaridad de los sincronismos, lo normal es que sean negativos (almenas hacia abajo).

Generador de Vídeo - EL CAJON DEL ELECTRONICO
Fig. 9. Generador de vídeo Promax GV 698.

En los formatos Componentes, Vídeo S y Vídeo compuesto, al poseer la luminancia,  esta es la que contiene los sincronismos horizontal y vertical.

Medidas con monitor de forma de onda.

Con un monitor de forma de onda o un osciloscopio podemos medir los valores de tensión y tiempo de la señal de vídeo para asegurarnos que se ajustan a su valor normalizado.

Cuando se analiza una señal de vídeo analógico se hace a partir de una imagen patrón llamada barras de color. Una línea en el formato vídeo compuesto tendría la forma y medidas  que se muestran en la siguiente figura:

Línea de TV - EL CAJON DEL ELECTRONICO
Fig. 10. Valores standard de Línea de TV en formato vídeo compuesto.

Hay que destacar:

1º. La tensión pico a pico (Vpp) medida entre la base del sincronismo y el nivel de blanco (barra blanca) es de 1 voltio.

2º. La barras de color están ordenadas de forma que tienen un valor de luminancia descendente.

3º. En el pórtico posterior se inserta la ráfaga de sincronismo de color o BURST, que permite al televisor demodular la información de color de cada línea.

4º. La información de color (croma) aparece en la figura en color gris, esta es la señal modulada en QAM (modulación en amplitud y fase), cuanto mayor sea su amplitud mayor será la saturación del color.

En la siguiente figura se aprecia como se van obteniendo los diferentes formatos de vídeo analógico a partir de la señal de RGB.

Línea de TV en todos los formatos - EL CAJON DEL ELECTRONICO
Fig. 11. Línea de TV en todos los formatos de vídeo analógico.

Medidas con un vertorscopio.

Este equipo nos permite comprobar la colorimetría de la imagen, tras aplicarle una imagen  de barras de color (imagen patrón), nos mostrará una serie de puntos correspondientes a cada color. Realmente lo que se representa  es la componente B-Y en el eje horizontal y la R-Y en el vertical.

El equipo a medir debe generar la imagen de barras de color. En el sistema PAL el vectorscopio nos mostrará 12 puntos (6 en el sistema NTSC), estos puntos definen la tonalidad y saturación de cada color.

Cada color se identifica con sus siglas en mayúscula y en minúscula, por ejemplo el  Magenta: MG y mg, esto es debido a que en el sistema PAL, se invierte cada dos líneas el componente R-Y, esto no sucede con el sistema NTSC. Esta propiedad del sistema PAL hace que sea más inmune a las interferencias por reflexiones de la señal cuando se transmite por radiofrecuencia.

Vertorscopio - EL CAJON DEL ELECTRONICO

Fig. 12. Retícula de un vectorscopio para sistema PAL.

Monitor de forma de onda - vectorscopio - EL CAJÓN DEL ELECTRONICO
Fig. 13. Monitor de forma de onda – vectorscopio con vídeo compuesto en sistema PAL.

Las líneas que aparecen uniendo los diferentes puntos reflejan la transición del color de una barra al color de la otra, por ejemplo la barra de color cian (CY) tiene a sus lados la verde (G) y la amarilla (YL), por este motivo el punto CY está enlazado con el YL y el G. Esta transición realmente es un cambio de fase (tonalidad) y amplitud (saturación de color) de la subportadora de color (onda senoidal de 4,43 Mhz).

Procedimiento de uso un vectorscopio:

Este vídeo aclara muchos conceptos referentes al uso del vectorscopio:

Veámoslo ahora pasito a pasito:

1.- En una entrada del vectorscopio, introducimos la señal de barras de color generada en el  equipo fuente a medir.

Conexiones de un vectorscopio Tektronix WVR 500 - EL CAJÓN DEL ELECTRÓNICO
Fig. 14. Conexiones de un vectorscopio Tektronix WVR 500.

2.- Realizamos la sincronización de la señal aplicada con la retícula mostrada por el vectoscopio, para ello hacemos coincidir los segmentos que se generan con el BURST de la señal introducida con los que aparecen en la retícula, esto se hace con un potenciómetro del vectorscopio.

Fig. 15. Retícula de vectorscopio Tektronix WVR 500.

3.- En el menú del vectorscopio comprobamos que el ajuste de saturación de color coincida con el de la señal aplicada, lo normal es que la saturación de color sea del 75%.

Fig. 16. Frontal de vectorscopio tektronic WVR500

4.- Comprobamos que los puntos que nos aparecen coincidan en las cajas de la retícula, esto indica que la colorimetría esta bien. Lo ideal es que los puntos queden dentro de las cajas pequeñas con lo que el error estaría acotado en un 5 % de saturación y 5º de variación de fase.

Fig. 17. Ajustes de color en un CCU SONY M5P.

Como ejemplo en la figura anterior apreciamos los ajustes que nos proporciona una Unidad de Control de Cámara SONY M5P.

Notas a tener en cuenta:

  • La situación de cada punto indica la saturación y la tonalidad del color.
  • Un punto más hacia la periferia indica una saturación de color mayor.
  • Un punto con una variación de ángulo (variación de fase), indica una variación de la tonalidad del color.
  • Las cajas grandes identifican una rango variación de saturación del 20% y una variación de tonalidad de 20º.
  • Las cajas pequeñas identifican un rango de variación de saturación del 5% y una variación de tonalidad de 5º.

4.- Conclusión

Aunque estamos en la era del vídeo digital, los formatos de vídeo analógico los vamos a encontrar en casi todos los equipos de imagen, de hecho todos los formatos digitales se obtienen muestreando la señal de vídeo analógico de componentes o RGB.

Una señal de RGB y de componentes puede transmitir vídeo en HD, un ejemplo lo tenemos en la conexión de un ordenador con su monitor mediante VGA, lo que se transmite por este conector es señal RGB.

El motivo fundamental de que el vídeo analógico haya perdido la batalla frente al digital es su  acentuada pérdida de calidad al realizar sucesivas copias.

Un Saludo.

LeandroGG68

GuardarGuardar

Loading