1.- Procedimiento de Instalación de un sistema de captación Terrestre.
2.- Práctica.
3.- Sistema de captación Terrestre, lo que también debes saber.
4.- Conclusión.
————– + ————-
1.- Procedimiento de Instalación de un sistema de captación Terrestre.
El objetivo será instalar dos antenas de UHF para TDT y una de VHF para FM, una de las antenas UHF se orientará a un repetidor lejano (Aitana en nuestro caso), por lo que contendrá un preamplificador. Las señales de las tres antenas se mezclarán mediante un mezclador de mástil que entregará, por un único cable, los canales captados por las tres antenas.
En la siguiente figura se aprecia la disposición de las antenas y su conexión al mezclador.
PROCEDIMIENTO:
1. Conectar un cable coaxial Televés T100 al dipolo de cada antena. Los tres cables tendrán la longitud necesaria para coincidir en su otro extremo en el mezclador, que se ubicará en la parte baja del mástil (bajo la antena de FM).
2. Fijar en el extemo del mástil la antena que vaya a ser orientada al repetidor más lejano. El cable quedará sujeto al mástil con una vuelta de cinta aislante a 40 cm por debajo de la antena.
3. Fijar el mástil mediante agarraderas con un apriete suave.
4. Conectar el cable de la antena orientada a Aitana al medidor de campo, seleccionar el canal 25 (MAUT Comunidad Valenciana – Alicante) y medir el CBER, girando la antena hasta que obtengamos el mejor valor posible (valor más pequeño).
5. Apretar las agarraderas.
6. A 1 m por debajo de la antena anterior, colocar la segunda yagi orientándola al segundo repetidor (Carrascoy). Sabremos que está bien orientada cuando en el medidor de campo obtengamos el mejor CBER para un canal de este repetidor (el 38 por ejemplo).
7. A 1 m por debajo de la antena anterior, colocar la tercera antena de dipolo plegado para la recepción de FM. Esta no se orienta, ya que es omnidireccional.
8. Fijar el mezclador al mástil y conectar los cables de las tres antenas. Se cuidará que la antena con preamplificador se conecte a la entrada del mezclador que permita el paso de corriente, las otras dos entradas bloquean este paso.
2.- Práctica.
En el siguiente enlace se puede descargar la Ficha de Prácticas que utilizan mis alumnos de Formación Profesional de la rama de Telecomunicaciones. En ella, previo a la práctica, realizan los esquemas de montaje y la resolución de cuestiones preparatorias. Tras su revisión, proceden al montaje de la práctica y toma de medidas.
3.- Sistema de captación terrestre, lo que también debes saber.
En la siguiente tabla podemos ver la frecuencia de los diferentes canales de TV, tanto en analógico como en digital. Los canales analógicos se identifican por la frecuencia de su portadora de vídeo y los digitales por la frecuencia central del canal. Actualmente en España no se emiten canales de TV comercial en analógico.
Ej. : Canal 21: de 470 – 478 MHZ (8 MHz de ancho de banda)
En Analógico -> 471,25 MHz En Digital -> 474 MHZ
¿Cómo saber qué canales distribuir en una instalación comunitaria?
En una instalación colectiva para MATV (sistema de televisión terrestre para antenas colectivas) sólo es obligatorio, según la Ley ICT, distribuir los canales cuya Intensidad de campo sea superior a la mostrada en la siguiente tabla.
Esta tabla es la que aparece en la Ley ICT de 2011, pero hay un problema: los medidores de campo nos dan el valor de la señal captada en dBuV, que es una tensión, y no en dBuV/m (como indica la tabla) que es una intensidad de campo eléctrico.
Solución:
V (dBuV) = E (dBuV/m) – K (dB/m)
V = Tensión entregada por el medidor de campo.
E = Intensidad de campo eléctrico medida.
K = 20 log f (MHz) – G antena (dB) – 31,54
K es un valor que depende de la frecuencia del canal medido y de la ganancia (G) de la antena utilizada para la medición.
Ejemplo:
Calcular el nivel de señal mínimo en dBuV, para que el canal 29 de TDT sea insertado en una la instalación de ICT, sabiendo que la ganancia de la antena utilizada para la medida es de 10 dB para este canal.
Datos: Canal 29 : su frecuencia es 538 MHz (ver en la tabla de asignación de frecuencia) Ganancia de la antena usada (G) : 10 dB
La siguiente tabla muestra la calidad y nivel exigible a la señal en dos ubicaciones: antena y toma de usuario.
Observaciones:
Los niveles mínimos en ANTENA están obtenidos en base a la tabla anterior de Intensidad de campo eléctrico mínima requerida en MATV, solo que aquí están expresados en dBuV, que es lo que nos muestran los medidores de campo.
El C/N (Relación canal/ruido) en antena es mayor que en toma ya que aún no ha pasado por amplificadores y el tramo de cable hasta la antena es corto.
Un C/N elevado en antena asegura que el CBER también sea bueno.
¿Qué antena se debe instalar?
Veámoslo con un ejemplo real.
Se desea instalar una antena en el Colegio Salesinos – Cartagena que cumpla con los requisitos mínimos de calidad en la captación de todos los canales TDT.
Para las medidas se dispone de una antena Televés Yagi tipo V ref. 1443 y un medidor de campo.
PROCEDIMIENTO:
1.- En la web : https://www.tdt1buscamos nuestra comunidad autónoma y dentro de esta nuestra zona.
2.- Consideremos que los canales extremos en la zona son el 29 (538 Mhz) y el 47 (682 Mhz). Mediante la gráfica de respuesta en frecuencia de nuestra antena de medida, obtenemos la ganancia en estos canales.
3.- Medimos con la antena de referencia que tenemos inicialmente (la yagi tipo V) y obtenemos: 49 dBuV para el canal 29 y 50 dBuV para el canal 47 (Nivel medido).
4.- Restamos al Nivel medido los dB de Ganancia de la antena de referencia para el canal correspondiente y así obtener el Nivel Real Recibido.
5.- El nivel mínimo recomendable en Antena, según la tabla anterior, es de 45 dBuV, restamos a este valor el nivel Real Recibido, obteniendo los dB mínimos que tiene que tener la antena que dejaremos de forma definitiva.
6.- Aplicamos un margen de seguridadde 3 dB y la buscamos en el catálogo una antena con ganancia mínima de 9,3 dB en el canal 29 y 10,2 dB en el 47.
Observamos que la antena utilizada para las medidas supera los niveles de ganancia exigidos para ambos canales, por lo que se podría utilizar como antena definitiva.
En la siguiente tabla se esquematizan todos los cálculos realizados.
Canal 29
Canal 47
Ganancia de antena de referencia (dB)
10,3
12,2
Nivel medido (dBuV)
49
50
Nivel Real Recibido (dBuV)
49 – 10,3 = 38,7
50 – 12,2 =37,8
Nivel mín. recomendable en Antena (dBuV)
45
45
Nivel recomendable – Nivel recibido (dB)
45 – 38,7 = 6,3
45 – 37,8 = 7,2
Margen de seguridad (+3 dB)
6,3 + 3 = 9,3
7,2 + 3 = 10,2
¿Qué mástil a instalar?
Veámoslo con un ejemplo, deseamos saber qué mástil utilizar para la siguiente instalación. Todas las antenas son de la marca Televés con las referencias que aparecen en la figura.
PROCEDIMIENTO DE CALCULO
1.- Mediante las referencias, buscamos las características de las antenas utilizadas en el catálogo.
2.- El fabricante nos da dos valores de carga al viento:
a) Supuesto de que la presión del aire sea de 800 N/m2 que equivale a una velocidad de 130 Km/h.
b) Supuesto de que la presión del aire sea de 1100 N/m2 que equivale a una velocidad de 150 Km/h.
Si la antena más alta está por debajo de 20 metros respecto al suelo (nuestro caso) tomamos la carga al viento correspondiente a 130 km/h de velocidad del viento, en caso contrario se toma la de 150 km/h.
3.- Calculamos el momento flector total (MTotal) que nos servirá para determinar el tipo de mástil a instalar. Los datos están reflejados en la figura de la instalación.
MTotal= L1 x Q1+ L2 x Q2+ L3 x Q3
MTotal= 1,5 x 27 + 2,5 x 83,5 + 3,5 x 83,5 = 541,5 N m
Con este valor entramos en la tabla siguiente por la fila M. Flector para determinar qué mástil usar. Observamos que 541,5 Nm es un valor excesivo, por lo que debemos reducirlo, tenemos varias opciones:
Opción 1: bajar 1 m todas las antenas.
MTotal 1= 0,5 x 27 + 1,5 x 83,5 + 2,5 x 83,5 = 347,5 N m
Opción 2: Redistribuir las antenas, colocando la de FM en el extremo del mástil ya que es la que menos carga al viento posee.
MTotal 2= 1,5 x 83,5 + 2,5 x 83,5 + 3,5 x 27 = 428,5 N m
Opción 3: Colocación de una riostra con sus vientos a 2 m de punto de cálculo del momento flector anterior.
MTotal 3= 0,5 x 83,5 + 1,5 x 83,5 = 167 N m
En este caso, las distancias se miden desde la antena correspondiente hasta la argolla donde van fijados los vientos (cables de acero).
Fig. : Detalle de instalación de vientos en el mástil.
De las tres opciones, la 1 y la 3 son válidas, nos quedaremos con la 1 ya que evitamos la colocación de vientos que complica y encarece la instalación.
En la tabla de elección de mástil anterior, observamos que en la fila M. Flector está el valor de 355 N m, inmediato superior al calculado ( 347,5 Nm), por lo que elegimos el mástil con referencia 3010 (45 mm de diámetro, 2 mm de espesor y 3 m de longitud). El mástil de la figura del ejemplo tiene unos 4,5 metros de longitud, por lo que se deben utilizar dos tramos, el superior se cortará a 1,5 m, se embonará con el inferior ( de 3 m ) y se colocará un tornillo pasante que los unirá.
El mástil que aparece en la tabla con la referencia 3075 es igual a la 3010 solo que de color rojo.
La fila de la tabla «Momento Flector límite elástico» indica cuando el mástil no vuelve a su posición original tras la flexión, es decir, queda doblado de forma definitiva, por tanto no debemos acercarnos a este valor en la elección del mástil.
4.- Conclusión
Se debe prestar mucha atención a la instalación del sistema de captación por dos motivos:
1º .- Un mal diseño puede provocar accidentes graves, pensad en un día con fuerte viento que provoque la rotura de un mástil.
2º.- Si la calidad de la señal captada es pobre, debido a una mala orientación o a una mala elección de las antenas, no será posible aumentarla posteriormente.
Al orientar una antena, habrá veces que obtengamos mejor calidad (CBER) desviando unos grados la antena respecto a la dirección del repetidor esto es debido a que minimizamos la captación de las señales reflejadas (ecos) a consta de perder un poco de nivel de señal. Se debe tener presente que lo importante es tener el mejor CBER posible en antena, el nivel en dBuV es secundario ya que este último se podrá aumentar con amplificadores posteriormente.
El vídeo digital consiste en aplicar los tres procesos de digitalización a una señal de vídeo analógico. Estos procesos son: el muestreo, la cuantificación y la codificación.
Cada uno de estos procesos generará una serie de variantes que darán lugar a las decenas de formatos de vídeo digital que coexisten en la actualidad.
Muestreo.
Consiste en tomar muestras de una señal de vídeo analógico, lo usual es que se haga de la señal en componentes (Y, R-Y, B-Y), aunque cuando se busca la máxima calidad en la señal digital el muestreo se hace de la señal RGB.
Cuando el muestreo se hace a partir de la señal en componentes se le llamasubsampling1y consiste en tomar muestras de cada componente de la señal, es decir, de la luminancia (Y), de la componente de rojo (R-Y) y de la componente de azul (B-Y).
Cuantificación.
Las muestras obtenidas del subsampling, deben ser cuantificadas, es decir, se les debe asignar una palabra binaria, de esta forma aparece el concepto de profundidad de color1 que hace referencia al nº de bits que se utilizarán para identificar cada muestra obtenida del subsampling.
Codificación.
Después de la cuantificación, normalmente de 8,10 ó 12 bits, el flujo binario obtenido es muy alto, varios cientos Mb/s (Mega bits por segundo), se necesitan unos discos duros rápidos para poder grabarlo y ocuparía mucho espacio. Esto no es funcional por lo que se requiere el último paso: la Codificación.
Con la codificación reducimos el flujo binario o bitrate1 , con lo que cada minuto de vídeo nos ocupará menos MB (Mega Bytes) en el disco duro y no necesitaremos discos duros tan rápidos.
La codificación genera inconvenientes:
1º Pérdida de calidad irreversible en el vídeo.
2º Pérdida de calidad en las transcodificaciones (exportar el vídeo para llevarlo a otros programas).
3º Menos fluidez al trabajar en la edición.
La solución pasa por usar un codec1adecuado. Si vamos a trabajar con varios programas, interesa un codec con poca compresión, un muestreo alto ( 444 ó 422) y una profundidad de color alta (10 ó 12 bits).
Los programas de edición, cuando realizamos la importación de material, nos preguntarán con qué codec deseamos trabajar, por ejemplo Final Cut por defecto trabaja con ProRess 422, por tanto convertirá el formato del vídeo importado a ProRess 422 para trabajar de forma más fluida.
2.- Práctica.
En el siguiente enlace se puede descargar la Ficha de Prácticas que utilizan mis alumnos de Formación Profesional de la rama de Telecomunicaciones. En ella, previo a la práctica, realizan los esquemas de montaje y la resolución de cuestiones preparatorias. Tras su revisión, proceden al montaje de la práctica y toma de medidas y/o datos.
Es la cantidad de imágenes (frames) por segundo capturadas por una cámara o mostradas por un dispositivo de visualización. Se utilizan las siglas «fps» (frames por segundo).
Veamos una clasificación de los formatos de vídeo en función de su frame rate:
Cine (4K): 24 fotogramas/seg. Hay algunas películas que están utilizando 48 por ejemplo «El hobbit: un viaje inesperado», con ello se consiguen movimientos más reales.
PAL (720×576) : 25fps y 50i (entrelazado) para emisión en TV.
NTSC (720×480) : 29,97 ó 30fps y 59,94i ó 60i para emisión en TV.
HDTV (1280×720 ó 1920×1080) : desde 23,976 a 60 fps. En emisión de TV: 720p (deportes) y 1080i (resto de programas).
UHDTV (4k y 8k) : desde 23,976 a 120 fps (ya no utiliza el escaneo entrelazado).
La «i» indica que se usa un sistema de escaneo entrelazado1 (interlaced), en el cual la imagen completa (cuadro o frame) está formada por dos semimágenes denominadas campos.
Cuando el sistema NTSC introdujo el color en 1953, la tasa de 60 campos por segundo fue reducida en un factor de 1000/1001 para evitar la interferencia entre la señal de color y la de sonido. Apareció entonces el frame rate de 29.97 fps y 59,94i (30 cuadros y 60 campos) , esto ha perdurado hasta la actualidad, pero ya no tiene sentido su uso, por lo que actualmente es mejor usar 30 fps ó 60i, siempre que el equipo a configurar lo permita.
En edición de vídeo conviene trabajar con material en progresivo, además con un frame rate alto se evita el desenfoque de la imagen con el movimiento (motion blur) y se mejora la visualización en cámara lenta.
Hay software como Smoothvídeo Project (SVP) que aumenta el frame rate generando frames intermedios mediante una interpolación entre el frame anterior y posterior.
Resolución
Es el nº de píxeles que contiene la imagen. Viene determinada por dos números, el primero indica la cantidad de pixeles en horizontal (píxeles por línea) y el segundo en vertical (nº de líneas).
Las resoluciones 2K y 4K se definieron por la DCI (Digital Cinema Initiatives) que es un consorcio que apareció en 2002, cuyos miembros fundadores fueron los siete mayores estudios de cine estadounidenses (Walt Disney Pictures, Fox Broadcasting Company, MGM, Paramount, Sony Pictures Entertainment, Universal Studios y Warner Bros). Este consorcio emitió en 2005 las recomendaciones técnicas para la Producción de Cine Digital (DCP) ya que hasta esa fecha no había ningún tipo de norma.
Códecs y contenedores
Los códecs son algoritmos realizados con software para comprimir y descomprimir una trama digital con vídeo y audio en tiempo real.
Al archivo generado se le denomina Contenedor y es el que determina la organización de la información de audio, vídeo y metadatos. Cada contenedor soportará unos códec de audio y vídeo determinados. En las tablas siguientes se muestran algunos contenedores y códecs de uso común.
Un contenedor muy usado para el intercambio de material entre profesionales es el MXF. La figura siguiente muestra las opciones MXF que ofrece el programa Compressor de Apple, vemos como puede contener diferentes códecs.
Hay varias versiones de MXF (Patrones Operacionales) con especificaciones particulares que definen el tipo de imagen/sonido que contiene y la estructura de los metadatos. Las versiones más comunes son la OP-1a y la OP-Atom, quedando identificadas en los programas de codificación como MXF OP-1a y MXF OP-Atom. Un archivo .mxf puede ser reproducido sin problemas con el reproductor VLC.
Con aplicaciones gratuitas como videoSpec (OSX), Format Factory (Windows) o mediainfo, podemos inspeccionar las características de cualquier vídeo.
Códec Apple ProRes
Son una familia de códecs de mucha calidad muy usados sobre todo en entornos MAC, aunque también en windows pero con algunas restricciones. Sus características vienen definidas en un documento llamado libro blanco (white paper) que se actualiza periódicamente.
Códecs AVID DNxHD.
Esta familia de códecs es más numerosa que la ProRes, en la siguiente tabla se muestran los más usuales. Obsérvese que por debajo de 220x, la profundidad de color es de 8 bit mientras que en ProRes se mantiene a 10 bits.
Códecs H264.
H.264 ó MPEG-4 parte 10 es una norma que define un códec de vídeo de alta compresión, desarrollada conjuntamente por el ITU-T Video Coding Experts Group (VCEG) y el ISO/IEC Moving Picture Experts Group (MPEG). Este códec mejora a los de los estándares anteriores: MPEG-2, H.263 o MPEG-4 parte 2.
La ITU-T quiso ponerle el nombre: ITU-T H.264 y el ISO/IEC prefería: MPEG-4 Parte 10 Códec de Video Avanzado (AVC), al final, ni para uno ni para el otro, le pusieron: H.264/MPEG-4 AVC.
La norma H.264, distingue varios Perfiles (o extensiones) y dentro de cada perfil varios Niveles (Layers). En la tabla siguiente se ha tomado como ejemplo el Nivel @L4.1 para varios perfiles.
Veamos un par de ejemplos:
Main@L4.0 : perfil Main y nivel 4.0 (este es libre, los fabricantes no pagan ningún canon por implementarlo en sus cámaras).
High@L5.1 : perfil High y nivel 5.1.
En esta tabla se analizan los perfiles H264 de varios ajustes de la cámara de acción GoPro HERO5 Session.
En este enlace se pueden ver las especificaciones de los perfiles así como las características de los diferentes niveles disponibles para la norma H264.
Códecs H265.
Recibe los siguientes nombres: H.265 , MPEG-H Parte2 ó HEVC (High Efficiency vídeoCoding).
Es una norma sucesora al H.264/MPEG-4 AVC y desarrollado por el mismo grupo de trabajo.
Se organiza de forma similar al H264, en perfiles (extensiones) y niveles. Para adaptarse a cualquier uso se han definido 9 perfiles y 13 niveles, en este enlace pueden verse.
Ventajas respecto al H264:
Mantiene la calidad con bitrates 2 ó 2,5 veces inferiores, por lo que es muy interesante para la grabación en 4K, prácticamente todos los teléfonos móviles que graban en 4K lo implementan.
Puede trabajar con vídeo de hasta 8K y 300 fps mientras que el H264 sólo hasta 4K 60 fps.
Formato RAW.
Raw significa grabación en bruto, este formato contiene toda la información entregada por el sensor de la cámara, por ello el formato RAW nos proporciona la mejor imagen que pueda dar la cámara.
Un ejemplo de flujo de trabajo para RAW tipo CinemaDNG puede ser el siguiente:
1.- La cámara genera dos tipos de archivo: .dng (foto) para cada frame de video y .wav para el audio.
2.- Con un programa como DaVici Resolve se importan los archivos DNG y se retoca la colorimetría, encuadre, balance de blancos y exposición.
3.- Se exporta la secuencia a un formato como el ProRes 422 HQ.
4.- Se importa la secuencia con un programa de edición, por ejemplo Final Cut Pro X y se procede a su edición.
Ventajas:
Se conserva toda la información, viéndose con más calidad.
Mayor profundidad de color, normalmente 12 o 16 bits con lo que se mejora el tratamiento del color y los degradados.
Permite modificar el balance de blancos en postproducción.
Permite mover los valores de exposición uno o dos puntos, por encima o por abajo sin apenas generar ruido en la imagen. Esto hace que podamos modificar el rango dinámico en postproducción.
Inconvenientes:
Incremento de bitrate.
Un flujo de trabajo (workflow) más complicado. Hay que exportar el archivo RAW a una secuencia de DNGs, para después hacer la corrección de color pertinente y volver a importarlos para crear la secuencia.
Es necesario un ordenador más potente con discos rápidos (SSD) y mucho espacio de almacenamiento. Como ejemplo, en una cámara Blackmagic Cinema en raw con resolución 2400×1350 a 24 fps graba unos 7GB por minuto.
Formatos habituales usados para grabación en RAW:
CinemaDNG (2008): desarrollado por Adobe.
ProRes RAW (2018): desarrollado por Apple.
Blackmagic RAW (2018): desarrollado por Blackmagic.
Conexiones en vídeo digital.
SDI.
SDI responde a las siglas Serial Digital Interface, transmite señal de vídeo, audio y datos por un solo cable, es el interfaz predominante para la comunicación de equipos de vídeo profesionales. Se utiliza un cable coaxial de 75 Ω de impedancia y conectores BNC.
La longitud del cable máxima dependerá de la calidad del cable y del tipo de señal SDI transportada.
Los diferentes tipos de señales SDI han sido creadas paulatinamente según han ido apareciendo nuevas resoluciones de vídeo en el mercado. Cada una de ellas está definida por un estándar distinto que marca los parámetros que la caracterizan.
Estos estándares los crea la sociedad americana SMPTE (Society of Motion Picture and Television Engineers), una asociación de ingenieros especializados en vídeo que actúan como propulsores marcando las características que deben cumplir estas señales.
SDI estándar ( SMPTE 259m y SMPTE 344m ): creado para regular las señales de definición estándar con resoluciones de 480 y 576 entrelazadas y progresivas.
HD-SDI (SMPTE 292m): Para señales de 720p y 1080i a 60 fps con un bitrate de 1,50Gbps.
3G-SDI (SMPTE 424m): Para señales de 1080p a 60 fps con un bitrate de 3Gbps.
6G-SDI (SMPTE 2081): Para señales de 4K a 30 fps con un bitrate de 6Gbps.
12G-SDI (SMPTE 2082): Para señales de 4K a 60 fps con un bitrate de 12Gbps.
HDMI.
HDMI responde a las siglas de High Definition Multimedia Interface. Apareció en 2003 y permite conectar vídeo y audio digital sin compresión entre dos dispositivos a través de un único cable.
Ha habido varias versiones de HDMI, siendo compatibles hacia atrás, veamos las últimas:
HDMI 1.4 (2009).
Resolución: 1080/60 fps y 4K (4096 x 2160 /24 fps ó 3840 x 2160 /30 fps).
Máximo ratio de transferencia: 10,3 Gbps.
3D: 1080p a 60 fps.
Audio: 8 canales / 192 kHz.
HDMI 2.0 (2013)
Resolución: 4K (4096 x 2160 /60 fps).
Máximo ratio de transferencia: 18 Gbps.
3D: 4K a 25 imágenes/segundo.
Soporte para trabajar con la tecnología HDR (High Dinamic Range).
Audio: 32 canales / 1536 kHz.
HDMI 2.1 (2017)
Resolución: 8K a 60 fps y 4K a 120 fps.
Máximo ratio de transferencia: 48 Gbps.
Soporte para trabajar con la tecnología HDR.
Audio: 32 canales / 1536 kHz.
Además del audio y el vídeo, el cable HDMI permite realizar otras conexiones:
CEC(Consumer Electronics Control): Se introdujo a partir del HDMI 1.0 y sirve para enviar comandos de control entre aparatos de forma que con un mando a distancia se controlan los equipos conectados por HDMI. No todos los fabricantes lo implementan en sus equipos.
ARC (Audio Return Channel): desde el HDMI 1.4 y sirve para que un televisor pueda transmitir audio hacia un amplificador de Home Cinema por ejemplo. Nos ahorra el tener que conectar un cable de audio entre ambos equipos.
HEC(HDMI Ethernet Channel): desde el HDMI 1.4 y sirve para realizar una comunicación Ethernet a 100 Mbit/s entre los equipos conectados.
En cuanto a la distancia máxima de un cable HDMI, a partir de unos 12 metros, es necesario usar cables de calidad superior a la estándar, es posible encontrar cables de hasta de 20 m, si se desea una distancia mayor, hay que insertar un amplificador de HDMI.
DVI.
DVI responde a las siglas de Digital VideoInput. Apareció en 1999 y se utiliza para conectar monitores y proyectores a ordenadores. No transporta audio.
Tipos de conexiones DVI:
DVI-A: 17 pines, 12+5 y contiene las mismas señales que el conector VGA solo que con diferente disposición, por tanto la señal es analógica, con un simple adaptador se puede convertir a VGA.
DVI-D: Transmite únicamente señal de vídeo digital y puede ser tipo Single Link o de Dual Link. El segundo posee más ancho de banda. Con un simple adaptador se puede convertir a HDMI.
DVI-I: Transmite señal analógica y digital, con un simple adaptador se puede convertir a HDMI o a VGA.
DisplayPort.
Es un conector muy similar al HDMI en sus características técnicas, pero libre de licencias y cánones (no tiene la protección anti-copia HDCP como el HDMI), se suele incluir en algunas tarjetas gráficas y es raro verlo en televisores, su principal inconveniente es su incompatibilidad con DVI y HDMI. Hay dos tipos: el normal y el mini.
Soporta un flujo de datos máximo de 10,8 Gbit/s y resolución WQXGA (2560×1600) sobre un cable de 15 metros. En distancias más cortas soporta la resolución 4k.
4.- Glosario.
Subsampling: Determina el número de muestras tomadas de la señal de componentes. El primer número representa las muestras tomadas de Luminancia, que al ser un 4 indica que se muestran todos los píxeles.
Los dos números siguientes indican las muestras tomadas de las dos componentes de color R-Y y B-Y.
El códec utilizado determinará qué patrón de subsampling se utiliza, veamos algunos ejemplos:
4:4:4 : ProRes 4:4:4 XQ y 4:4:4 (apple).
4:2:2 : AVC-Intra 100 (panasonic), ProRes HQ, LT y Proxy (apple), Betacam Digital (sony), DVCPRO 50 (panasonic), DVCPRO HD (panasonic), Digital-S ( JVC), XDCAM HD (sony), Canon MXF HD.
4:1:1 : DVCPRO (panasonic), NTSC DV (panasonic), NTSC DVCAM (sony).
4:2:0 : EstándaresMPEG-1, MPEG-2, MPEG-4 y códecs AVCHD (sony y panasonic), AVC-Intra 50 (panasonic), Apple Intermediate Codec, MJPEG, VC-1, PAL DV, PAL DVCAM (sony), HDV.
4:1:0 : Calidad muy baja similar al VHS, es poco utilizado.
Profundidad de color: Indica los bits utilizados para representar (cuantificar) cada pixel de una imagen. Puede ser de 8, 10, 12, 16 y 32 bits.
Con una profundidad de color de 8 bits se disponen de 256 niveles (28) para cuantificar cada pixel, como son tres componentes (rojo, verde y azul): 256 x 256 x 256 = 16.777.216 colores.
Si fuera de 10 bits se dispondrían de 1024 niveles (210) lo que nos daría 1.073.741.824, más de un billón de colores.
Por tanto si se va a corregir el color con programas como DaVinci Resolve es conveniente escoger un códec con profundidad de color de 10 ó 12 bits.
Bitrate: Es el Nº de bits por segundo que genera la trama de vídeo. El bitrate nos permitirá conocer lo que ocupa nuestro material en el disco duro y si los discos duros son capaces de grabarlo. Si trabajamos con varias capas en un programa de edición, debemos multiplicar el bitrate calculado por el nº de capas para saber si nuestro disco duro es lo suficientemente rápido para trabajar con este material. Como ejemplo un disco duro SATA de 7200 rpm suele grabar a unos 100 o 150 MB/s y un disco SSD desde unos 300 MB/s si es SATA hasta unos 2000 MB/s si es PCI express.
En este enlacese puede descargar una calculadora de bitrate para IOS y Android.
Los datos que introduciremos son: tiempo, códec, resolución, frame rate , nº de canales de audio, frecuencia de muestreo de audio y nº de bits de cuantificación de audio.
Esta calculadora nos proporciona la cantidad de memoria que ocupará el material en el disco duro en MB ó GB. Para saber el bitrate, debemos poner en TIME: 1 segundo y el resultado será en MB/s, multiplicando este valor por 8 lo podemos pasar Mbps (Mega bits por segundo).
En las emisiones de TDT, los operadores ajustan el bitrate en función del programa emitido, en la figura anterior se observa cómo afecta esto a una imagen estática.
Entrelazado: Es una técnica en la que se divide la información de una imagen (frame) en dos semimagenes (campos). Así es como capturan las imágenes las cámaras analógicas, las digitales además pueden capturar en Progresivo, en este caso la imagen se captura completa.
El entrelazado se realiza para ahorrar ancho de banda o bitrate y para evitar el parpadeo de la imagen pero genera problemas de imagen borrosa en objetos en movimiento.
Este sistema de exploración de la imagen se utiliza en la emisión de TV de calidad SD (standard) y en HD 1080i , «i» significa entrelazado y «p» progresivo. Cuando el programa de TV es de deportes lo habitual es que se emita en HD 720p. El bitrate de 1080i y 720p es similar.
En la figura anterior vemos un vídeo en pausa de un coche a 30 Km/h se observa lo siguiente:
En progresivo los objetos en movimiento se ven de forma más nítida, ver detalle de rueda.
Los objetos estáticos se ven igual en progresivo que en entrelazado.
Con el procedimiento de desentrelazado mediante duplicación de líneas se mejora algo la visualización de los objetos en movimiento.
5.- Conclusión.
Recuerdo cuando, en mi colegio, instalamos el estudio de RTV (1999) para las prácticas del módulo de Grado Superior » Equipos de RTV «, Magnetoscopios DVCAM, controlador de edición, mesa de mezclas que aunque digital, las entradas/salidas eran analógicas, se grababa en cinta magnética. Entonces los equipos informáticos no tenían suficiente potencia para trabajar cómodamente la edición de vídeo, había que invertir mucho para eso.
La potencia de los equipos informáticos ha aumentado mucho en estos últimos años, lo que ha permitido trabajar fluidamente con resoluciones de vídeo mayores, actualmente estamos enclavados en la resolución 1080 (full HD) pero el 4K está empujando mucho, las TV que se están vendiendo actualmente a un precio asequible están preparadas para 4K.
Ya se está emitiendo en 4K en algunos canales de satélite y la llegada del DVB-T2, el sucesor de la TDT actual (DVB-T), traerá las emisiones en 4K de algunos canales. Muchos móviles graban en 4K usando el códec H265 (unos 350 MB/min). Para que se implante el 8K todavía falta, aunque algún móvil ya lo lleva.
El mundo del vídeo digital es muy cambiante y posee muchos términos, en este artículo he pretendido poner un poco de orden en este tema usando un lenguaje sencillo, sobre todo para ayudar a los que se inician en esto, espero haberlo conseguido.
1.- Procedimiento para orientar una Antena Parabólica.
2.- Práctica.
3.- Antena parabólica, lo que también debes saber.
4.- Glosario.
5.- Conclusión.
————– + ————-
1.- Procedimiento para orientar una Antena Parabólica
Orientar una antena parabólica a un satélite es un proceso sencillo, pero requiere que se sigan con rigurosidad una serie de pasos. Os presento un procedimiento con el que en 10 min podemos tener la antena orientada.
Vamos a orientar una antena Parabólica de tipo Offset a los satélites Astra 19,2 º E.
PROCEDIMIENTO:
En la Web http://www.dishpointer.com seleccionamos el satélite “19,2ºE Astra 1KR,1L,1M,1N” y en localización escribimos “Av. San Juan Bosco 33 – Cartagena”. Colocamos la chincheta sobre el punto de instalación de la antena, la web nos trazará una línea de referencia para el Acimut1. Localizamos un edificio o punto geográfico conocido que esté sobre la línea verde trazada.
Entramos en la web https://es.kingofsat.net/, en Busca de Canales escribimos “Canal Sur Andalucía” ya que está en un satélite de esta posición orbital (Astra 1KR) y además en abierto, obtenemos:
Fijar la antena a su soporte, dando un apriete suave a los tornillos de la agarradera.
Situándose detrás de la antena, ajustar el azimut para que apunte al edificio o elemento geográfico elegido en el punto 1. Apretar un poco más la agarradera.
Conectar la salida del LNB al medidor de campo, configurándolo en modo SAT, introducimos la frecuencia del transponder que contiene al “Canal Sur Andalucía” (11156 MHz) y alimentamos el LNB con 13 V por ser la polaridad del transponder vertical y como la frecuencia de este transponder (11156 MHz) es menor de 11700 Hz (Ku Baja), NO aplicamos el tono de 22 Khz. Esto se hace sólo para la banda Ku Alta que va desde 11700 – 12750 MHz.
Aflojar un poco los tornillos de la elevación e ir inclinando hacia arriba la antena hasta que veamos en la pantalla del medidor de campo, en modo espectro, los diferentes transponders de los satélites en esta posición orbital.
Demodular el canal y comprobar que está el servicio deseado: “canal sur Andalucía” para asegurarnos que estamos apuntando a Astra.
Retocar acimut y la Elevación hasta que el VBER sea el mejor posible.
Retocar polarización Polarización del LNB hasta que el canal quede más perfilado el canal (valles más profundos en sus extremos) y el VBER y MER sean los mejores posibles. Un VBER < 9E-5 y un MER >11 dB. Si no se consiguen volver a retocar un poco el acimut y la elevación.
Apretar la abrazadera de acimut y tornillos de elevación (con moderación).
2.- Práctica.
En el siguiente enlace se puede descargar la Ficha de Prácticas que utilizan mis alumnos de Formación Profesional de la rama de Telecomunicaciones. En ella, previo a la práctica, realizan los esquemas de montaje y la resolución de cuestiones preparatorias. Tras su revisión, proceden al montaje de la práctica y toma de medidas y/o datos.
3.- Antena parabólica, lo que también debes saber.
A continuación se muestran las bandas y sus frecuencias usadas para emisión y recepción satelital, a nosotros nos interesa la banda Ku en recepción (Downlink) que va desde 10700 – 12500 MHz.
Ventajas de la banda Ku:
Se usa únicamente para satélite por lo que tiene menos interferencias de otros emisores.
Tamaño de antenas más pequeño ya que se emite con mayor potencia (PIRE).
Inconvenientes:
Afectada por la atenuación de la lluvia y despolarización.
Pérdidas en la línea de transmisión de coaxial y del guía onda elevadas. Esto afecta sólo a los equipos de transmisión, en la recepción al convertir a Frecuencia Intermedia, no tenemos este problema.
Como podemos ver en la siguiente figura, la banda Ku se subdivide en baja y alta. Si el transponder elegido en el medidor de campo pertenece a Ku Alta, debemos alimentar el LNB con 13 ó 18 Voltios según polaridad Vertical u Horizontal y con un tono de 22 KHz que hará que se seleccione en el LNB el oscilador local de 10,6 GHz correspondiente a esta banda.
Los transponder de la banda DBS se emiten con una potencia superior a 100 dBw lo que hace que los platos de la parabólicas puedan ser de menor diámetro.
4.- Glosario
Acimut: Giro horizontal de la antena parabólica. Es lo primero que debemos fijar y con exactitud.
Elevación: Giro vertical de la antena parabólica. Dependerá del tipo de antena, una offset requiere menos grados. Una vez bien fijado el acimut, la elevación nos la determinará la aparición de los canales en la pantalla del medidor de campo colocado en modo espectro.
Polarización: Es el giro que se da al LNB para que la antena receptora en el interior del LNB quede paralela con la antena emisora ubicada en el satélite, esto asegura la máxima recepción y el máximo rechazo a los canales adyacentes de la otra polaridad.
Frecuencia del transponder: Es la frecuencia del canal que contiene los programas de TV (servicios). Está comprendida entre 10500 y 12750 MHz.
Cada satélite posee varios transponder que reciben la señal de tierra, la cambian de frecuencia y la vuelven a emitir hacia tierra. A su vez cada transponder permite enviar en torno a 10 o 15 servicios (programas de televisión) y como en la misma posición orbital se ubican varios satélites del mismo operador, se consiguen transmitir cientos de servicios para esa orientación.
Polaridad: Puede ser linear o circular. La más normal es la lineal que a su vez puede ser Vertical (V) u Horizontal (H). Esto sirve para indicar al LNB mediante una tensión si debe recibir los canales en Vertical (aplicándole 13 V) o los de Horizontal (aplicándole 18 V).
Algunos satélites emiten en polaridad circular en su banda DBS, en este caso puede ser a derechas o a izquierdas aunque es poco común este tipo de polaridad en TV en Europa. Con un LNB normal se puede recibir un transponder con polarización circular, pero se pierden 3 dB de potencia, para no perderlos se necesita un LNB de polarización circular.
Estándar: Estándar de transmisión, es el DVB-S o el más reciente DVB-S2. Los transponders con DVB-S2 tienen un ancho de banda mayor debido a que usan la modulación 8PSK (8 símbolos) la cual tiene mayor rendimiento que la QPSK (4 símbolos) usada en DVB-S.
Symbol Rate: Es la velocidad de transmisión de los símbolos en Mbps (Mega bit por segundo). Un símbolo es una agrupación (palabra) de varios bits, por ejemplo en la modulación QPSK cada símbolo posee 2 bits y en la 8PSK posee 3 bits, por lo tanto QPSK posee 22 = 4 símbolos y 8PSK 23 = 8 símbolos.
FEC: Es el ratio de codificación, es decir, indica la cantidad de bits de la transmisión que se utilizarán para corregir errores en el receptor. Por ejemplo un FEC de 5/6 indica que de 6 bits transmitidos se usarán 5 bit de datos y 1 para corrección errores. De la corrección de errores se encargan los módulos descodificadores Reed Solomony Viterbiintegrados en los receptores de satélite.
LNB (Low Noise Block): Elemento que recibe la señal del transponder y la baja de frecuencia (Frecuencia Intermedia) para que pueda ser distribuida mediante cable coaxial.
PIRE (Potencia Isótropica Radiada Equivalente): es la suma de la potencia de emisión del satélite PS ( en dBw) y la ganancia de la antena del satélite GS (en dB).
Se mide en dBw : dBw= 10 log W / 1w
El dBW toma como referencia la potencia de 1 W, por lo que 0 dBw corresponde a 1W.
Si PIRE es menor de 30 dBw se dice que el satélite es de baja potencia y si es de más de 100 dBw se considera de alta potencia, por ejemplo los transponders de la banda DBS son de alta potencia.
5.- Conclusión
Aunque los conceptos relacionados con la recepción por satélite son muchos, orientar una antena parabólica es un proceso sencillo que sólo requiere que se sigan escrupulosamente unos pasos específicos.
En este artículo he usado el procedimiento más rápido y con menos posibilidad de error en base a mi experiencia, hay muchos más métodos, por ejemplo usando un apuntador de satélite que se puede comprar por unos 20 eu, en vez de un medidor de campo, e incluso tomando una TV como medidor, metiéndose en el menú de configuración de la misma.
El vídeo analógico es la imagen que se presenta sobre una pantalla de televisión y se obtiene tras aplicar una señal a un televisor, trazándose líneas en la pantalla a mucha velocidad y gracias a nuestra persistencia retiniana (se mantiene la imagen en la retina durante una fracción de tiempo), conseguimos integrar las líneas viendo las imágenes completas.
Tipos de Formatos.
Existen cuatro tipos de señal de vídeo analógico: RGB, Componentes(Y,Pb,Pr), Video-S (Y/C) y VídeoCompuesto(CVBS).
RGB.
Es el formato original, el que entregan las cámaras de vídeo tras captar la escena. Se usan tres componentes ( Rojo, Verde y Azul ), ocupando un ancho de banda de 5 MHz cada canal.
Este formato se utiliza para visualización, es decir, conexión directa a monitores, no se han fabricado equipos que lo graben debido al su gran ancho de banda. Permite transmitir vídeo con calidad HD.
Los conectores usados son: el BNC en equipos profesionales, el VGA para proyectores y pantallas planas y el EUROCONECTOR para televisores más antiguos.
Los equipos de fabricación Japonesa usan un conector igual al euroconector europeo pero con distinta correspondencia de sus pines.
Cuando una televisión tiene varios euroconectores, normalmente sólo uno será capaz de recibir la señal RGB, debemos identificarlo usando el manual, además debemos entrar en el menú del televisor y configurar esa entrada para señal RGB. Por defecto todas las entradas de euroconector van configuradas para vídeo compuesto (de peor calidad que RGB).
COMPONENTES (R-Y , B-Y , Y).
Formato obtenido del RGB mediante una matriz sumadora sin reducir apenas la calidad pero sí el ancho de banda, pasando de 15 MHz para RGB a 7 MHz, esto se consigue eliminando la información redundante de luminosidad de las tres componentes RGB. Se transmite mediante tres líneas.
Las componentes R-Y y B-Ycontienen la información de color y la componente de Y o luminancia aporta la información de luminosidad de la imagen y además contiene los sincronismos necesarios. La luminancia se obtiene de la siguiente forma:
Y = 0,30 R + 0,59 G + 0,11 B
R ,G ,B = componentes de la señal RGB.
Entrada/salidas para este formato las encontramos en multitud de equipos profesionales, también en las pantallas planas y proyectores. Este formato se utiliza generalmente como base para la digitalización de señales de vídeo. Puede transmitir vídeo con calidad HD.
Los conectores usados para este formato son: el RCA en equipos domésticos y el BNC en equipos profesionales.
En equipos domésticos, a las componentes R-Y y B-Y se las identifica con las siglas PR/CR yPB/CB.
Como podemos apreciar en la figura de arriba, los equipos profesionales, usualmente, comparten los conectores BNC para la señal de RGB y la de componentes, la selección se hace mediante un conmutador.
VIDEO S (Y/C).
Posee dos componentes: luminancia (Y) y crominancia (C).
La señal de luminancia en este fomato es idéntica a la de componentes (Y).
La crominancia se obtiene modulando (modulación tipo QAM) una subportadora de 4,43 MHz con las componentes R-Y y B-Y, este proceso implica una pérdida importante de calidad.
Para poder recomponer la información de color se necesita una muestra de la subportadora «limpia» (sin modular) consiguiendo así una referencia de la amplitud y fase originales para saber a partir de qué valor hay que comparar el nivel de tonalidad y saturación. Para ello, se añade unos ciclos de la subportadora a la señal de sincronismo después de cada barrido horizontal. Estos impulsos se conocen como Burst o Color Burst.
Los antiguos grabadores S-VHS y Hi 8 graban este formato, actualmente lo podemos encontrar en pantallas planas, proyectores, tarjetas capturadoras, etc, se usa un conector minidin, su resolución en el sistema PAL es de 720 x 576 píxeles (realmente tiene 625 líneas pero sólo 576 son visibles).
VIDEO COMPUESTO (CVBS).
En los equipos, este tipo de señal se suele identificar como CVBS (Color, Vídeo, Borrado y Sincronismos), se obtiene mezclando la señal de croma con la luminancia.
La croma se inserta en los huecos del espectro que no están siendo usados por la luminancia, lo que hace que se reduzca a 5 Mhz el ancho de banda utilizado. El inconveniente es que cuando la imagen es compleja (mucho entramado), los huecos libres de la luminancia se reducen creando una distorsión denominada moire.
El vídeo compuesto se transmite con una sola línea, ideal para modular un canal de radiofrecuencia. Los emisores de vídeo analógico emiten en este formato, su resolución en el sistema PAL es de 720 x 576 píxeles.
Este formato se graba en los antiguos equipos VHS y 8 mm y su calidad es algo inferior a la que proporciona el formato vídeo S.
Los conectores que se utilizan son: el BNC para equipos profesionales y el RCA (amarillo) para los domésticos.
2.- Vídeo Prácticas.
2.1. – Medida de diferentes parámetros de la señal de señal de vídeo compuesto mediante un Osciloscopio.
2.2. – Estudio de los formatos de vídeo analógicos: Vídeo Compuesto, Vídeo S y RGB. Se compara la calidad entre los mismos y se estudia la señal de sincronismo que se utiliza en RGB.
3.- Vídeo analógico, lo que también debes saber.
Sincronismos.
Son señales que acompañan a todos los formatos de vídeo analógico para que el televisor pueda sincronizarse con el equipo fuente de imagen ( cámara o reproductor). Son dos los tipos de sincronismos que se manejan: horizontal y vertical.
Sincronismo horizontal: establece la velocidad a la que se trazan las líneas de la imagen, en el sistema PAL es de 15625 Hz.
Sincronismo vertical: establece la velocidad a la que se muestran los grupos de líneas que conforman una semimagen o campo, en el sistema PAL es de 50 Hz.
En la señal de RGB los sincronismos pueden transmitirse de tres formas distintas:
Sincronismos separados (RGBHV): hay una línea para el sincronismo horizontal HSync y otra para el sincronismo vertical VSync. Se necesitan 5 hilos para la transmisión, un ejemplo es la señal RGB que se lleva desde un ordenador a un monitor mediante cable VGA
Sincronismo compuesto (RGBS): Se transmite el sincronismo horizontal y vertical por un mismo cable, se necesitan por tanto un total de 4 hilos para la transmisión.
Sincronismo en verde (RGsB): La información del sincronismo horizontal y vertical se transmite junto con la señal de color verde, necesitándose sólo 3 hilos para la transmisión.
En la siguiente figura vemos como es posible seleccionar si el sincronismo se introduce en el verde o no, también permite cambiar la polaridad de los sincronismos, lo normal es que sean negativos (almenas hacia abajo).
En los formatos Componentes, Vídeo S y Vídeo compuesto, al poseer la luminancia, esta es la que contiene los sincronismos horizontal y vertical.
Medidas con monitor de forma de onda.
Con un monitor de forma de onda o un osciloscopio podemos medir los valores de tensión y tiempo de la señal de vídeo para asegurarnos que se ajustan a su valor normalizado.
Cuando se analiza una señal de vídeo analógico se hace a partir de una imagen patrón llamada barras de color. Una línea en el formato vídeo compuesto tendría la forma y medidas que se muestran en la siguiente figura:
Hay que destacar:
1º. La tensión pico a pico (Vpp) medida entre la base del sincronismo y el nivel de blanco (barra blanca) es de 1 voltio.
2º. La barras de color están ordenadas de forma que tienen un valor de luminancia descendente.
3º. En el pórtico posterior se inserta la ráfaga de sincronismo de color o BURST, que permite al televisor demodular la información de color de cada línea.
4º. La información de color (croma) aparece en la figura en color gris, esta es la señal modulada en QAM (modulación en amplitud y fase), cuanto mayor sea su amplitud mayor será la saturación del color.
En la siguiente figura se aprecia como se van obteniendo los diferentes formatos de vídeo analógico a partir de la señal de RGB.
Medidas con un vertorscopio.
Este equipo nos permite comprobar la colorimetría de la imagen, tras aplicarle una imagen de barras de color (imagen patrón), nos mostrará una serie de puntos correspondientes a cada color. Realmente lo que se representa es la componente B-Y en el eje horizontal y la R-Y en el vertical.
El equipo a medir debe generar la imagen de barras de color. En el sistema PAL el vectorscopio nos mostrará 12 puntos (6 en el sistema NTSC), estos puntos definen la tonalidad y saturación de cada color.
Cada color se identifica con sus siglas en mayúscula y en minúscula, por ejemplo el Magenta: MGy mg, esto es debido a que en el sistema PAL, se invierte cada dos líneas el componente R-Y, esto no sucede con el sistema NTSC. Esta propiedad del sistema PAL hace que sea más inmune a las interferencias por reflexiones de la señal cuando se transmite por radiofrecuencia.
Fig. 12. Retícula de un vectorscopio para sistema PAL.
Las líneas que aparecen uniendo los diferentes puntos reflejan la transición del color de una barra al color de la otra, por ejemplo la barra de color cian (CY) tiene a sus lados la verde (G) y la amarilla (YL), por este motivo el punto CY está enlazado con el YL y el G. Esta transición realmente es un cambio de fase (tonalidad) y amplitud (saturación de color) de la subportadora de color (onda senoidal de 4,43 Mhz).
Procedimiento de uso un vectorscopio:
Este vídeo aclara muchos conceptos referentes al uso del vectorscopio:
Veámoslo ahora pasito a pasito:
1.- En una entrada del vectorscopio, introducimos la señal de barras de color generada en el equipo fuente a medir.
2.- Realizamos la sincronización de la señal aplicada con la retícula mostrada por el vectoscopio, para ello hacemos coincidir los segmentos que se generan con el BURST de la señal introducida con los que aparecen en la retícula, esto se hace con un potenciómetro del vectorscopio.
3.- En el menú del vectorscopio comprobamos que el ajuste de saturación de color coincida con el de la señal aplicada, lo normal es que la saturación de color sea del 75%.
4.- Comprobamos que los puntos que nos aparecen coincidan en las cajas de la retícula, esto indica que la colorimetría esta bien. Lo ideal es que los puntos queden dentro de las cajas pequeñas con lo que el error estaría acotado en un 5 % de saturación y 5º de variación de fase.
Como ejemplo en la figura anterior apreciamos los ajustes que nos proporciona una Unidad de Control de Cámara SONY M5P.
Notas a tener en cuenta:
La situación de cada punto indica la saturación y la tonalidad del color.
Un punto más hacia la periferia indica una saturación de color mayor.
Un punto con una variación de ángulo (variación de fase), indica una variación de la tonalidad del color.
Las cajas grandes identifican una rango variación de saturación del 20% y una variación de tonalidad de 20º.
Las cajas pequeñas identifican un rango de variación de saturación del 5% y una variación de tonalidad de 5º.
4.- Conclusión
Aunque estamos en la era del vídeo digital, los formatos de vídeo analógico los vamos a encontrar en casi todos los equipos de imagen, de hecho todos los formatos digitales se obtienen muestreando la señal de vídeo analógico de componentes o RGB.
Una señal de RGB y de componentes puede transmitir vídeo en HD, un ejemplo lo tenemos en la conexión de un ordenador con su monitor mediante VGA, lo que se transmite por este conector es señal RGB.
El motivo fundamental de que el vídeo analógico haya perdido la batalla frente al digital es su acentuada pérdida de calidad al realizar sucesivas copias.
2.- Videoprácticas: Tarjeta capturadora Audio Control 1 y grabadores digitales Marantz PDM y 660 e iKey Plus.
3.- Sonido digital, lo que también debes saber.
4.- Conclusión.
————– + ————-
1.- Sonido digital, ¿qué es?
El sonido se genera por la variación de presión en un medio (aire usualmente), por lo tanto es analógico, los equipos actuales trabajan de forma digital (ceros y unos), lo que obliga a traducir esta variación analógica (infinitos valores en el tiempo) a valores digitales, a estos datos digitales es a lo que se le llama sonido digital.
Los equipos que trabajan con sonido digital poseen un conversor A/D (Analógico/Digital) que convierte la señal analógica a digital, este proceso requiere de tres pasos: muestreo, cuantificacióny codificación.
Muestreador: Toma muestras de la señal analógica (señal en tiempo discreto), se debe cumplir que :
Fm > 2 * BW (Teorema Nyquiest)
Fm : Frecuencia de muestreo (Hz).
BW (Band Width): Ancho de banda de la señal a muestrear
Como ejemplo, el sonido grabado en un CD está muestreado a 44100 Hz, como el ancho de banda comúnmente adoptado para la música es de 20 a 20000 Hz, se cumple el teorema de Nyquiest. Hacer que se cumpla el teorema de Nyquiest en demasía (sobremuestreo) NO aumenta la calidad de la señal, sólo aumenta la cantidad de datos generados. Como referencia las frecuencias de muestreo más usadas por las capturadoras de audio son 32KHz, 44,1KHz, 48KHz, 96 KHz, y 192,4 KHz.
Cuando la frecuencia de muestreo es inferior a la necesaria se produce la distorsión por aliasing, que impide recuperar fielmente la señal muestreada.
Cuantificador: Cada muestra obtenida se hace corresponder con un valor (señal cuantificada). El número de valores posibles depende del número de bit del conversor (resolución).
Por ejemplo, el sonido grabado en un CD utiliza un conversor A/D de 16 bits, lo que proporciona 216 = 65536 valores posibles para la cuantificación. Cuantos más valores se dispongan más precisa será la cuantificación, lo que reducirá el error de cuantificación.
Codificador: A cada valor cuantificado se le asigna un código binario; por ejemplo el sonido con calidad CD usa palabras binarias de 16 bits.
El flujo de datos binarios obtenidos en esta primera fase de codificación es muy elevado, es el denominado formato PCM o sin compresión, este formato es utilizado en la grabación de CDs, como ejemplo, una hora de música a 44,1 Khz y 16 bit ocupa unos 700 MB.
Cuando el destino del sonido digital no requiere la máxima calidad, se aplica una segunda codificación que reduce el tamaño a consta de la calidad, un ejemplo es el formato mp3, donde se obtienen reducciones de 7 ó 10 a 1 respecto al PCM, con una calidad aceptable (192 y 128 kbps).
Tras operar con los datos binarios, los equipos de sonido digital los transforman en una señal analógica, de esto se encarga el conversor D/A (Digital / Analógico), para finalmente, tras su amplificación, aplicarla a un altavoz que emitirá el sonido.
2.- Videopráctica: Tarjetas capturadoras de sonido.
VIDEO 1: Funciones y puesta en funcionamiento de una capturadora de sonido Audio control 1:
VIDEO 2: Funciones y puesta en funcionamiento de un grabador digital Marantz PMD 660:
VIDEO 3: Funciones y puesta en funcionamiento de un grabador digital de sonido iKEY PLUS:
3.- Sonido digital, lo que también debes saber.
En la siguiente figura podemos observar, de forma genérica, los bloques de un equipo de sonido digital.
Filtro antialiasing: Evita que se tomen muestras de señales de frecuencias superiores al ancho de banda deseado, esto elimina la distorsión por aliasing. La frecuencia de corte de este filtro depende de la frecuencia de muestreo, en el caso típico de equipos de CD-Audio, como la frecuencia de muestreo es 44100 Hz, se establece la frecuencia de corte en 20000Hz, un 10% aproximadamente menos que la frecuencia crítica (22500Hz), esto se hace así debido a que los filtros no son perfectos y tienen un pendiente de caída determinada tras su frecuencia de corte.
Filtro de reconstrucción: Asegura que la señal analógica de salida no contenga componentes de frecuencia superiores a la de la frecuencia máxima de trabajo.
Soluciones a problemas del sonido digital.
Distorsión por Aliasing.
Solución: Muestrear a más del doble de la frecuencia máxima de la señal. Esta frecuencia se establece en el software de grabación utilizado o mediante el menú de configuración en los equipos. Lo más usual es muestrear a 44100 Hz, esta frecuencia la aceptan todas las capturadoras.
Error de cuantificación.
Se pretende conseguir que el ruido generado por este error será inapreciable, para ello su nivel debe ser menor que el ruido de la señal analógica a muestrear.
Solución: Aumentar el nº de bits del cuantificador. En las tarjetas capturadoras se puede ajustar con el software de grabación, en los equipos dedicados normalmente no. Lo normal es trabajar a 16 bits y con un frecuencia de muestreo de 44100 Hz, con lo que se obtiene una relación S/N (Señal/Ruido) de 98,08 dB, superior a la relación S/N de la mayoría de las señales analógicas.
La ecuación que define la relación S/N a partir de los bits del conversor A/D es :
S/N(dB) = 20 log 2n + 1,76
n = número de bits del cuantificador del conversor A/D
Saturación o clipping
Aparece cuando el nivel de la señal analógica de entrada es superior a la tensión de fondo de escala del convertidor A/D, esto genera un recorte de la señal por su parte superior. Esta distorsión se puede ver fácilmente con programas de edición de audio, como por ejemplo Adobe Audition o Audacity (gratuito), sólo hay que hacer zoom en un tramo dónde se aprecie que el nivel es excesivo, veremos las muestras tomadas y la imagen se parecerá a la de la figura siguiente.
Solución:Ajustar el nivel de entrada de grabación para que no se alcance el nivel de CLIP (0 dB usualmente).
Ejemplo de equipo de sonido digital
En la siguiente figura se aprecian los bloques de una capturadora de sonido Audio Control 1, como la utilizada en la videopráctica.
Contiene un conversor A/D y dos conversores D/A, uno para cada dos salidas, también se aprecia como el circuito para monitoreo puentea los conversores.
En la siguiente tabla vemos como el fabricante describe las características técnicas de esta capturadora.
Es de destacar las siguientes siguientes características de esta capturadora:
Alta frecuencia de muestreo, dentro del ámbito profesional: 44.1, 48, 96 y 192 KHz
Alta resolución de los convertidores: 16 y 24 bits
Relación S/N buena: 100 dB
Bajo ruido en la entrada de micrófono : -128 dBu
4.- Conclusión
A la hora de elegir un equipo de sonido digital debemos revisar las características de los conversores que posee. Algunos equipos de baja calidad poseen un conversor A/D de menos bits que el conversor D/A, publicitando que el equipo posee una resolución que se hace corresponder con los bits del convertidor D/A. Un equipo de calidad tiene la misma resolución en sus dos conversores.
La relación S/N es una característica que no se nos debe despistar, hay que exigir un mínimo de 95 dB, en caso contrario el equipo aplicará más ruido que el propio de la señal que manejamos.
Aunque dispongamos de una capturadora como la mostrada en este artículo, no conseguimos más calidad de sonido al sobremuestrear una señal, es decir, al sobrepasar el teorema de Nyquiest, sólo sobredimensionados el archivo obtenido, tampoco obtendremos más calidad aumentando la resolución de bits, si la señal analógica tiene una relación S/N inferior a la que nos proporciona la resolución adoptada.
Bueno, espero que esta pequeña incursión en los conceptos básicos del sonido digital os sea de utilidad.
Esta web usa cookies para mejorar la experiencia de navegación.AceptaLeer mas
Privacidad y políticas de Cookies
Privacy Overview
This website uses cookies to improve your experience while you navigate through the website. Out of these, the cookies that are categorized as necessary are stored on your browser as they are essential for the working of basic functionalities of the website. We also use third-party cookies that help us analyze and understand how you use this website. These cookies will be stored in your browser only with your consent. You also have the option to opt-out of these cookies. But opting out of some of these cookies may affect your browsing experience.
Necessary cookies are absolutely essential for the website to function properly. This category only includes cookies that ensures basic functionalities and security features of the website. These cookies do not store any personal information.
Any cookies that may not be particularly necessary for the website to function and is used specifically to collect user personal data via analytics, ads, other embedded contents are termed as non-necessary cookies. It is mandatory to procure user consent prior to running these cookies on your website.