Razón y Palabra Bienvenidos a Razón y Palabra.
Primera Revista Electrónica especializada en Comunicación
Sobre la Revista Contribuciones Directorio Buzón Motor de búsqueda


Junio - Julio
2005

 

Número actual
 
Números anteriores
 
Editorial
 
Sitios de Interés
 
Novedades Editoriales
 
Ediciones especiales



Proyecto Internet


Carr. Lago de Guadalupe Km. 3.5,
Atizapán de Zaragoza
Estado de México.

Tels. (52)(55) 58645613
Fax. (52)(55) 58645613

Principios y Finales en la Codificación de la Señal de Video Digital
 

Por Antonio García
Número 45

Introducción
Un mes después de la muerte de Henri Cartier-Bresson, uno de los máximos exponentes de la fotografía en blanco y negro, “ILFORD” informaba que iba a cerrar su planta de papel fotoquímico en el Reino Unido, pero mantendría su planta en Suiza de papel para impresoras de chorro de tinta. Por su parte Kodak está en plena reestructuración, cerrando algunas de sus plantas de productos para fotografía tradicional, concentrando su producción en elementos y accesorios para la tecnología digital. Que estos dos grandes gigantes se retiren del mercado fotoquímico presagia un pronto final para los haluros de plata.

Principios y finales
Nostalgias a parte, hay que admitir que la tecnología digital ha revolucionado el proceso fotográfico ofreciendo un sinfín de ventajas para todos los actores implicados. Pero el camino que ha recorrido ha sido largo, y lleno de muchas dudas a pesar de sus enormes posibilidades, sino por que la calidad final del proceso estaba muy por debajo de la fotografía fotoquímica.

En el caso del vídeo la “revolución digital” ha tenido su punto fuerte que desde el principio la calidad digital a sido superior a la analógica. El formato DVcan ya ofrecía mas líneas de resolución que el estándar del momento el Betacan SP. Para incorporarlo al sistema de edición no había más que comprar la cámara y los magnetos, conectarlos a la mesa de edición y a trabajar.

El cambio sustancial se produjo en el proceso de edición y postproducción con las posibilidades que ofrecían las ediciones no lineales basadas en ordenadores, muy caras y complejas en esos momentos, pero que cambiarían sustancialmente el concepto de montaje.

A nivel domestico el vídeo se estaba popularizando cuando irrumpió el primer formato digital doméstico el miniDV3, Que doblaba la calidad de sus predecesores (el 8mm y el VHSC) y con más calidad que los semiprofesionales (Hi8 y SVHS). Además ofrecían una salida digital para editar tu película en un ordenador.

Hoy en día, manejar vídeo digital no requiere de grandes equipos, ni de una cualificación excesiva que tenemos que agradecer a una serie de avances:

1.- Los ordenadores y sus accesorios son cada vez más rápidos. Los discos duros tienen una tasa de transferencia muy alta, las tarjetas gráficas aceleradoras se han convertido en estándar, e incorporan busesde entrada de datos con un caudal de transmisión de hasta 400Mb/seg (el “Firewire” o el “USB-2”).
2.- El software de edición es asequible al gran público, ha bajado su precio y simplificado las tareas más comunes.
3.- La popularización de las cámaras de vídeo digitales con formatos que ofrecen una alta calidad y un bajo coste.
4.- Aparición de nuevos formatos de archivos y sistemas de compresión / descompresión (codec) que optimizan el manejo de la información. Esta popularización se ha reflejado en el aumento espectacular en el uso de los archivos de video en la educaticion, en el arte, en la web, etc.

La necesidad de comprimir
La información de vídeo consta de una serie fotografías o "cuadros” que se reproducen a una velocidad constante de 25 por segundo en el sistema PAL (30 en NTSC) que al verlas secuencialmente dan la sensación de movimiento continuo. Cuando queremos manejar vídeo en un ordenador cada imagen o “frame” tiene que ser procesado en 0,04 segundos (1/25 segundos). Pongamos un ejemplo, una imagen en mapa de bits (*.BMP) de 352 x 288 pixels (tamaño utilizado en VCD) tendremos que procesar 101,376 pixels. Como la profundidad de color es de 3 bytes (1 byte por color) obtenemos un tamaño de 304,128 bytes. En su segundo hay 25 con lo que el ordenador tiene que procesar 7,5 MB por segundo de video. En vídeo profesional se utiliza una resolución de 720 x 576 pixels, lo que eleva la cifra a unos de 30 MB/segundos (sí hacemos cuentas es prácticamente lo mismo en NTSC 720x480x3x30).

Suponiendo que tuviéramos espacio suficiente para almacenar la información, la relación de cantidad de información por tiempo de proceso es excesiva incluso para los ordenadores actuales sobre todo en el proceso de captura (digitalización de imágenes analógicas) cuyos discos duros son capaces de soportar un flujo continuo entre 10 y 15 MB en la alta gama.

Se evidencia la necesidad de utilizar un sistema para bajar el flujo de datos a unos niveles aceptables que se centran en tres grandes bloques. La codificación de la señal de vídeo, la captura o digitación, los compresores de imagen final.

La señal de vídeo y su codificación
Para comprender los procesos de compresión debemos conocer un poco los sistemas de codificación de la señal de vídeo:

El R.G.B. Las siglas RGB provienen del inglés, Red (rojo), Green (verde) y Blue (azul). Se fundamenta en el principio de la síntesis aditiva del color, por la que con las diferentes combinaciones de estos tres elementos se pueden conseguir todos los demás colores y matices del espectro visible. A cada uno de estos tres canales se le asigna una profundidad de color de 8bits es decir 256 niveles a cada canal. Es un formato sin compresión con un flujo muy alto por lo que no se usa en video digital.

El YUV es la simplificación de la señal estándar en la transmisión de vídeo, que intentaba asegurar que los televisores en blanco y negro no tuvieran problemas en las emisiones a color, ni los televisores en color con las de blanco y negro y que a su vez cupiera en un canal.

Consiste en la transformación de la señal RGB en otras tres señales equivalentes (Y, U, V). Y es la luminosidad (Brillo) y para ello se utiliza el 30% de la señal de R más el 59% de la señal G y el 11% de la señal B. La señal de crominancia se forman con “U” y ”V” que sus valores se consiguen restando la señal “Y” de las señales de color “B” y “”R” respectivamente.

Y = 0,30R + 0,59G + 0,11B
U = (B-Y)
V = (R-Y)

La señal de luminancia no tiene información sobre el color y es preciso tener alguna información adicional que contribuya a restituir el color. En la matriz, además de la luminancia se obtienen, algebraicamente las señales de crominancia (tono y saturación).

Por simple suma algebraica, se pueden obtener las relaciones siguientes:

(R – Y) + Y = R
(G – Y) + Y = G
(B – Y) + Y = B

Las ventajas son evidentes, mientras en RGB cada color ocupa un ancho de banda de 5MHz., en YUV la luminancia ocupa 5MHz. Pero las componentes U y V solo ocupan 1MHz. Cada una ahorrando mas del 50% del ancho de banda.

La cámara como primer elemento de compresión
Cuando grabamos una toma con una cámara de vídeo, estamos convirtiendo una imagen proyectada en un CCD (siglas de Charge Couple Device o dispositivo de carga acoplada) en una sucesión de ceros y unos, es decir, digitalizando.

Este proceso consta de las siguientes fases:
Conversión.
Muestreo.
Cuantificación.
Codificación.

Mediante la conversión hacemos corresponder una tensión (voltaje) a la cantidad de luz que recibe cada celda del CCD. A más intensidad de luz, mas voltaje. Esta tecnología es común en los aparatos digitales y en los analógicos. (Si este voltaje se convierte en impulsos magnéticos que se registran en una cinta tendremos el fundamento de una cámara analógica).

El muestreo es el proceso mediante el cual se inspecciona la señal obtenida. Cuanto más rápida sea la toma de muestras mayor será la capacidad de apreciar las variaciones de magnitud (en este caso luz). La cuantificación consiste en asignar un valor numérico al voltaje obtenido.

El valor de todo el CCD en su conjunto es analizado por la electrónica de la cámara a dos niveles. El primero es una recodificación de la señal de video (Subsampling) y el segundo es un sistema de compresión por un CODEC basado en M-JPEG (Motion-JPEG), que genera un código binario de forma ordenada y píxel a píxel.

El "Subsampling" (submuestreo) aprovecha una característica de la visión humana que es más sensible a la luminosidad que a la crominancia. Para comprender el subsampling hay que recordar que la imagen de vídeo es entrelazada y está formada por dos campos que son explorados alternativamente, línea a línea y de izquierda a derecha empezando por la superior. El Subsampling consiste en reducir la información de color preservando intacta la luminosidad. Eso se expresa con tres números separados por dos puntos (A:B:C). La “A” representa la luminosidad (valor “Y” en YUV) las otras dos son los datos de crominancia (“UV”) pero en diferentes campos “B” serían los valores de crominancia del campo inferior (lower o B), y “C” los del campo superior (upper o A). Y significa que de cada 4 pixels que codifico de luminosidad, voy a codificar “B” de crominancia en un campo y “C” en el otro.

Vamos a verlo con un ejemplo con el 4:2:0 del formato miniDV o DVcam. Significa que de cada 4 pixels que explora la cámara del campo inferior tienen en cuenta para la formación del color de la imagen solo 2 y del otro campo ninguno (dominancia en el campo inferior). Los datos de luminosidad siempre (o casi) se tienen en cuenta todos.

El subsampling es una característica del formato. Cada formato ha adoptado un subsampling adecuado a la capacidad de procesar información que tiene el equipo. Como de la como de resultados obtenidos. Los más utilizados son “4:2:2” Reduce el muestreo del color a la mitad (calidad muy cercana a la RGB24) y reduce el flujo de datos en un 25% frente al 33% del “4:1:1” y del DVCpro (panasonic) ó 4:2:0. del Dvcam. Pero hay muchos tipos de Subsampling en YUV utilizados básicamente en digitalización de fuentes analógicas.

Entre los formatos YUV más comunes y curiosos nos encontramos:

YUV2: Equivale al 4:2:2. Se obtiene la luminosidad de cada píxel y el color de cada dos. Se obtiene una calidad muy cercana a la RGB24 con una compresión bastante buena. Se emplea en grandes producciones y cine digital.
YUV8: Se elimina por completo la información de color dejando tan sólo la luminosidad. Es la famosa escala de grises de 8 bits por píxel y 256 tonos.
YUV9: La luminosidad se toma de cada píxel, mientras que para el color se obtiene un valor medio de una matriz de 3x3 píxels.
BTYUV: Es equivalente a 4:1:1. La luminosidad de cada píxel se conserva. Para el color, se agrupan 4 píxeles por cada línea y se obtiene la media.
YUV12: Este formato es muy empleado en compresión MPEG y explica el porqué de la frecuente pixelación con flujos de datos bajos, ya que se obtiene un valor medio de luminosidad y color por cada matriz de 2x2 píxeles

Motion-JPEG o M-JPEG
Al comprimir una imagen en mapa de bits (BMP) a formato JPEG (Joint Photographic Experts Group) reducimos su tamaño entre 10 y 20 veces sin perdida de calidad aparente. Esta es la base de uno de los primeros CODECs de video profesional el “Motion-JPEG” o M-JPEG, en el que cada “frame” del video se comprime con un codec similar al JPEG basado en la transformada discreta del coseno (DCT) , obteniendo como resultado una sucesión de cuadros jpg que han sido comprimidos individualmente (compresión intraframe o dentro de cuadro).El nivel de comprensión se expresa indicando la relación entre datos sin comprimir y comprimidos (4:1) y varía según el formato pero lo normal es entre 2,5:1 y 5:1. Además tiene a su favor su sencillez para implementar el decodificador en los chips de las tarjetas de captura con un bajo coste, y en la posibilidad de definir el nivel de compresión para adaptarlo a nuestras necesidades, teniendo en cuenta que a mayor compresión mayor perdida de datos.

Entre sus defectos destaca el que cada fabricante de tarjetas digitalizadores desarrolla su versión del COCEC y el chip especial para trabajar con él, lo que limita su compatibilidad con los codecs de otros fabricantes (CODECs propietarios). Este codec es el más recomendable para digitalizar señales de video analógico.

La captura y digitalización
Estos términos se usan indistintamente para dos procesos que son diferentes, y que se resumen en conseguir que una secuencia de vídeo acabe en nuestro ordenador. Simplificando, llamaremos captura a la transferencia de imágenes contenidas en diversos soportes digitales al disco duro del ordenador. Mientras que la digitalización es el proceso de conversión de imágenes analógicas a formatos digitales. La calidad y complejidad del proceso está relacionada con el tipo de conexión empleada entre ambos componentes, que a su vez determinan el tipo de señal que se va a transportar.

El Firewire también llamado IEEE 1394 o iLink es una entrada de datos digital que es capaz da transmitir hasta 400Mb/s de forma continua. Fue diseñada como entrada de dispositivos variados (grabadoras, Discos duros, escáner, etc.) pero no logró consolidarse porque para estos dispositivos era suficiente con el USB que venía incorporado de serie en los ordenadores. El firewire se impuso como estándar de transmisión de vídeo donde realmente son aprovechadas son funciones.

El USB-2 es una evolución del USB y compatible con él. Es capaz de transmitir 440Mb/s con lo que se convierte en el gran rival del firewire. El USB-2 se está convirtiendo en un bus estándar debido principalmente a que los dispositivos USB son totalmente compatibles con el USB-2 (al revés puede haber problemas), Y es un elemento estándar en los ordenadores actuales.

Ambos buses digitales no son propiamente de captura, pues lo único que hacen es transmitir la información de la cinta (que ya es digital) al ordenador, por lo tanto todas las tarjetas de digitalización que nos ofrezcan ese puerto, nos van a dar exactamente la misma calidad que la cinta, ya sea de 650 € ó una 25 €. La diferencia de precio estará en el software que las acompaña, en las características para acelerar el renderizado de las transiciones y efectos, o si ofrecen otras entradas para digitalización analógica, pero nunca en la calidad de la imagen que captura el ordenador.

Otra de las ventajas que ofrecen estos puertos es que permiten el manejo remoto de la cámara desde el propio programa de edición, facilitando enormemente el proceso de “captura”.

Por Componentes: las tres componentes de la señal de vídeo se codifican independientemente Y, (B-Y) y (R-Y). Para ello se necesitan tres vías de conexión cada una con clavijas BNC o RCA. Proporción una calidad muy buena siendo el método de digitalización y de copia analógica profesional.

El S-VHS es un conector miniDIM de 4 pines que transporta separadamente la señal de luminancia y la de crominancia, de hay que también se llame Y/C. La primera transmite la intensidad lumínica de cada píxel mientras que la segunda le aportaría el color mezclando las componentes “U” y “V” en uno solo “C” . De esta forma las imágenes son más nítidas y el color se define mejor. Lo implementan casi todas las tarjetas de captura.

El vídeo compuesto consta de una vía en la que se ha mezclado la señal de luminancia y las de crominancia. Se transmite por una conexión RCA (normalmente amarilla) y aunque la imagen tiene poca definición y los colores se empastan proporciona una calidad más que digna para trabajos a resolución pequeña similar al VHS (350x288).

Los CODECs y tipos de compresores.
Un CODEC es un algoritmo con el cual se procesan los datos para su compresión y con el que es necesario trabajar para su restauración. Por tanto son bidireccionales (comprimen y descomprimen). Sea cual sea el CODEC que utilicemos se basa en un método de compresión de los que podemos hacer dos divisiones. Los que comprimen sin pérdida de datos y los que comprimen con pérdida. Para entendernos, los CODEC sin pérdida tratarían a cada fotograma como lo haría cualquier compresor de archivos (WinZip, Rar; etc.). Buscaría redundancias en las cadenas de datos y las sustituiría por una “clave” más pequeña.

Ej. JUAN▒QUEROL▒COME▒EL▒QUESO▒QUE▒QUIERE
JUAN#EROL▒COME▒EL#ESO#E▒#IERE

En la de abajo hemos sustituido “▒QE” por “#” y la frase es más pequeña y cuando tengamos que reconstruirla nos quedaría exactamente igual que la original. Estos métodos de compresión no se suelen utilizar en captura por que tienen todavía un caudal muy alto y genera unos archivos muy grandes (unos 3 minutos/Gb). Pero si son muy prácticos a la hora de reconvertir archivos o para exportar nuestro proyecto desde una edición “no-lineal” a disco duro, donde no sea necesaria una compresión en tiempo real. De entre estos los usados son el huffyuv, el LEAD y el Ligos Indeo. Como métodos de compresión con perdidas se emplean normalmente 2 el Motion-JPEG, ya tratado anteriormente, y el MPEG. Ojo, no confundir con el tipo de archivo “.mpg” que obviamente utiliza este método de compresión, con el método en sí, porque mucos archivos”.avi” están comprimidos en mpeg.

El MPEG (Motion Picture Experts Group)
A finales de los 90, varios fabricantes unieron esfuerzos para desarrollar un algoritmo de compresión que permitiera almacenar una secuencia de vídeo en un disco compacto normal con la calidad de un VHS. El resultado fue el formato MPEG-1 y su evolución el MPEG-2, que utiliza un conjunto de estrategias más elaborado que el M-JPEG. Los sistemas MPEG (protocolo del Motion Picture Experts Group) utilizan, además del intraframe del M-JPEG, unos algoritmos de compresión más complejos que buscan la información redundante entre cuadros próximos suprimiéndola (compresión interframe).

La diferencia que hay entre un cuadro y el siguiente en una secuencia de vídeo es escasa, por lo tanto no es necesario grabar todos los fotogramas, basta con grabar uno completo (key-frame o I-frame) y luego guardar las evoluciones de ese cuadro. Si tenemos un busto parlante delante de una pared con la cámara fija, el fondo y gran parte del comentarista no cambia de un cuadro a otro, por lo tanto se utiliza la información del cuadro anterior y sólo se graban las partes que ha cambiado (rasgos de la cara).

Un archivo MPEG está compuesto de unas secuencias cíclicas llamadas GOP (Group Of Pictures - grupo de imágenes) formada por tres tipos de cuadros. I-frame (Intraframes) también llamados “imagen-I”, “key-frames” o “cuadros internos”: Son los únicos estrictamente necesarios y la referencia sobre la que calcular los cambios, por lo tanto se graban enteros con una compresión "Intraframe”. Por defecto se graba un I-frame cada 15 cuadros. Si nuestro GOP tan sólo contara con cuadros-I tendríamos una secuencia de JPG's, el llamado Motion JPEG o MJPG (JPG en movimiento)

P-picture (Predictive frames). Los cuadros-P analizan los cambios con respecto a los cuadros I, y con otros cuadros P anteriores.

B-picture (Bidirectionally-predictive frames) los cuadros-B pueden analizar los cambios de cuadros-P anteriores y posteriores ("B" de bidireccionales) alcanzando los mayores grados de compresión.

Una secuencia GOP típica constará de 15 cuadros repartidos de la siguiente forma:I BB P BB P BB P BB P BB. La estructura de la secuencia GOP se puede grabar en la cabecera del archivo, a no ser que se produzca un cambio significativo en el medio de la cadena (por ejemplo en un cambio de plano) entonces se graba un cuadro I al principio de la toma. Es importante que los fotogramas no se graben enteros convierte a los codec MPEG en los menos idóneos para la captura, por dos motivos principalmente, primero porque comprimir un archivo ya comprimido genera uno de peor calidad y de mayor tamaño.

Se puede hacer la prueba con una imagen BMP o TIFF con varios objetos pequeños, degradados de luces, etc. La abrimos y la guardamos como “primer.jpg”con una compresión media. Abrimos el jpg resultante y lo volvemos a guardar como “segundo.jpg” utilizamos el mismo nivel de compresión. Vamos a ir más allá, volvemos a abrir “primer.jpg” y lo guardamos como “mínima.jpg”. A continuación abrimos los tres archivos creados y analizamos, y ampliamos el mismo fragmento de la imagen. A simple vista “segundo.jpg” debe tener peor calidad que “primero.jpg” pero “mínima.jpg” también pierde calidad sobre todo en las gradaciones de luz y en los pequeños detalles. Vamos a ver que ocurre con el tamaño de los archivos. Es más que probable que “segundo” sea mayor que “primero” lo que sí es seguro es que “mínima” es mucho mayor. Esta es una compresión intraframe, y que sólo se produce una vez cada 15 cuadros, y que esa degeneración de los I-frame por muy pequeña que sea va ha influir de manera decisiva en la formación de los cuadros “P” y “B”.

El segundo problema viene al editar. Y más en algunos programas de edición antiguos porque al intentar avanzar un fotograma el programa no encuentra suficiente información para completar la imagen y avanza 15, es decir al siguiente “key-frame”. Las últimas versiones de los programas más populares ya han solucionado este problema y se editan sin dificultad y con precisión “al frame”.

Actualmente se emplean tres estándares MPEG en sus versiones 1.2 y 4 (la versión 3 se descarto por dar peores resultados que la dos) y está en desarrollo la versión 7.

El MPEG-1 es un formato de compresión con perdidas de datos a un tamaño máximo de 352x 288 que es el equivalente a la calidad de las cintas VHS. La codificación se produce por software por lo que se usa en las tarjetas sintonizadoras de TV para la captura analógica y la grabación de programas a modo de VTR digital. Es el utilizado en el VCD formato de video sobre CD y como formato de vídeo para internet.

El MPEG-2 puede trabajar video a tamaño completo (760x576) y 25 (ó 30) fotogramas con dos campos cada uno por segundo. Tenemos control sobre la ratio de transferencia que es inversamente proporcional a la compresión, a ratio más alto, menor compresión, mayor tamaño, mejor calidad. Es el estándar actual de la industria del vídeo, es el usado en los DVD's, en los SVCD, y en las televisiones digitales (satélite y cable).

El MPEG-4 fue en un principio desarrollado por microsoft y lo usaban sus archivos “.asf” y “.wmv“ que no eran totalmente acordes al estándar MPEG-4. Es un estándar complejo, ya que entre sus especificaciones hay manejo de objetos 3D, síntesis de voz, implementa una librería java para la ejecución de comandos y acceso aleatorio al contenido del archivo, etc. En lo que a vídeo se refiere consigue unas tasas de compresión muy altas con una calidad excelente. Soporta vídeo entrelazado hasta una resolución de 4096 x 4096 e implementa un canal alfa nativo para manipulación de transparencias.

A nivel de compresión el codec es una versión mejorada del MPEG-2, sobre todo en la predicción de frame, con algunas características particulares. El MPEG-4 es capaz de segmentar fondo y figura, esto quiere decir que si tenemos un plano en el que aparece un fondo con objetos que se mueven delante de él, es capaz de recordar el fondo y grabar sólo los datos referentes a los objetos.

Fue un hacker francés que copió el código de Microsoft y lo puso al servicio público (a Microsoft no pareció importarle) denominándose “DivX;-)” (emoticon incluido), y que pronto se convirtió en un formato muy utilizado en internet, y en la grabación de copias de seguridad de DVDs en CDs.

El “DivX”. Este mismo grupo creó un codec totalmente nuevo (por tanto legal) y que cumplía con las especificaciones MPEG-4 que era compatible con las versiones anteriores y que mejoraba prestaciones y servicios, entre otros la digitalización en múltiples lecturas.

Este método (que actualmente se usa también en MPEG-2) consiste en hacer lecturas previas del archivo de vídeo para establecer la estructura GOP más conveniente y analizar cuales son las necesidades flujo de datos y gestionarlas, reservando mas caudal a las escenas más difíciles de comprimir.

La información se almacena en una base de datos llamada ECL (Encoder Control List o Lista de Control de Codificación) y a la hora de comprimir se gestiona el flujo de datos según las necesidades de la escena detectadas. Esta técnica produce un flujo de datos variable VBR (Variable Bit Rate) y produce una sustancial mejora del archivo final, a costa de emplear mucho más tiempo en el proceso.

El “XviD” tiene los mismos inicios que el anterior pero mantiene el código abierto lo que hace que esté en constante evolución. Es compatible con los anteriores y con unas prestaciones similares al DivX pero mucho más baratas (es gratuito).

Estoy seguro que no ha mucho tardar los codecs basados en MPEG-4 serán el próximo estándar de la industria audiovisual, Prueba de ello es que cada vez es más el número de reproductores de DVD que incorporan decodificación mpeg-4. Pero donde realmente va a desarrollar sus múltiples características es en los nuevos modelos de televisión que se están gestando.

La aplicación más evidente esta en la televisión digital (terrestre o por satélite) que se van a beneficiar de su bajo flujo de datos y elevada calidad para ofertar más canales sobre el mismo ancho de banda. Al mismo tiempo pueden ofertar programación o servicios interactivos.

También contiene todos los elementos necesarios para ser el soporte de la futura televisión en alta definición con su elevada resolución muy superior a todas las normas, y con unas capacidades de audio impresionantes suministrando multitud de canales que a su vez dispondrían de varias capas. De tal forma que sería posible grabar los instrumentos de un grupo de musical por separado y emitirlos en capas diferentes y que fuera el usuario el que hiciera la mezcla final acorde a sus preferencias y desde su propia casa.

El acceso aleatorio a la información y la posibilidad de ejecutar comandos le hace imprescindible en el video interactivo y en video bajo demanda. Y no solo del manejo del reproductor (atrás, play, pausa, stop) también como ayuda a la gestión generando información sobre que películas ha visto el cliente, en que punto de visionado se encuentra, hasta cuando tiene acceso al visionado, etc.

Transmisión de Vídeo por Internet : el “Streaming”
El Streaming consiste el visionado continuo y sin cortes de un vídeo a través de internet y desde el momento en que se requiere al servidor de origen (se pulsa el enlace). Esta definición descarta casi todos los enlaces actuales a archivos de vídeo. Cuando “picamos” en un enlace de vídeo nos aparece a los pocos segundos el interface del reproductor, pero la imagen la vemos a ráfagas más o menos largas según el vídeo se va descargando en la carpeta temporal de nuestro disco duro (memoria caché). Y eso con suerte porque en muchos casos podemos verlo entero y sin cortes pero tenemos que esperar a que este todo descargado. El Streaming consigue ese pequeño milagro adaptando la calidad del visionado a la velocidad de conexión que tiene el usuario en cada momento. Si la red está lenta el vídeo se transmite con menos calidad y si de repente la red va rápida vemos como nuestro vídeo aumenta en su calidad. Hay tres compañías desarrollando productos streaming. Microsoft con el “Windows Media Video”, Real con su “Real Video” y Apple con el “Quicktime”.

Para poder ajustar el flujo de datos de trasmisión del vídeo a las características de mi conexión se necesita que el servidor donde está alojado el vídeo tenga capacidades de servidor de vídeo y tener instalado un software que gestione esa descarga. Los archivos han de ser codificados con un codec específico . La forma de actuar de este codec es la de grabar dentro del mismo fichero el vídeo en varias resoluciones (que son definas por el usuario mediante elecciones en menús). Para poder acceder a el en streaming es necesario tener instalado el codec en el ordenador (que suelen ser gratuitos).

El Windows Media Video ha tenido mucha aceptación por que funciona con el reproductor Windows media player desde la versión 6.2 incluida el windows 2000. Utiliza las extensiones “.asf” y “wmv” para “wma” para el audio y tanto el reproductor como el codificador se pueden descargar gratis. El adobe premier y el vegas pueden exportar el proyecto en este formato.

Real Video necesita un reproductor especial “el real player” o el más reciente “real one”. Es servidor debe tener instalado el del Real Server de la cual podemos descargarnos una versión gratuita (y limitada). Para codificar los archivos necesitamos el “Real Producer” o exportarlo desde “premiere” o “el vegas video”. Utiliza las extensiones “rm” y ra” para vídeo y audio respectivamente.

Apple tiene dos alternativas de servidores web, El Darwind Streaming Server y el Quicktime Server ambos para plataformas mac. Los archivos tienen que ser reproducidos con quicktime del que existen dos versiones (tanto para Mac, windows y linux), la gratuita es el reproductor (viene incluida en los sistemas operativos de Mac), la de pago además nos ofrece la posibilidad de codificar y hacer algunos ajustes de edición.

Si empezamos el artículo con la agonizante situación de la fotografía tradicional, queremos terminarlo con su hermano mayor, el cine. El incipiente cine digital ha empezado a andar y algunos directores le están buscando sus aplicaciones y los directores de fotografía están trabajando para sacarle el máximo partido (la imagen final es un poco más contrastada). Se utilizan formatos con una estructura de componentes 4:2:2 y un flujo de datos por encima de 50Mb/s como el D9-HD, el HDCAM y el HD-5. Simplificando, el cine digital es como el cine tradicional pero en lugar de filmar sobre una película transparente se graba en una cinta de vídeo. Las ventajas son evidentes pero las vamos a recordar.

Los costes de producción son sensiblemente menores, porque nos ahorramos la película y su procesado el laboratorio. El minuto de grabación en cinta digital es sensiblemente más barato que la película y encima es reutilizable.

La fase de edición es otro de sus puntos fuertes. En el montaje tradicional se hace una copia de todo el material seleccionado (copión de montaje) y las escenas se construyen cortando y pegando (literalmente) la película en la moviola. El sonido se graba y edita digitalmente pero separado de la imagen y se incorporará al final del montaje en la “copia maestra”.Todo lo que no sea empalmar (desde un simple fundido a negro hasta la incorporación de texto) tiene que pasar por laboratorio.

En cine digital todo el proceso de montaje se hace en el ordenador tanto de imagen como de sonido, utilizando software de edición “no lineal”, donde podemos incorporar todo tipo de efectos especiales y ver el resultado final en el acto.

Una vez terminado el proceso se envía el master en vídeo a un laboratorio para que lo impresionen en película de 35mm. (cinescopado), con lo que su distribución y exhibición sigue los cauces habituales.

Al igual que en la fotografía los puristas, y Cartier-Bresson lo era, ven con recelo la llegada de la nueva tecnología, tal vez por el miedo a lo desconocido, no lo sé. Lo que si sé es que el “arte cinematográfico” se va a beneficiar de la libertar de los directores para repetir tomas, cambiar ángulos, y arriesgarse a grabar tomas que, de ser en película se lo pensarían. El abaratamiento de la producción cada vez animará a mas gente a embarcarse en proyectos, de hecho cada vez hay más directores de cortometrajes que han podido llevar su proyecto a buen puerto gracias a la tecnología digital.

No nos debe preocupar si la muerte del cine tradicional está próxima o no, al final lo importante no es la tecnología, sino para que se usa.


Antonio García Díez
Profesor Ayudante del Área de Comunicación Audiovisual de la Universidad de Extremadura, España