¿Hace hoy falta transcodificar?

Cada día son más los codecs(*) que generan las diferentes cámaras y los flujos de trabajo disponibles son muchos y muy variados. Los principales editores ya no solo trabajan en sus codecs nativos sino que aceptan de todo tipo  aunque digamos que aún siguen optimizados para algunos de ellos.  Recientemente los editores tienen la habilidad incluso de trabajar en resoluciones de hasta 4k como tras la nueva actualización de Media Composer de Avid. También algunas cámaras entregan a la vez que los formatos más pesados un proxy(*) con el que poder editar. Además cuando cargamos el material en alta resolución, los diferentes editores permiten hacer playback en resoluciones menores.  ¿Necesitamos  entonces transcodificar?

 

Screen Shot 2015-01-26 at 18.06.23 Jesus Haro, Director de fotografía, formador y Director Técnico de OUTLABS, empresa de nueva creación especializada en flujos de trabajo en el set: Videoasistencia,  Manejo de datos, Calibración  y Color Live, todo dentro de un servicio integral.  Outllabs tiene también programas de formación y certificación para técnicos a través de diversas instituciones docentes y ha creado un programa de participación y agendamiento para técnicos que quieran formar parte de un selecto grupo de especialistas en el manejo de video y datos en el set. Por otro lado OUTLABS en su compromiso de además de ser consultoría proporcionar la mejor tecnología es distribuidor oficial para latinoamérica de la marca de almacenamiento Gtech y tiene acuerdos sobre licencias y formación con marcas como Pomfort o Imagine Products que distribuyen productos tan útiles como el software Live Grade, Silverstack o Shotputpro, tan inmensamente útiles en el set.

email: jesus@outlabs.net

 

¿HACE HOY FALTA TRANSCODIFICAR?

Veamos primero lo que es Transcodificar:

1. Convertir material de rodaje de un codec a otro
2. Convertir formatos
3. Ajustar parámetros

Visto ésto, ¿necesitamos transcodificar cuando rodamos?

La respuesta no es nada simple y hay que tener varias cosas en consideración. Primero ¿para qué es la transcodificación?

1. Para evaluar
2. Para editar

Como decidimos entonces?

1. Para evaluar:
Evaluar implica necesariamente que es necesario un codec que se pueda leer en casi cualquier reproductor en los ordenadores de diferentes miembros del equipo que tienen una responsabilidad en el proceso de evaluación.
Además significa necesariamente un tamaño lo más pequeño posible pero con calidad aceptable por varias razones: Primero porque no queremos abarrotar de material el ordenador de quien tiene que evaluar, segundo porque por razones de piratería no queremos archivos del mismo tamaño que el original o que pueda servir para editar de modo pirata otra versión, y tercero y muy importante porque la mayoría de las veces está implicado para poder evaluar un proceso de subida a redes privadas de internet y es necesario optimizar ese archivo.
Además para estos procesos de evaluación se suele incorporar al archivo de video marcas de agua(*) que impidan que sea usado el archivo con fines ilícitos y para identificar a la persona que recibe el archivo así como la propiedad el mismo.

2. Para editar:

Tres opciones:

– Usar el material (footage)  Nativo (Nativo es lo que graba la tarjeta de cámara)
– Transodificar a un codec intermdedio
– Transcodificar a un proxy

Si vamos en nativo usamos el footage original, sin transcodificar, así que no se añade espacio adicional de almacenamiento en un flujo simple y sin potencial degradación de calidad.

Screen Shot 2015-01-26 at 18.21.16

 

Pero puede suceder:

1. que el software de edición no soporte el archivo nativo
2. que el archivo nativo es demasiado pesado o demanda muchos recursos de la máquina (pensemos que en el caso de una película rodada en RAW 2k (*) con varias cámaras podemos llegar mínimo a unos 50TB de brutos a lo que añadimos la dificultad de trabajar  debayerizando (*) el archivo RAW)

Ambas son razones de peso para transcodificar: En el primer caso debemos pasarnos a un codec intermedio preservando la calidad del archivo nativo siendo más sencillo trabajar: por ejemplo, Pro res y DNxHD para FC y Avid.
Screen Shot 2015-01-17 at 20.40.21En el segundo caso, transcodificamos a un proxy, una versión de menor calidad para reducir  los problemas con el performance de nuestra máquina:   Ello nos obligará a trabajar de modo off line (*) y a hacer un relink final o conformado (*) con el material original.

Cuando se trata de material RAW en cámara, la opción off line sigue siendo la mejor solución para sacarle todo el partido a ese tipo de archivos.  RAW es el mejor amigo cuando se trata de preservar la integridad del material original y tener el máximo de versatilidad en post, pero puede ser una pesadilla cuando hay que tener flujos de trabajo más sencillos ya que se necesitan generalmente transcodificaciones a material proxy para poder trabajar.

Sin embargo con Adobe Premiere hay un flujo de trabajo nativo en RAW que permite importar y manipular los parámetros nativos. En Premiere podemos  cargar y trabajar con archivos Cinema DNG (*) originales de cámara. Aunque si le añadimos efectos o simplemente disolvencias o color comenzaremos a relentizar los procesos y el playbak, con lo que a pesar de esa capacidad ofrecida por el fabricante, lo mejor es transcodificar a un proxy.

Transcodificar a archivos menores tipo Pro Res o DNxHD sobre todo cuando se trata de ficción para TV o largometraje sigue siendo una opción real que nos ahorrará tiempo, espacio, poder de cálculo de la máquina y posibles fallos cuando la cantidad de material que tienen que manejar aumenta considerablemente con los días. También puede ser que sean esos codecs los proporcionados por las cámaras en el rodaje, lo que algunos fabricantes llaman DTE (Direct to Edit, directo para edición), aunque sin embargo, como la demanda de resolución en rodaje  es cada vez mayor, estos archivos,  aunque comprimidos, se están haciendo cada vez más pesados y conviene trabajar con un proxy.

También algunos codecs como el H264 (*) aunque reducen considerablemente le peso del material relentizarán la máquina considerablemente así que es mejor transcodificar.

En el pasado el timeline en Avid estaba limitado a HD lo que nunca fue un problema ya que se han venido usando flujos de trabajo con proxies para la edición offline. Estas Navidades han traído el regalo de poder trabajar de modo nativo en timelines hasta 4k para poder terminar en esta resolución y no tener que recurrir a otro tipo de herramientas para ello. Sin embargo, estas nuevas resoluciones llevan las máquinas hasta sus límites e insistimos que una cosa es la demostración de un proceso posible y otra muy diferente trabajar con grandes cantidades de material en un rodaje audiovisual de más de más de un día.

El caso de EPIC y su codec particular en 4k-6k hace que sea necesario una transcodificación para poder manejarnos con ese material que aunque no es tan pesado porque va comprimido, es un material que por esa misma razón requiere un proceso muy intensivo de máquina para poderlo mostrar en su resolución nativa.

Lo mismo o similar ocurre con formats como el XAVC (*)  4k que se ha venido probando y se ha validado como un formato robusto y eficiente que se puede usar en muy diversas plataformas de montaje o color y Sony está muy comprometido con sus codecs aunque su manejo sigue requiriendo un trabajo muy intensivo de máquina.  Para evitar esto en flujos de trabajo de alta resolución, Sony  ha incorporado recientemente el flujo de trabajo nativo en Prores (*) o DNxHD (*) muy demandado por la Industria tanto en la F5 como en la F55 aunque es una actualización de software con un coste. Otra opción puede ser un grabador externo de otro fabricante que grabe en estos codecs intermedios.  Estas cámaras también tienen todo lujo de combinaciones que permiten la grabación de dos formatos al mismo tiempo, uno de ellos a modo de proxy.

Por otro lado hay otra consideración para decidir si se ha de transocodificar  o no ademas de las ya mencionadas: necesidad de evaluar, de añadir watermarks  (*) y  de editar de modo que se pueda trabajar de modo realista con una máquina. Se trata del color para los Dailies (*) .

Los dailies sirven a dos motivos:

1. El primero la necesidad de evaluar adecuadamente
2. proporcionar un material para comenzar el montaje.

Screen Shot 2015-01-26 at 18.06.34Esa necesidad de evaluar supone proporcionar el mejor material posible y con una corrección de color que responda a la intención predefinida por el director de fotografía en el set. Ese material ha de ser además ecualizado antes de transcodificar para que cuando sea editado no haya saltos sustanciales y el montaje fluya correctamente de un plano a otro en la misma secuencia.  Cada vez más y más se evalúa un proyecto  a la salida del montaje, lo que se viene a llamar premáster, sobre el que aún no se ha hecho el color. Sin embargo el productor no siempre es consciente de ese hecho (aunque lo sea) y sus decisiones estarán basadas en lo que ve. Del mismo modo que habrá ido evaluando la calidad de lo rodado a partir de los dailies que le llegan por diferentes vías, o bien internet o bien discos que se le hacen llegar. Así que si se quiere respetar y evaluar correctamente la intención creativa de un producto audiovisual es mejor hacerlo sobre el material debidamente “orientado” en cuanto al color , tarea que se ha llevado a cabo en el set y que es necesario incorporar al material de dailies por medio de una transcodificación.

Screen Shot 2015-01-26 at 18.28.51

Queda entonces argumentada la necesidad en casi todos los casos de una transcodificación sobre todo en proyectos largos y en aquellos en los que la alta resolución está llevando las máquinas a sus límites. Solamente quizás los flujos de trabajo de los comerciales pueden vivir sin esa tarea ya que la cantidad de material rodado en uno o varios días es fácilmente manejable en codecs intermedios e incluso en Nativo. Además las decisiones de color pueden ir como metadatos a postproducción  y hoy incluso sin necesidad de transcodificar embebiendo el color de manera que trabajamos con lo que se ha venido en llamar  “live metadata” (*).

Y finalmente reflexionar en el caso de que la transcodificación se vea necesaria diariamente si  tenemos que transcodificar en el set, cerca del set o bien en la empresa con la que se contrate el servicio como pueda ser el caso de OUTLABS en cuyas oficinas  contamos con el equipamiento necesario sin los inconvenientes del set de rodaje.

Este es el caso de por ejemplo canales de TV que están implicados en varios productos de ficción a la vez que tienen un departamento de transcodificaciones “inhouse”, optimizando el trabajo de sus máquinas para varias producciones a la vez.

Pero si hay que transcodificar en el set, empresas como OUTLABS cuentan con equipos portables que se pueden instalar en el furgón de cámara de modo que el data manager puede ir trabajando diariamente en la custodia, manejo y transcodificación del material rodado. De hecho, hacerlo cerca del set tiene como ventajas que el productor o el director de fotografía pueden acercarse inmediatamente y verificar que lo que se está entregando es lo que ellos desean o que vieron en el set, con total garantía cuando quieran revisar un material sobre el que tengan dudas o sobre el que quieran probar correcciones de color más avanzadas.

Glosario de términos mencionados:

CODEC

Los codecs son sistemas de codificación-decodificación para comprimir la información y hacer que podamos manejarla, transportarla o almacenarla más fácilmente. Su variedad en el mercado hace también que sea una pesada carga para los no iniciados.
Códec es la abreviatura de Codificador-Decodificador y describe una especificación desarrollada en software, hardware o una combinación de ambos, capaz de transformar un archivo con un flujo de datos (stream) o una señal en otra diferente. Los códecs pueden codificar la señal (a menudo para la transmisión, el almacenaje o el cifrado) y recuperarlo o descifrarlo del mismo modo para la reproducción o la manipulación en un formato más apropiado para estas operaciones. Los códecs son usados a menudo en situaciones en las que una determinada dosis de compresión es necesaria para poder manejar los flujos de datos necesarios para transmitir una determinada información sobre todo cuando se trata de imágenes en movimiento de alta calidad. La información de video hace que determinados ordenadores tengan problemas con su manejo y no solo ellos, sino la lectura y grabación desde discos duros de esa información. Esta es la razón por la que se recurre a estos códecs. ”

PROXY

Viene de aproximación (approximation). También significa substituto de algo. En inglés significa “representante”, es decir, que actúa en lugar de otro con autorización. Se utiliza para aquellos codecs que pesan menos, que son reflejo del archivo original pero de menor calidad,  y que se usan para trabajar “off line”.

OFF LINE

Es el proceso por el cual iniciamos determinadas tareas, generalmente aplicado a las tareas de montaje, de un producto audiovisual pero en una calidad menor a la que luego tendrá el producto terminado en términos de resolución y color.
Se utiliza esta técnica para poder trabajar con materiales  que consuman menos recursos de máquina y almacenamiento de manera que el proceso se haga de un modo más rápido y eficaz.

CONFORMADO

Si usamos un proceso offline, la labor que necesariamente tendrá lugar después es lo que se conoce como CONFORMADO, que supone re-enlazar desde una línea de tiempos donde el material es un proxy el material original de cámara con el que finalmente se quiere finalizar el proyecto.

Screen Shot 2015-01-19 at 15.27.46

MARCAS DE AGUA

Screen Shot 2015-01-26 at 18.33.44Sobreimpresiones de texto o imagen sobre nuestro footage que contiene una información con el objeto de establecer la propiedad o a quien fue dirigido este archivo de manera que queda protegido contra la piratería ya que el archivo no se ve limpio como fue concebido.

RAW

Raw es la captura de la información de los valores de cada pixel en el lugar concreto del sensor sin ningún tipo de procesamiento posterior. Es como una fotografía de lo que hay en el sensor aunque hemos de decir que no es estrictamente sin procesar porque cada fabricante tiene su propio sistema de almacenar o procesar esta información y ahí es donde puede radicar su originalidad o su know how.

DEBAYERIZAR

El concepto Raw tiene especial importancia tras la introducción de sensores CMOS tipo Bayer. Las primeras cámaras digitales usaban sensores tipo CCD en un número de tres, cada uno para un canal de color con toda la resolución posible que usa el sistema: R, G y B. La luz proveniente de la escena se separa en sus componentes rojo, verde y azul a través de un prisma dicroico y cae sobre cada uno de los tres sensores formándose una corriente de vídeo dividida en tres canales que posteriormente se combinará para formar la imagen definitiva.
Los sensores tipo Bayer, fueron  un invento en 1972 del Dr. Bryce Bayer que diseñó para Kodak este sensor, ya que no podía tener uno con todas las células sensibles que quería y se le ocurrió esta idea que hoy otros fabricantes utilizan también en sus sistemas.

Y tenemos entonces el concepto también de  DEBAYERIZAR que es una técnica que implica obtener imágenes de sensores Bayer en los que hay más sensores sensibles al verde que al rojo y al azul, y aún así el nº de sensores sensibles al verde no alcanza la resolución total que se obtiene de ese sensor. También se elige el verde para que tenga más número de sensores porque sabemos por fisiología que es el color que lleva la resolución al sistema visual humano.

Screen Shot 2015-01-19 at 08.16.23¿Cómo obtenemos una imagen completa?
Pues si queremos una imagen de alta resolución en cada canal de color, tendremos que reconstruir la información que no existe de la información adyacente, lo que se llama interpolación. Sin añadir información extra no podríamos tener la máxima resolución real, sino solo la mitad ya que es la resolución del verde. Y además las resoluciones de azul y rojo son aún menores.
Así, un patrón Bayer es en esencia una imagen monocromática en la que a cada pixel le corresponde un valor específico de color. De modo que para obtener una imagen a pleno color, esos colores han de ser reconstruidos basándose en ese patrón de datos ya que conocemos valores de color vecinos a un pixel en cuestión y usando  determinadas técnicas predictivas de interpolación muy sofisticadas podemos reconstruir la información que no existe de modo muy certero.
Así que tras esta explicación entendemos que para poder trabajar y ver una imagen RGB procedente de un sensor tipo Bayer lo primero es que la imagen ha de ser procesada y esto lleva tiempo y poder de cálculo. Este es un proceso que a veces se hace en cámara para su visionado en el set por medio de técnicas de De-bayer sencillas y que ha de hacerse posteriormente en postproducción cuando se desea trabajar con el material rodado a plena resolución de color.
En este tipo de equipos que trabajan con sensores Bayer y que entregan señales Raw de datos, la señal original pocas veces se “toca” de modo que la idea es preservar el máximo de información original como si de un negativo se tratara. Este hecho unido a la idea de que esta información ha de ser procesada, o revelada, para poder ser visualizada correctamente, ha llevado a llamar al concepto de de-bayer, Revelado Digital.

CINEMA DNG

Se trata de un formato estándar nacido del Adobe DNG, cada vez más aceptado, para almacenar los archivos RAW de cámaras digitales de fotografía. Presentado en 2010 , es un formato Raw abierto a pesar de haber sido creado en origen por Adobe, un estándar para todos que facilita la transferencia, intercambio y almacenamiento de archivos fotográficos. El DNG, como estándar abierto, se postula como una clara opción de futuro gracias a la asociación The CinemaDNG Initiative, que define este nuevo estándar para los flujos de trabajo con imágenes en movimiento.
Los archivos DNG son, aproximadamente, un 20% más pequeños que el archivo RAW correspondiente. Con lo que conlleva de reducción de espacio de almacenamiento. Y aunque existe compresión, no existe reducción de calidad alguna. El archivo se comprime sin afectar a la imagen. Además DNG puede almacenar metadatos.
Entre sus características se encuentran el hecho de que no solo sirve para empaquetar la señal de sensores de cámara tipo bayer sin ningún tipo de procesamiento añadido, sino que cualquier otro formato Raw puede ser convertido a Cinema DNG.

DNxHD

DNxHD es la abreviatura de “Digital Nonlinear Extensible High Definition”, y es un codec de alta definición que sacó al mercado Avid para reducir las necesidades de almacenamiento y ancho de banda requerido para trabajar con imágenes de alta definición. Los datos de este formato se almacenan en containers tipo MXF y también en Quick Time. Hoy puede ser además codificado en 10 bit (llevan la letra x tras el número que nos habla de la compresión. Por ejemplo DNxHD 220x)

PRO RES

Apple Pro Res es similar al DNxHD en prestaciones y propósito y ambos son codecs basados en codificaciones tipo “DCT intraframe”. Este término se refiere a codificaciones con o sin pérdidas relativas a la información contenida solo en un cuadro y que no es relativa a otros fotogramas en la secuencia de video. Los mecanismos DCT (DCT – Discrete Cosine Transform) propios también de  otros codecs, codifican la imagen dividiéndola en bloques pequeños procesando la imagen teniendo en cuenta estos bloques de modo independiente, con lo que pixeles adyacentes pueden ser codificados de modo diferente ya que atienden a reglas diferentes en cada bloque. Así, si la compresión es alta estas diferencias entre los bloques puede ser muy significativa y evidente.
Los códecs intraframe son más simples de decodificar y más rápidos que el H264 aunque no tan eficaces en la compresión. Por otro lado necesitan menos poder de cálculo. La ventaja del ProRes puede ser que se puede decodificar en casi cualquier sistema que tenga instalado el software gratuito QuickTime (player). La desventaja es que solo puede ser codificado en sistemas Mac donde esté instalado el Final Cut lo cual limita bastante su uso.   Hoy hay más acuerdos con diferentes fabricantes como Assimilate que puede generar prores en PC.

H 264

El H.264/MPEG4 es capaz de combinar una alta calidad de imagen con una compresión suficiente y alta.  Estos nuevos códecs surgieron cuando apenas nos habíamos acostumbrado al MPEG-2 con sus múltiples aplicaciones como emisión de TV satelital, terrestre digital, DVDs, formatos en cinta DV y otros. Sin embargo el MPEG-2 necesita una tasa de datos relativamente alta para una señal razonablemente decente. Y el MPG4 lo mejora considerablemente.
Así, auspiciados por una demanda de mayor calidad en anchos de banda cada vez más reducidos la comunidad técnica ha llegado a códecs más eficientes como el citado MPEG 4. Lo que hace unos años requería una tasa de datos determinada, hoy puede ser codificado con la misma calidad con una tasa mucho menor. Este códec aún continúa con la técnica de identificar para la compresión eficaz de la señal  los diferentes objetos dentro del cuadro y cómo estos objetos se mueven en una imagen.   Hoy, una versión mejorada, el H265, se prepara para los estandares de emisión web sobre banda ancha en imágenes de alta resolución 4k.

XAVC

XAVC es un códec introducido por Sony en el 2012 pero licenciado a otras empresas, a medio camino entre el MPEG2 y el MPEG4, compatible con ambos y que trae un formato de grabación de 4k ya aplicable a grabaciones cinematográficas, continuando así con el legado de códecs anteriores pero haciéndolos más funcionales. Viene empaquetado en un contenedor del tipo MXF (Material Exchange Format : los datos se han codificado en un contenedor . Son los llamados formatos “wrapeados”.  Por definición, los contenedores son un tipo de archivo usado para que vayan en combinación audio y video dentro de un solo paquete para facilitar su trasvase y almacenamiento, llevando además metadatos)

DAILIES

Por definición sería el Material y Proceso que permite ver diariamente para su valoración (normalmente a la mañana siguiente) el material rodado en una jornada de producción audiovisual, sea sobre soporte fílmico, lo cual implicará su procesado y tránsfer, o sobre datos, lo que implicaría su “revelado digital” y codificación  en un formato que pueda ser visionado y postproducido.

LIVE METADATA

Los metadatos no son otra cosa que etiquetas de diferentes tipos sobre una unidad de información o “asset” que tenemos, y lo que se ha venido en llamar “Asset Management” lo que hace es leer esas etiquetas y hacerlas visibles según las diferentes necesidades en ese momento. Las decisiones de color pueden también funcionar como etiquetas sobre los assets que solo se aplican cuando es adecuado y que pueden desactivarse en caso de que el editor quiera ver el material original . Ese concepto de activación o desactivación de matadatos es lo que se conoce como Live Metadata.  Se llaman también Descriptores de Uso, un subgrupo de metadatos descriptivos que se van añadiendo a lo largo de la vida de un asset. Hacen referencia a la creación o modificación del contenido, a su distribución, a su visionado. Este orden de metadatos puede estar relacionado con una serie de órdenes en el flujo de trabajo. También son de este tipo de metadatos las notas que un evaluador puede hacer sobre un contenido relacionadas con un determinado código de tiempo en la imagen”.

MI_PROXIMA_PELICULA_ES_DIGITAL.225x225-75Estos conceptos han sido extraidos de : Jesús Haro. “Mi Próxima Película es Digital.” S&R Editorial, 2013. iBooks. https://itunes.apple.com/es/book/mi-proxima-pelicula-es-digital/id626405571?l=en&mt=11

0 comentarios

Escribe tu comentario

¿Quieres unirte a la conversación?
Agradecemos tu participación.

Deja un comentario

Tu dirección de correo electrónico no será publicada.