sábado, 2 de junio de 2007

3.3. 4. Postproducción digital y composición.

Por postproducción suele entenderse el proceso por el que se obtiene el producto audiovisual acabado a partir del material bruto obtenido en el rodaje o la grabación, así que, en sentido estricto, incluye el montaje o la edición. Para diferenciar lo que constituye dicho montaje de otros trabajos, hoy en día suele acotarse la postproducción a los procesos expuestos al comienzo del párrafo con la excepción del montaje. La manipulación creativa de las imágenes y sonidos, con adición de efectos, y los retoques finales al producto, con la integración de todos los medios que participan en él, son las tareas que se desarrollan en la postproducción.

La postproducción de vídeo es, al Igual que la edición, anterior al advenimiento de las tecnologías digitales, pero han sido éstas las que han logrado una de las mayores revoluciones técnicas y creativas dentro del mundo audiovisual en sus aplicaciones a esta área de trabajo. Antes de la llegada de lo digital, la postproducción adolecía de dos graves problemas relacionados entre sí. El primero de ellos era que la postproducción analógica, por la propia naturaleza de las señales con las que trabajaba, sufría de la pérdida de calidad de las imágenes y sonidos que participaban en dichos procesos. Cada efecto o manipulación introducía una pequeña merma en la calidad de las señales, merma que resultaba acumulativa si se aplicaban los efectos de forma secuencial y se grababan los resultados sobre soportes analógicos -pérdidas por generación-. Resultado de ello surge el segundo problema; para evitar, en lo posible, las pérdidas de calidad, los procesos analógicos debían realizarse en el menor número de pasos, o generaciones, posibles, lo que hizo que los equipos de postproducción se hicieran más y más complejos.

Complejidad y facilidad de operación, con gran flexibilidad y sin la aparición de fallos, son cuestiones que no presentan demasiada compatibilidad. Los sistemas de postproducción analógicos eran -y son- complejos y muy caros de construir, adquirir y operar, lo que se reflejaba en los costes de las producciones. La llegada de las tecnólogas digitales, y la progresiva digitalización de los equipos y procesos hicieron más flexible y barata la postproducción, y llevo a segundo término la cuestión de la degradación de las señales. La adopción de tecnología digital supuso, asimismo, la aparición de posibilidades de manipulación de la información no factibles en un entorno analógico.

La composición no es otra cosa que la posibilidad de combinar diferentes capas de vídeo que pueden manipularse individual o conjuntamente para obtener el resultado deseado. Para ello, los sistemas existentes ofrecen una serie de posibilidades o herramientas con más o menos opciones, y con diferentes niveles de aplicación y procesamiento. Los compositores comparten muchas características con los editores no lineales y, al igual que éstos, están basados en una sistema informático: suponen la evolución, o más bien la apertura de un nuevo campo que combina o conjunta el tratamiento de la imagen de vídeo en movimiento, con las herramientas hasta hace poco limitadas al diseño gráfico sobre imágenes fijas. Como en la composición se trabaja principalmente con capas también se la denomina edición vertical -por contraposición a la edición horizontal, temporal, de los editores no lineales- y en ella es primordial disponer de no linealidad vertical para poder hacer los cambios que se consideren necesarios sin necesidad de rehacer un trabajo, del mismo modo que en los editores no lineales el reorganizar una secuencia no implicaba rehacer el montaje.

El trabajo con capas, mezclas, efectos o incrustaciones de las mismas supone la creación de nuevas imágenes a partir de las originales, y que no existían previamente. Como en los editores no lineales al aplicar efectos, existen equipos de composición en los que los procesos se ralentizan cuando se trabaja con muchas capas, y esto obliga a procesar o renderizar parte del trabajo para agilizarlo, perdiendo parte de la no linealidad, que supone -stricto sensu- la visualización inmediata de cualquier cambio o manipulación aplicada. Éste es un factor importante a la hora de diferenciar los equipos de composición puesto que, si bien todos permiten un gran número de capas, si éstas han sido manipuladas con las herramientas disponibles, como corrección de color, warping, DVEs 3D,..., la cantidad de datos que el sistema debe manejar se hace enorme y sólo los más costosos ofrecen una verdadera no linealidad, ya que hay que manejar grandes anchos de banda y velocidades de proceso muy altas, para de poder cambiar cualquier tratamiento en estas capas y visualizarlo al instante.

En general, al igual que los requerimientos de hardware en cuanto a almacenamiento de imágenes en los sistemas de edición no lineal suelen ser más altos que en los compositores, en éstos suele ser habitual utilizar plataformas más potentes con capacidad multiproceso y enormes cantidades de memoria para sacar partido a entornos que requieren un gran cómputo para trabajar con capas y efectos, con cierta velocidad para adecuarse a la interacción requerida por el usuario. Una de las diferencias más importantes entre los compositores y los editores está en las herramientas, o más bien, en las posibilidades de estas herramientas. Hoy en día la mayoría de los editores incorporan algunos de los más sofisticados efectos que han ido apareciendo, lo que les dota de ciertas capacidades de postproducción, pero es en los compositores donde se implementan todas sus posibilidades. Así, el manejo de máscaras -canales alfa- toma gran relevancia en el trabajo con capas, y cuanto mayor sea el número de posibilidades con ellas, mejor y más efectivo será el resultado que se obtenga. Otras herramientas corno las incrustaciones de color -chroma key- o de luminancia, correcciones de color, estabilización,… ofrecen un inagotable abanico de posibilidades de manipulación de las imágenes. También es importante la perfecta integración de estos sistemas de composición con otros equipos que suministran imágenes en 3D -tres dimensiones-, escenarios virtuales, o gráficos, para su inclusión sin problemas en la composición como una parte más del sistema. Por ello, estos equipos deben aceptar un enorme número de formatos de imagen fija y en movimiento.

La postproducción digital, al igual que la edición, no tiene que ser un proceso necesariamente no lineal. Una de las posibilidades de trabajo consiste en utilizar técnicas heredadas de la postproducción analógica, pero utilizando equipos digitales. Esto permite utilizar equipamientos, como las controladoras de edición, que son válidas en ambos tipos de entorno, y que en el digital, permiten una postproducción sencilla y ágil con un despliegue tecnológico modesto -en términos profesionales-. El sistema de postproducción lineal básico se conoce como A/B roll, y está formado por un núcleo de edición consistente en dos magnetoscopios reproductores y un grabador gobernados por una controladora de edición -editora-, y que se diferencia de un sistema de edición puro en la inclusión de un mezclador de vídeo con capacidad para conmutar entre varias fuentes de señal y realizar efectos de transición y cortinillas, sencillas manipulaciones de color e incrustaciones -chromas, lumas y DSKs-.

Con la adición de un DVE y un sistema gráfico -tituladora y paleta gráfica, o un ordenador-, el sistema expande sus posibilidades de manipulación, aunque sigue manteniendo una filosofía de trabajo lineal: cuando un efecto ha sido grabado en cinta, un cambio supone volver a grabarlo, lo que puede alterar el conjunto del programa ya realizado. La ventaja innegable de la utilización de equipos digitales estriba en que un proceso de postproducción complejo puede realizarse en distintas etapas grabadas en cintas digitales sin que ello implique pérdidas por generación -si el número de etapas o pasos no excede de veinte, puesto que por encima de ese número de generaciones pueden comenzar a ser apreciables las pérdidas inducidas por los, inevitables, errores del sistema-.

Para trabajos de postproducción complejos la mejor opción la constituyen los sistemas de postproducción no lineales o compositores, basados normalmente en un potente ordenador. La arquitectura informática, esto es, la plataforma, en la que se basan estos sistemas suele contar con una alta velocidad de proceso -con la posibilidad de trabajar con varios procesadores-, una enorme cantidad de memoria, discos de alta capacidad y con acceso aleatorio real -normalmente en configuración RAID- e interfaces de alta velocidad -UltraWide SCSI, SDIs, FibreChannel,...-. Estas configuraciones permiten cumplir el objetivo de no linealidad en la edición vertical expuesto anteriormente.

Tradicionalmente se han empleado grandes ordenadores, siguiendo las tendencias que se mantienen hoy en día: la utilización de plataformas o sistemas cerrados, construidos específicamente para la composición y totalmente especializados en esta labor, que necesitan de otros equipos para cualquier tarea no programada, o el empleo se sistemas abiertos, basados en ordenadores de arquitectura convencional, normalmente sistemas UNIX, que cuentan con la ventaja de una mayor versatilidad que los anteriores y un coste menor. Ejemplo paradigmático de equipos de postproducción no lineal del primer tipo serían los clásicos de la empresa británica Quantel, como HAL o Henry. Éste último es un sistema integrado con muchas herramientas de edición, gran potencia de capas y una elevada y rápida capacidad de proceso. HAL, sin embargo, tiene una interfaz que parte de la paleta gráfica PaintBox e incorpora herramientas de otros sistemas. En los últimos años, Quantel ha remodelado su gama de productos y ha desarrollado la serie Q, compuesta, entre otros por las estaciones de trabajo ¡Q y eQ, con capacidad de postproducción en resolución independiente. Sistemas que funcionan en plataformas abiertas serian, por ejemplo, los Effect, Flint, Fíame o Inferno de Discreet sobre plataforma Silicon Graphics. Aunque estos sistemas resultan muy similares en cuanto a prestaciones, se distinguen por la plataforma sobre la que trabajan, y por tanto, por su velocidad de proceso. Effect corría sobre O2, Flint y Fíame sobre Octane, e Inferno, un sistema de postproducción de altísimo nivel, utilizado en cine, funciona sobre Onyx2.

En general, los diferentes sistemas tienen sus particularidades y cubren un nicho concreto en el mercado. La composición, hoy en día, es muy utilizada en el campo de la publicidad y en la televisión, siendo en estas áreas los equipos de Discreet, Avid y Quantel los más usados. Sin embargo, el aumento de la capacidad de procesamiento de otras plataformas informáticas más generalistas, los conocidos PCs y Macintosh ha hecho posible la creación de softwares de composición que corren sobre Windows NT y 2000 o sobre Mac OS, como es el caso de la nueva apuesta de Discreet para PC y Mac, Combustión, que viene a sustituir a Effect, o la propia apuesta de Apple, \ sintetizada en su FinalCut Pro, que permite la edición y postproducción desde el modesto DV hasta la HD, y que se complementa con un sistema de postproducción de gran potencia llamado Shake. Por su parte, Avid ha desarrollado el sistema Nitris que conjuga hardware y software para la edición y composición en HD.

A pesar de que las diferencias entre compositores suelen ser más acusadas que entre los sistemas de edición no lineal, es común en ellos encontrar cierta estructura modular. Las distintas operaciones que son capaces de realizar se estructuran como módulos o programas independientes, que pueden ser aplicados a cada capa de vídeo que soporte el sistema. Así, es común que cuenten con un DVE 3D, que permite manipular el material de la capa en un entorno de tres dimensiones, pudiendo trasladarse, rotarse o escalarse en tres ejes; es común que el entorno 3D permita la inclusión de un módulo de iluminación virtual, pudiendo crear diferentes tipos de luces y animarlas. Uno de los módulos más importantes de cualquier compositor es el de corrección de color, que permite manipular la colorimetría de cada capa independientemente. Los compositores suelen contar con un módulo de efectos que permite aplicar filtros al material de una capa, o a parte de él. Otro de los elementos importantes de cualquier compositor son las herramientas de incrustación, que permiten manipular la opacidad de las capas bajo diferentes parámetros, como incrustaciones por color -chromas-, por brillo o luminancia o por mascaras generadas por el propio equipo o importadas -mattes-, así como la manipulación de dichas máscaras como si de un fragmento de metraje se tratara. Un último módulo es la paleta gráfica, permite crear imágenes fijas basadas en gráficos, o textos destinados a titulación. Asimismo, es de gran importancia la existencia de un potente módulo de importación y exportación de diferentes tipos de archivos gráficos y de información de audio/video y datos de otros sistemas -editores no lineales de audio o vídeo, sistemas 3D,...- y un eficaz módulo de renderizado y salida del material final.

Algunos de estos aspectos se tratarán de manera más extensa en el siguiente tema o capítulo, dedicado expresamente a la cinematografía digital y en el que se estudiarán las herramientas de hardware y software de postproducción digital y composición de altísimo nivel que forman parte del laboratorio digital, y se analizará el flujo de trabajo que se adoptan este tipo de instalaciones.

3.3.3. El proceso de trabajo en la edición no lineal.

Tanto si el material fuente está en película como sí está en cinta de vídeo, el primer paso en cualquier sistema de edición digital es transferir estas señales a los discos del ordenador y, otro tanto, para el sonido asociado a las imágenes. Por lo general, los programas no se editan solamente a partir de material rodado, sino que incorporan material proveniente de muy diversas fuentes; el sistema no lineal debe ser capaz de incorporar todos ellos, para lo cual, algunos habrán de digitalizarse por distintos métodos. El proceso de digitalización es crucial porque de él depende la calidad del material que se utilice en la edición; las diferentes herramientas de las que provea un sistema serán las responsables de la calidad obtenida y, finalmente, del uso al que se pueda destinar -off line u on line. Los sistemas no lineales suelen emplear técnicas de compresión para optimizar la utilización de los discos magnéticos, lo que en algunos casos limita su utilización a ensayos off line de las ediciones. Una vez que el material ha sido digitalizado, se puede manipular sin pérdidas de calidad adicionales.

Dependiendo de la capacidad de almacenamiento del sistema, y de la cantidad de material que debe ser accesible han de fijarse unos parámetros de digitalización; entre ellos han de tenerse en cuenta la resolución de imagen, la frecuencia de cuadros y la compresión. Para el audio es común que se digitalice a la máxima calidad que permita el sistema, puesto que su volumen de datos es muy pequeño comparado con el de vídeo. En muchos sistemas la resolución no está fijada, son de resolución independiente; reduciendo la resolución de las imágenes, o la frecuencia de las mismas, se consigue que la capacidad del sistema aumente, aunque ello represente una merma en la calidad del material digitalizado. La utilización de distintas técnicas de compresión es habitual en los sistemas no lineales; casi todas ellas se apoyan en el uso de compresores de tipo M-JPEG que permiten drásticas reducciones de flujo de datos. En los últimos años han comenzado a introducirse compresores MPEG-2 similares a los que incorpora el Betacam SX. Para su utilización en un entorno profesional es necesario que dichos compresores sean del tipo P@ML 4:2:2. Actualmente, la calidad de imagen soportada por la mayor parte de sistemas no lineales es elevada, pudiendo utilizar relaciones de compresión de 2:1, compresión sin pérdidas, o incluso imagen sin comprimir, lo cual requiere buses de gran ancho de banda y alta velocidad de los discos.

Una vez que el material ha sido digitalizado e incorporado al proyecto de edición, se comienza el verdadero trabajo de montaje. Además de las posibilidades de edición tradicionales, el ensamble y el inserto antes mencionados, con la ventaja de la operación en un entorno no lineal, en este tipo de sistemas son habituales otras posibilidades, como el ensamble con desplazamiento, que permite insertar un nuevo fragmento de video o audio en medio del montaje sin necesidad de rehacer la secuencia, la posibilidad de trasladar clips de un lugar a otro del montaje, o copiarlos, cortarlos y pegarlos en cualquier lugar de la secuencia. Se suele comenzar editando en bruto la secuencia -rough edit- y posteriormente se depura dicha edición mediante las sustituciones pertinentes, los ajustes o trimados y la adición de efectos que incluyen encadenados, cortinillas, llaves -keys- de luminancia y crominancia, sobreimpresión de rótulos, imágenes ralentizadas,... dependiendo de las capacidades de cada sistema.

Generalmente los sistemas de edición digital permiten trabajar con un mínimo de dos capas de vídeo entre las que es posible realizar transiciones como encadenados, cortinillas. También suele haber una capa de gráficos, para textos e imágenes fijas que permiten distintos tipos de incrustaciones o llaves. Es importante hacer mención del hecho de que, al realizar algún efecto, en muchos sistemas será necesario calcular -renderizar- para mostrarlo; la información almacenada está libre de dicho efectos y el aplicarlos supone crear nuevas informaciones que inicialmente no existen. El procesado de este render consume tiempo y capacidad de almacenamiento del sistema, y es necesario recalcular cualquier variación aplicada a los efectos.

Cuando se considera terminado el montaje realizado se pasa a realizar los diferentes productos que han de obtenerse en la edición. El más importante en la actualidad, necesario si el trabajo concluido es una edición off line, es la generación de una EDL de vídeo. Existen diversos formatos de EDL con graves problemas de compatibilidad entre sí. A pesar de que algunos han llegado a ser ampliamente aceptados, como el Sony 9000 o el CMX 3600, en general no están normalizados y siempre hay que asegurarse de que la lista generada en el off line sea compatible con el sistema on line que se vaya a utilizar. La lista de edición debe estar limpia y bien estructurada, sin sobregrabaciones ni información extraña; no debe incluir referencias de material que no se haya utilizado, ni de ediciones que han quedado sobrescritas por decisiones siguientes. Las primeras EDLs sólo eran capaces de guardar códigos de tiempo para operaciones simples como cortes, mezclas, cortinillas y cambios de velocidad. Aunque hoy las EDLs más avanzadas pueden incorporar datos de matrices de conmutación, correctores de color, e incluso datos auxiliares, siguen teniendo importantes limitaciones. Los datos de un DVE, por ejemplo, ocupan mucha memoria y son muy difíciles de almacenar y recuperar. Por otro lado los sistemas de edición son muy diversos e incorporan una gran variedad de equipos de distintos fabricantes. A veces en el sistema no lineal se hace una versión off line del programa con todo el material digitalizado con compresión alta y baja calidad para ahorrar espacio en los discos de almacenamiento, usándose luego los datos de esa versión para redigitalizar sólo el material finalmente editado, realizando en el mismo sistema una versión similar del programa de calidad on line.

3,3.2. La edición no lineal en la actualidad.

Tras los diversos sistemas de edición lineal y no lineal examinados apartado anterior, hacia 1988, llegó la tercera y actual generación de sistemas de edición no lineal electrónica, la de los sistemas digitales basados en discos magnéticos o magnetoópticos. En estos sistemas es necesaria la conversión de las señales analógicas en digitales y el almacenamiento de éstas en discos de ordenador. Tras realizar los procesos de digitalización y de compresión, generalmente necesaria debido a que la cantidad de información de vídeo suele exceder la capacidad de almacenamiento, y una vez que las imágenes y el sonido están en los discos, se pueden unir y ordenar sin pérdidas de calidad adicional, y con el mismo grado de flexibilidad con que se monta la película en cine pero sin el trabajo que ello supone.

Los sistemas digitales de edición no lineal supusieron un indiscutible avance respecto a las técnicas lineales offline. Desde entonces, ha sido evidente el crecimiento en su utilización y han sido el centro de interés de la industria según iban apareciendo nuevos modelos. Ya en 1988 aparecieron en el mercado varios sistemas basados en disco, y en la actualidad hay un enorme número de equipos diferentes offline y on Une. Los métodos de edición digital no lineal cambian la naturaleza del medio en el que se almacena el material. Esta diferencia de la tercera generación es importante, ya que el sistema digital de edición es una combinación de los métodos de operación tradicionales y de avanzados procesamientos digitales, todo ello controlado desde una interfaz que simula el lugar de trabajo de un montador de películas. Los sistemas de edición no lineal basados en disco magnético intentan mejorar el acceso aleatorio a las imágenes mediante su conversión al ámbito digital. Con las señales de audio y vídeo almacenadas en disco, es posible tener acceso aleatorio con tiempos de acceso cada vez más reducidos, en torno a los 10 milisegundos, y menores. Otro objetivo buscado es solucionar el problema que representaba la inclusión en el programa ya montado de un material llegado en el último momento. Con equipos anteriores, tal inclusión necesitaba un repicado del material a cinta o laserdisc, consumiéndose demasiado tiempo en el proceso. Con los nuevos sistemas el material se transfiere en tiempo real, y como resultado, la carga de un segmento adicional de 30 segundos consume poco más de 30 segundos hasta que se puede trabajar con él. También es importante que, en los discos magnéticos, una vez terminado un proyecto el material de trabajo puede ser borrado. Las cintas de vídeo también se podían borrar, pero por la cantidad de búsquedas y rebobinados que tenían lugar, era normal que no se usaran más de dos veces.

Existen varios conceptos claves para entender la filosofía de trabajo de los sistemas de edición digital no lineal, además de los aportados por las dos primeras generaciones. El concepto de clip, heredado de la terminología cinematográfica, se ha convertido en el elemento esencial y básico de la edición digital no lineal, y en todos los sistemas se hace referencia a él con ese u otro término. El clip es un fragmento del material digitalizado que se emplea en la edición. En el montaje cinematográfico existen herramientas que se basan en el espacio -duración- que el clip ocupa, y que resultan particularmente útiles al montador; algunas de ellas han sido importadas a los sistemas no lineales.

El editor de vídeo no utiliza la información de la longitud de las tomas. El proceso de edición en vídeo es más distante, ya que no se pueden manejar físicamente las imágenes, Es por eso que el montaje de vídeo está basado en la transición y no en el clip. Las herramientas de edición basadas en la transición representan un modelo donde las tomas se pueden determinar por la longitud de su código de tiempo, y viendo cómo se realiza cada transición entre ellas. De esta manera, con los modelos basados en la transición y el clip, se han conservado tanto los métodos de trabajo del editor de vídeo como los del montador de cine.

Los clips se empalman en una película para crear una secuencia con las tomas filmadas: esta secuencia se transforma en el corte del montador. En vídeo, la edición se hace de transiciones, y el corte del editor se transforma en la cinta máster. Aunque los términos son diferentes, el concepto de secuencia representa lo mismo que suponen el corte del montador y la cinta máster. La secuencia es la sucesión de las tomas ya editadas: seria el trabajo, o la parte del trabajo, ya terminado.

La interfaz gráfica reúne la presentación gráfica de las imágenes y de las funciones del sistema: la forma en que se muestra el material, el método de búsqueda para localizar un determinado clip, y todas las herramientas y utilidades que permiten editar y transformar una gran cantidad de material en un programa. Además de las pantallas del ordenador donde se sitúa la interfaz de usuario del sistema, generalmente se añade un monitor de vídeo para visualizar el resultado de la edición, tal y como será grabada, y a veces también se añade un conjunto de monitor forma de onda y vectorscopio para controlar los niveles y calidad de la señal de vídeo.

Un sistema bien diseñado debe tener una interfaz que solucione fácilmente todas las necesidades habituales de la edición. Una máquina puede ser más potente, y un software ofrecer mejores prestaciones, pero si la puerta por la que se accede a esas prestaciones y a esa potencia, o sea, la interfaz de usuario, es más difícil de abrir, se recurrirá a otros equipos. Los sistemas digitales no lineales han de tener en cuenta su operatividad. Si la interfaz es verdaderamente intuitiva, poco importa la experiencia en el oficio de editar, ya que el sistema tendrá un aprendizaje y operación fáciles aun para personas no acostumbradas al montaje. Es inevitable que la interfaz de usuario se convierta en el aspecto más importante a tener en cuenta en la evaluación de un sistema.

Es importante juzgar cualquier interfaz de sistema desde una perspectiva global. Una interfaz de usuario se ha de ver como algo más que una manera de presentar botones en la pantalla del ordenador. Lo que se quiere decir cuando se comenta que una interfaz es buena, es que el sistema no sólo está presentado de una manera fácil de entender, sino que también se opera de una forma sencilla. Las ¡nterfaces, tanto las antiguas basadas en textos como si lo están en gráficos, hacen referencia a los métodos de trabajo del equipo ya lo intuitiva que sea su forma de operar, porque funcione de una forma lógica, tal como piensa la mente humana. La verdadera prueba será siempre ver si el sistema se puede manejar sin ninguna referencia ni documentación.

Aunque las ¡interfaces de los sistemas de edición digitales pueden diferir considerablemente entre sí, generalmente hay, de alguna manera, tres grandes áreas representadas:

Un área o ventana de presentación del material.

Un área donde se lleva a cabo la edición y la visualización de la misma.

Un área de línea de tiempos o timeline del trabajo efectuado, donde se representa gráficamente la secuencia editada.

El área de presentación del material muestra una representación de los ficheros de vídeo y audio almacenados en los discos e incorporados a la edición. Estas tomas pueden imaginarse como punteros que indican dónde está almacenado el material original. Cuando el editor ordena que sea reproducida una toma, el sistema la asocia a uno o más ficheros dependiendo de si tiene pistas de vídeo y audio, y así puede ser vista y oída en reproducción desde el disco. La presentación y ordenación del material se puede hacer de varias formas. La manera en que se lleve a cabo condicionará la visión que el editor tenga de las tomas a utilizar: si el metraje es fácil de identificar y localizar, se utilizará menos tiempo en buscar la toma correcta. Los sistemas digitales disponen de potentes funciones de registro y bases de datos que permiten al sistema localizar el material en la base de datos; una vez incorporados a la edición los clips se pueden ordenar por fechas, por duración, por orden alfabético, o por otros parámetros. El material puede presentarse bajo diferentes formas: como títulos o a través de una interfaz basada en ¡conos, por un cuadro identificativo de cada clip, pudiendo verse varios clips a la vez en ventanas distintas.

Pueden establecerse varios tipos de diseño para representar el área efectiva donde se realizan las operaciones de edición, donde se ubican las herramientas de la misma y se visualiza el material. Los sistemas suelen contar con una ventana de edición principal que sirve como monitor de destino donde se muestra el programa editado. Este criterio conserva la visión de la consola de montaje de película, donde se utiliza una pantalla y los rollos de suministro y recogida del material se colocan a ambos lados de la misma. También es normal contar con otra ventana de visualización del material fuente, lo que se ajusta a la filosofía de grabación de la edición en cinta de vídeo, con monitor para el magnetoscopio reproductor y el grabador.

La manera en que, mediante software, se simula la mesa de montaje de cine o la edición de vídeo, es algo que puede variar mucho entre sistemas aunque la filosofía de trabajo sea la misma. Las interfaces pueden mostrar distintas formas de realizar las ediciones, pero las herramientas son iguales. Las interfaces de edición actuales suelen visuales y altamente intuitivas, y se caracterizan por imágenes e iconos que representan las principales operaciones y herramientas empleadas. Son comunes los menús desplegables que permiten acceder a las funciones de edición por escrito. La mayor parte de los interfaces combinan los métodos comentados y suelen dar varias opciones para llevar a cabo una misma tarea, aunque generalmente la edición se realiza llevando el material de un lado a otro de la pantalla, lo que permite trabajar de forma rápida y sencilla.

La línea de tiempos o timeline se muestra normalmente en todos los sistemas en alguna parte de los monitores, como una ventana que contiene una representación gráfica de la secuencia editada con una escala de tiempos, a través de una forma gráfica de cajas de los fragmentos de vídeo o audio, o con una imagen identificativa. Las pistas de sonido del también se ven en la pantalla y, gracias a un indicador móvil -cursor- que se desplaza a lo largo del el timeline se puede conocer qué cuadro o segmento se reproduce en cada momento, y puede mostrarse una visión completa del programa o una parte especifica del mismo. Toda la información visual se adapta a las operaciones que el editor realiza con la secuencia. En la línea de tiempos se puede localizar cualquier elemento de la edición, cambiando la estructura del timeline durante esa parte del programa. La edición digital no lineal permite editar secuencias basándose en la línea de tiempos, que trata simultáneamente clips y transiciones con una manipulación directa. Los sistemas actuales han roto con métodos anteriores, en un intento de crear una forma nueva de combinar espacio y tiempo.

3.3.1. Primeros sistemas de edición no lineal.

A finales de los años '60 y principios de los 70, comenzaron a surgir tecnologías que podían utilizarse para intentar incorporar las herramientas del montaje en cine al entorno de la cinta de vídeo. El primer sistema de edición no lineal electrónica fue un sistema híbrido que utilizaba cinta de vídeo, un ordenador, y técnicas de grabación analógica; era único y fue bastante revolucionario. Se trataba del CMX 600 y fue presentado en 1972. La película era transferida a cinta de vídeo de 2", y luego a unidades de disco de ordenador -de seis a doce- de 40 MB cada uno, una enorme capacidad para la época, modificados para almacenar vídeo analógico,. Este sistema se denomina híbrido puesto que no se puede acomodar en ninguna de las tres generaciones de editores no lineales que ha habido. El CMX 600 fue innovador y ofrecía acceso aleatorio a todos los cuadros almacenados en los discos, aunque sin una gran calidad de imagen. El sistema tenía gran limitación en la capacidad de proceso, y una considerable pérdida de calidad tras sucesivas generaciones. Podía almacenar 5 minutos de vídeo en cada disco sumando un total de una hora entre los doce discos.

Durante mucho tiempo no hubo avances en la edición no lineal, pero el paso estaba dado y la constante presión para reducir los tiempos en la elaboración de los programas hizo que se siguiera experimentando para finalmente surgir una serie de sistemas que intentaban unir los aspectos no lineales del montaje de cine con la automaticidad de la edición en cinta de vídeo. Estos sistemas constituyeron la primera generación de sistemas no lineales y estaban basados en cinta de vídeo: eran no lineales pero no disponían de acceso aleatorio. Debido a que utilizaban cintas de vídeo, el acceso al material seguía siendo secuencial.

A principios de 1984 se incorporaron las prestaciones de la edición no lineal a la edición electrónica off-line sobre cinta. El principal objetivo era ofrecer la misma flexibilidad creativa a la que el montador de cine y el cliente estaban acostumbrados en los proyectos que se montaban en película. Para el editor, la edición no lineal off-line en cinta de vídeo suponía una oportunidad para experimentar ideas y hacer cambios, sin preocuparse de las pérdidas por generación o el manejo de listas de edición. Para el cliente, ofrecía la posibilidad de hacer cambios fácilmente sin la preocupación sobre su dificultad y su coste.

En 1984 apareció el Montage Picture Processor. Después aparecieron Ediflex, en 1985, y Touchvision en 1986. Cada sistema ofrecía un entorno de usuario y un método de trabajo diferente, pero con la misma filosofía. Del método de edición en vídeo, esta primera generación de sistemas conservó la posibilidad de ver algunos efectos visuales. El objetivo principal de los sistemas basados en cinta es obtener una edición no lineal mediante el uso de múltiples máquinas. El fundamento es simple: si se tiene una cinta que contiene muchas tomas a las que es necesario acceder rápidamente, se pueden hacer varias copias de esa cinta. Si las copias se introducen en varias máquinas a diferentes, se puede reproducir una secuencia de tomas más rápidamente que con una sola cinta y un solo magnetoscopio. Una secuencia se crea asignando una toma diferente a cada máquina y reproduciendo la toma en el orden deseado.

El material se seguirá buscando secuencialmente, pero se reducirá el tiempo de acceso al mismo: mientras una máquina reproduce una toma, otras están buscando el material que se reproducirá en las siguientes tomas. De esta forma, la edición puede seguir de manera no secuencial. No se realiza la edición en el orden definitivo hasta que el editor esté satisfecho con el orden de tomas elegido.

Todos los sistemas utilizaban un conjunto de magnetoscopios que, según el sistema utilizado, podían ser de formato diferente. Montage y Ediflex usaban cintas VHS -1/2"-, mientras que Touchvision inicialmente utilizó VHS pero también se ofrecía en cinta de 3/4". El proceso de edición comenzaba con una transferencia a cinta de vídeo o repicado del material original grabado, o telecinado del conjunto de rollos filmados. El material en esta cinta se copiaba luego a varias cintas de video. Los sistemas ofrecían de 6 a 24 máquinas, siendo 12 una combinación habitual. La teoría de operación es simple: teniendo idéntico material en todas las máquinas, sólo se alteran las órdenes dadas a cada una de ellas. Supóngase un sistema que está configurado por 12 máquinas VHS y se está creando una secuencia con 10 tornas. Como el mismo material está duplicado en cada cinta, el sistema puede fácilmente encontrar la primera toma en la máquina 1, la segunda en la máquina 2, y así sucesivamente. Después de que el editor haya elegido los puntos de entrada de cada toma, las diez máquinas trabajarán en serie, reproduciendo desde sus respectivos puntos de entrada; cada toma es entonces leída en su momento y la secuencia puede ser visionada completamente. Como el número de máquinas empleado era limitado podían surgir problemas de colapso o trafficking, con el resultado de ver la pantalla en negro indicando el lugar donde debería estar la toma a la que los magnetoscopios no llegaban. Añadiendo más máquinas se disminuye la posibilidad, o la frecuencia, de los colapsos.

Todos los sistemas de edición no lineal han hecho frente a los problemas de colapsos. Estos problemas disminuyen según mejora el tiempo de acceso de las diferentes generaciones de sistemas. Si una toma o segmento de la lista no se puede buscar a tiempo -no está disponible cuando se necesita-, la toma no puede ser reproducida. Como resultado, la secuencia no se puede ver entera. Los sistemas no lineales basados en cinta o en videodisco disponían del mismo material en varios reproductores, pero cuando las duraciones de las tomas sucesivas eran cortas, podía haber muchos problemas de este tipo, que están casi superados en los sistemas actuales basados en disco magnético. En general todos los equipos utilizan un software que controla anticipadamente las posiciones de la lista que se van a necesitar, y gestiona la forma en que sea posible la reproducción de la secuencia completa sin problemas.

La segunda generación de sistemas de edición no lineal utilizaba videodiscos o laserdiscs. Se intentaba eliminar los problemas de tiempo de acceso a las imágenes, así como los colapsos inherentes a los sistemas basados en cinta. Los fabricantes decidieron utilizar las mejoras que proporcionaba la tecnología del laserdisc. La imagen no se deteriora en los discos ópticos, a diferencia de la cinta de vídeo, y todos los sistemas existentes proporcionaban acceso aleatorio con tiempos de acceso que variaban desde 900 milisegundos hasta un máximo de dos segundos.

Los sistemas no lineales basados en videodisco compartían muchas de las características de la generación de sistemas basados en cinta. De la misma forma que se lograba una edición no lineal mediante la utilización de múltiples magnetoscopios, esta segunda generación proporcionaba acceso aleatorio disponiendo del mismo material en múltiples discos ópticos de vídeo, que ofrecían un rápido acceso al material.

Antes de la incorporación del laserdisc, los sistemas de edición no lineal no tenían la posibilidad de reproducir imágenes a velocidad distinta de la normal. Con los discos CAV, los editores podían utilizar velocidad lenta, rápida, congelación de imágenes y movimiento inverso. En lo referente a la calidad de la imagen, los discos ópticos ofrecen mejor calidad que las cintas de video, y debido a la diferencia del sistema, se implementaron herramientas para trabajar con las pistas de audio bastante potentes respecto a sistemas anteriores. Por otro lado, la utilización de la línea de tiempos comenzó con la segunda generación, y constituyó un avance muy importante en la interacción visual del usuario con el sistema, habiéndose llevado luego a equipos posteriores. La generación basada en laserdisc aportó nuevas prestaciones que permitían nuevos enfoques del trabajo.

3.3. La edición no lineal y la composición.

El desarrollo de los sistemas no lineales comenzó en los años 70. Ha habido tres generaciones o enfoques. El primero se basó en cinta de vídeo, el segundo en videodisco o laserdisc, y el tercero y más reciente, en el almacenamiento de las imágenes en disco magnético de ordenador. Cada sistema es diferente y la tecnología utilizada es distinta, pero los objetivos perseguidos son similares en todos los casos: obtener acceso aleatorio y rápido al material, lograr una edición no secuencial, poder realizar cambios fácilmente, y obtener productos que reduzcan los tiempos de ejecución. En cualquiera de los sistemas el montaje comienza con una transferencia del material original al medio de almacenamiento utilizado, con el objetivo de mejorar el acceso aleatorio.

Los sistemas de edición electrónica no lineales, con independencia de la generación a la que pertenezcan, comparten todos el concepto de grabación virtual: el visionado de una secuencia editada da la impresión de que la secuencia completa ha sido grabada y ahora se está reproduciendo, pero lo que realmente ocurre es una reproducción sucesiva y controlada de varias tomas, de acuerdo a una lista de reproducción.

La lista de reproducción o playlist es el elemento más importante creado durante la sesión de edición no lineal. Se utiliza para visualizar la edición y crear la EDL y la copia de visionado, y supone que el proceso de grabación en los sistemas de edición no lineal es un proceso de memorización de los registros de cada uno de los segmentos a utilizar -puntos de entrada, salida,...-. Una lista de reproducción determina qué tomas se han de reproducir y en qué orden, siendo la base de la grabación virtual. El orden de las tomas, la creación de secuencias, la realización de acciones sobre ellas y la obtención del programa a partir de dichas acciones, es todo un proceso de almacenamiento de los datos que componen la lista de reproducción. La lista de reproducción o simplemente indica la forma en que se deberá ordenar el material; cuando la secuencia necesita reordenarse o es necesario ajustar los puntos de entrada y salida, la lista se modifica fácilmente. Los cambios realizados hacen que la secuencia se reproduzca en un nuevo orden.

3.2.1.3. Formatos de grabación óptica y en disco.

Formato DVDCAM: Formato de Hitachi basado en discos DVD-RAM de 8 centímetros de diámetro y compresión MPEG-2, 4:2:0 y 8 bits. Cada disco es capaz de almacenar 1,3 GB en cada cara lo que se traduce en una media hora de vídeo por cada cara. Hay una opción para grabar a menor calidad aumentando el tiempo de vídeo almacenado a dos horas. El DVD-RAM no es compatible con DVDs domésticos o con unidades DVD-ROM.

Formato XDCam: es el último de los formatos de SONY para trabajos ENG y producción broadcast de definición estándar. Se trata de un formato basado en disco óptico derivado del conocido DVD que emplea una tecnología de láser azul para aumentar la calidad de registro y la capacidad de almacenamiento y que se conoce como Professional Disc. Puede grabar en archivos de formato DVCam ó IMX con sus compresiones específicas DV ó 4:2:2P@ML, respectivamente, pudiendo almacenar hasta 85 minutos por disco -en formato DVCam-.

Emplea cartuchos de disco óptico de 12 centímetros denominados Professional Disc.

Es de esperar que estas dificultades se superen en los próximos años. 3.2.1.4. Interfaces de conexión digital.

Para transferir información entre equipos de vídeo digital la mejor opción consiste en realizar la conexión mediante el empleo, también en este caso, de tecnología digital. No resulta de gran utilidad contar con extraordinarios equipos digitales, libres de pérdidas por generación de copia y con sofisticados sistemas de codificación, detección y corrección de errores si cada vez que sea necesaria una transferencia de datos deben ser convertidos a formato analógico, con la posterior vuelta a forma digital tras otro proceso de conversión. Al no ser la conversión A/D un proceso transparente y producirse en él ciertas pérdidas o alteraciones de la información, una cadena de equipos y procesos digitales comunicada mediante interfaces analógicos no supone, en verdad, ninguna ventaja real.

Se hace necesario, pues, contar con un sistema digital, sencillo y fiable, para la interconexión de equipos de vídeo digital, y tal función es la desempeñada por el SDI. El interfaz digital serie fue desarrollado a partir del estándar ITU-R BT.601 para la transferencia de los grandes flujos de datos previstos en la norma, incluyendo audio -en forma embebida-, códigos de control o de tiempo y otras informaciones; la conexión se realiza mediante cable coaxial estándar, con terminales BNC comunes en todos los equipos de vídeo. El SDI está previsto para señales ITU 601 sin comprimir, con un flujo de hasta 270 Mb/s, pero existen otras versiones para los formatos de grabación que emplean diferentes técnicas de compresión: el SDDI es un SDI adaptado al uso de señales comprimidas con MPEG-2 y se emplea en Betacam SX ye IMX, con lo que es posible la comunicación entre equipos, discos duros y sistemas NLE a velocidades superiores a las de reproducción normal, empleando siempre informaciones digitales, o el interfaz QSDI -IEEE-1394- empleado en algunos formatos DV que permite la duplicación de la cinta a cuatro veces la velocidad normal, mientras que la búsqueda con imágenes reconocibles se puede hacer a 32 veces dicha velocidad. En alta definición debe emplearse un interfaz de mayor ancho de banda que el necesario en definición estándar, por lo que se ha desarrollado el HD-SDI, que no es otra cosa que un SDI dual que funciona en paralelo.

3.2.1.2.Formatos domésticos de grabación magnética.

Formato Micro MV: sistema digital doméstico de Sony con muestreo 4:2:0 a 8 bits y compresión MPEG-2. Su flujo de datos es de 12 Mbps Aunque inicialmente su principal ventaja es el reducido tamaño de las cintas, el formato Mini DV tiene el mismo tamaño de cinta pero con mejores prestaciones de imagen -mayor flujo de datos-.

Formato Digital 8: se trata de otro formato de Sony introducido en su momento para que el mercado doméstico pudiese contar con un formato de transición del HÍ8 analógico a un sistema digital retrocompatible. El Digital 8 emplea un muestreo 4:2:0 a 8 bits con compresión DCT 5:1 y un flujo de 25 Mbps sobre cintas de 8 mm. con una velocidad de 2,8 cm/s. Se trata de un formato idéntico en prestaciones al DV / MiniDV pero con un tamaño de cinta mayor.