Así, mientras que el cine puede considerarse un medio de registro secuencial, en tanto el movimiento se reconstruye por la yuxtaposición de una secuencia de imágenes individuales que tienen una coherencia temporal interna puesto que cada una de ellas se obtiene por una exposición casi simultánea de toda el área de imagen, aunque dichas imágenes difieren entre sí al tomarse a intervalos de tiempo, la imagen electrónica en movimiento puede considerarse doblemente secuencial, puesto que a la exposición sucesiva de distintas imágenes o cuadros ha de sumarse el hecho de que cada una de ellas representa, en el fondo, un conjunto de tiempos de exposición diferentes, fruto de la técnica de exploración empleada que supone que, entre el comienzo y el final de cada cuadro existe una ligera diferencia de tiempo y una pérdida de la coherencia temporal al representar cada punto de la imagen un instante diferente.
A esta doble secuencialidad de la imagen electrónica ha de sumarse el hecho de que, debido a las características de persistencia de la visión humana, la reproducción del movimiento con una fidelidad aceptable puede lograrse con una frecuencia de imagen relativamente baja, pero no ocurre lo mismo con la consistencia luminosa de dichas imágenes, que al representarse en un kinescopio tienden a manifestar una fluctuación en su curva de luz, o flicker, tanto mayor cuanto más grande sea el área de imagen, su luminosidad media y cuanto más baja sea la frecuencia de actualización de la misma. Así, mientras que para una buena reconstrucción del movimiento bastan frecuencias de imagen superiores a 20 hertzios, para la eliminación de la fluctuación subsiguiente pueden ser necesarias frecuencias de destello de 40 hertzios o más.
En la cinematografía sobre soporte fotoquímico, la supresión del fenómeno de fluctuación de la imagen en el visionado es tan simple como combinar dos frecuencias diferentes, una baja, conducente a la reconstrucción del movimiento, y otra más alta, cuya finalidad es la eliminación de la fluctuación luminosa: la representación del movimiento se actualiza con una frecuencia de cambio de entre 24 y 30 hertzios, mientras que la frecuencia de destellos suele ser del doble, entre 48 y 60, por lo que cada imagen se muestra dos veces.
El responsable de dicho artificio es el obturador del proyector cinematográfico que, a diferencia de lo que es común en la cámara, incorpora dos palas que cortan el paso de la luz de la lámpara. Las diferencias entre el sistema de arrastre de cámaras y proyectores influye en la configuración del obturador empleado en unas y otros; así, mientras que en las cámaras interesa un arrastre silencioso y que no provoque interrupciones o daños a la película, esto es, un sistema de arrastre lento, el obturador está diseñado para respetar el relativamente largo tiempo de arrastre, por lo que el tiempo de cada fotograma se divide a partes iguales entre arrastre y obturación, con un ángulo típico de 180°; en los proyectores, por el contrario, se emplea un mecanismo de arrastre conocido como de cruz de Malta por sus semejanzas con dicho símbolo, que permite un arrastre entre fotogramas en la mitad de tiempo que en la cámara, a costa de incrementar notablemente el ruido producido por el mecanismo. Con el cuarto del tiempo de cada fotograma ganado gracias al arrastre, la obturación alcanza los 270° y puede prolongarse el tiempo de proyección de cada fotograma, logrando un incremento notable en la luminosidad de la imagen, en torno a un 50% superior a la conseguida con un obturador de 180°.
La configuración del obturador, con una pala de 90° encargada de bloquear la luz en los cambios de fotograma al ponerse en marcha el sistema de arrastre intermitente de la película, favorece la luminosidad de la imagen, pero incrementa dramáticamente la tendencia a la aparición del flicker, una segunda pala, mucho más estrecha y situada en oposición diametral a la primera, tiene como la finalidad cortar el paso de luz un breve instante para hacer descansar la vista del espectador e inducir la sensación de que la proyección se produce a una frecuencia de imagen del doble de la real, aunque el fotograma no se haya movido de la ventanilla de proyección.
En la imagen electrónica es difícil conseguir una solución similar ya que ello implicaría que el número de imágenes que deberían mostrar los sistemas de presentación debería ser del doble que el de los de captación, con el consiguiente aumento del ancho de banda de la señal electrónica representada. El ancho de banda es algo privativo de los sistemas de captación, almacenamiento, transmisión o presentación de la información que emplean señales eléctricas o radioeléctricas de frecuencia variable para representar los cambios de una información de tipo dinámico, que cambia con el tiempo. La combinación de la frecuencia de actualización de la información con la propia frecuencia de cambio de la misma configuran el ancho de banda. Así, en una señal de televisión convencional de una frecuencia de imagen de 25 hertzios y capaz de muestrear unos 200000 ciclos individuales en cada una, el ancho de banda sería de 200000X25=5000000 hertzios, o lo que es lo mismo, los circuitos electrónicos del sistema deben ser capaces de oscilar hasta dicha frecuencia máxima. Doblar la frecuencia de destellos implicaría, en principio, doblar el ancho de banda, que pasarla a alcanzar los 10 MHz -megahertzios-, lo que implica un diseño y construcción de equipos mucho más precisos y costosos, así como una menor economía en la transmisión de señales mediante ondas radioeléctricas.
La solución empleada en la imagen electrónica para aumentar la frecuencia de destello sin tener que incrementar la de imagen, y consecuentemente, el ancho de banda recibe el nombre de exploración entrelazada, y supone la división de cada imagen, denominada cuadro, en dos subimágenes, o campos, que contienen cada uno la mitad de los puntos individuales de la imagen, dispuestos en dos matrices de lineas alternadas y que se exploran secuencialmente y de modo alternado, siguiendo el patrón exploratorio expuesto con anterioridad. Se consigue así una frecuencia de destello del doble de la de imagen con un ancho de banda equivalente al de una representación que mostraría fluctuación de la luminosidad pero sin manifestar dicho fenómeno. Ahora bien, el precio que se paga es bien alto, y reduce la calidad de la imagen obtenida en dos ámbitos complementarios, el espacial y el temporal, como se estudiará en siguientes epígrafes.
Otra característica que diferencia a la imagen electrónica de la fotoquímica es la necesidad de un sistema de sincronismo mucho más complejo que el necesario en cinematografía; en ésta, el propio soporte de la imagen auxilia en la velocidad de reproducción de la misma gracias a las perforaciones que la película presenta y que son empleadas para que el sistema de arrastre de la cámara o el proyector avancen fotograma a fotograma. Sólo es necesario un sencillo sistema eléctrico auxiliar que garantice que el giro del motor del equipo se hace a la velocidad correcta para conseguir una sincronización de gran precisión.
La elección de la frecuencia de 24 fotogramas por segundo -FPS- empleada en la cinematografía como estándar responde, en parte, a esta cuestión: la frecuencia de la red eléctrica en Estados Unidos es de 60 Hz lo que hace que un motor eléctrico.
síncrono de características estándar alcance una velocidad de giro del eje de 1440 revoluciones por minuto, que representan 24 revoluciones por segundo. La frecuencia de la propia red puede actuar como reloj maestro para garantizar la correcta sincronización de la secuencia de imágenes, y ésta puede lograrse de un modo simple. De otra parte, con la llegada del sonoro y la tecnología disponible a finales de la década de los '20, la elección de una velocidad de 24 FPS, que supone un consumo de película de
Por el contrario, en los sistemas de imagen electrónica es necesario un sistema de sincronización mucho más complejo debido al hecho, ya expuesto, de la exploración secuencial de las imágenes. Al existir una jerarquía de cuadros y campos y realizarse un barrido de cada uno de ellos de acuerdo con el patrón de exploración lexicográfico, es necesario garantizar que dicho barrido se realiza con la mayor precisión posible, máxime cuando las frecuencias de cambio de las señales son altas. Asi, se hace necesario introducir una serie de circuitos y señales de sincronismo que gobiernan el sistema de exploración para garantizar la coherencia del barrido de las imágenes.
Estos sincronismos se dividen en dos grandes categorías: los sincronismos de campo, que gobiernan la exploración en sentido vertical, de arriba abajo y vuelta a arriba, y los sincronismos de línea, que hacen lo propio con el barrido horizontal, de izquierda a derecha y el retorno a la izquierda; la combinación de ambos sincronismos y la respuesta de los circuitos de gobierno hacen que se produzca un barrido final en zigzag, bien descendente, en la parte activa de la exploración, bien ascendente, en los retornos o borrados. Considerando las frecuencias de imagen normales en los sistemas de vídeo y televisión convencionales y las líneas exploradas en cada una es necesaria una frecuencia de unos 16000 impulsos de sincronismo por segundo para garantizar el mantenimiento de la sincronía. La alta frecuencia que pueden alcanzar las señales de imagen electrónica de televisión o vídeo hace que sean necesarios circuitos de sincronización muchísimo más complejos que los empleados en la maquinaria cinematográfica y que las señales sean mucho más sensibles a cualquier alteración o pérdida en el régimen de sincronismo.
Un último aspecto que diferencia a las imágenes fotoquímicas y electrónicas es el método empleado en la captación y representación de las mismas. En ambos casos la captación se basa en un análisis estructurado a partir de los supuestos de la síntesis aditiva de color: el espectro visible se divide en tres grandes bandas de color yuxtapuestas que se corresponden con las sensibilidades medias de los fotorreceptores de la retina; dichas bandas espectrales se denominan roja, verde y azul puesto que dichos colores son los característicos de cada una de ellas. Este tipo de análisis y síntesis de color recibe la denominación de RVA ó RGB -Rojo, Verde y Azul o Red, Green & Blue, en inglés-. Tanto la imagen fotoquímica como la electrónica, cuando son en color, están realmente formadas por tres imágenes superpuestas de colores parciales que producen el efecto final de color completo. Ahora bien, el método empleado en una y otra tecnología para la reconstrucción o representación de dichas imágenes es radicalmente distinto entre el cine o la fotografía y la imagen electrónica.
Las imágenes fotoquímicas se registran en la película como manchas de tintes coloreados que son diferentes en función de cuál sea la banda espectral representada; así, el rojo se representa mediante tintes de color cián, el verde como magenta y el azul con el empleo de tintes amarillentos. Cualquier método de síntesis de color que recurre al uso de pigmentos es, por definición, sustractivo y se basa en la eliminación -sustracción- de bandas de color espectral por la transmisión de filtros coloreados o la reflexión y absorción selectivas de superficies teñidas de color. La proyección cinematográfica o de diapositivas y la fotografía sobre papel emplean estos métodos de representación, respectivamente, y emplean una paleta de colores primarios sustractivos basada en los colores cián, magenta y amarillo mencionados -CMA ó CMY, Cián, Magenta y Amarillo ó Cyan, Magenta & Yellow-.
Las imágenes electrónicas se pueden registrar directamente como señales de las componentes de color primarias RGB y alimentar los minúsculos luminóforos que componen las pantallas de los kinescopios o tubo de rayos catódicos -TRC ó CRT, Cathode Ray Tube-. Dichos luminóforos responden a la presencia de la señal emitiendo luz en función de la intensidad de aquella, existiendo tres tipos de fósforos o luminóforos, uno por cada color primario. La superposición -adición- de luces rojas, verdes y azules emitidas por distintos tipos de fósforos reconstruye el color final. Sin embargo, las señales electrónicas utilizan normalmente una transcodificación de las señales primarias RGB a un espacio de síntesis de color distinto basado en los parámetros de tono, saturación y brillo denominado comúnmente HSL -Hue, Saturation & Lightness- que se corresponde con las dos fórmulas de la visión humana, fotópica y escotópica. El tono y la saturación son las variables que se ajustan a la visión fotópica mientras que el brillo o luminosidad se corresponde con la visión escotópica. Puesto que las señales RGB combinan Aspectos atribuibles a las tres variables HSL se hace necesaria su transformación al nuevo espacio de color resultando cuatro informaciones denominadas Y, R-Y, G-Y y B-Y. La primera de ellas, Y, recibe el nombre de luminancia y representa el brillo de un color en función de la sensibilidad de la percepción visual humana a los distintos colores espectrales"!O, obteniéndose mediante la ecuación Y = 0.299R + 0.587G + 0,1146, donde R, G y B son las cantidades de rojo, verde y azul de un color determinado. Las otras tres informaciones reciben el nombre de diferencias de color y son las encargadas de representar el tono y la saturación. R-Y, G-Y y B-Y son informaciones de tipo bipolar puesto que cada una de ellas puede presentar valores positivos o negativos, dependiendo del resultado de la operación de resta que representan11; si es positivo, la información significa tendencia a rojo, verde y azul, respectivamente mientras que, si es negativo, la tendencia es a cián, magenta y amarillo. La transcodificación implica el paso de un sistema de representación tridimensional -RGB- a otro de cuatro dimensiones por lo que una de ellas resulta superflua: la variable G-Y no se contempla puesto que el factor que interesa de ella, G, puede obtenerse de las otras tres variables y que por las peculiaridades de la visión humana, dicha variable es la que más contribuye en la luminancia.
En conjunto, Y, R-Y y B-Y integran un sistema de tres ecuaciones con tres incógnitas, R, G y B que al resolverse permiten la recuperación de las componentes primarias originales. El espacio de color que representa el conjunto de variables HSL es más amplio que el original RGB por lo que puede presentarse el caso de combinaciones de Y, B-Y y R-Y que no puedan representarse dentro de los parámetros permitidos para las variables RGB.
La síntesis sustractiva de color CMY es capaz de representar un espectro cromático -espacio de color- mucho más restringido que la síntesis aditiva RGB y ésta a su vez menos que la representación HSL. Así, resulta que la posible paleta de color para un sistema de imagen electrónica es, en teoría, mucho más amplia que para la fotoquímica, aunque no sólo influye la cantidad de colores representados en la fidelidad de una imagen obtenida por síntesis. La precisión en la representación de cada color posible contribuye tanto a la veracidad de la imagen reconstruida como la posibilidad de elección entre muchos colores representables. Aunque el número de ellos es mayor en los sistemas RGB, el rango dinámico de cada color es más restringido, es decir, los valores intermedios de rojo, verde y azul y sus combinaciones resultan menores, en la práctica, que los de cián, magenta o amarillo por lo que la reconstrucción final de la imagen puede resultar menos veraz en RGB que en CMY. Este menor rango dinámico de las representaciones RGB se aprecia especialmente en las zonas de sombra y las altas luces de las imágenes, donde se produce una evidente compresión del color y una pérdida general del detalle. El rango de contraste que acepta un soporte fotoquímico se sitúa en torno a 500:1 mientras que el que es capaz de representar la imagen electrónica convencional sólo alcanza, en el mejor de los casos, relaciones de hasta 100:1.
1.1.2. Estructura y características de la película cinematográfica.
La película cinematográfica tiene una estructura laminar, en la que una emulsión fotosensible de haluros de plata se deposita sobre una base flexible que sirve de soporte a la película. En sus comienzos, el cine empleó bases de celuloide -nitrato de celulosa-, un producto relativamente barato y flexible; con el tiempo se vio la necesidad de la sustitución del nitrato, altamente inflamable, por otros productos, como el acetato de celulosa o el poliéster que ha acompañado al desarrollo de nuevas y revolucionarias emulsiones.
La capa más importante de la película es aquélla que contiene una suspensión de haluros de plata sensibles a la luz que recibe el nombre de emulsión. Dependiendo de la naturaleza de la película -negativa, positiva o reversible, de blanco y negro o color- el número y disposición de dichas capas puede variar, pero en general, atendiendo a la cara que recibe la luz y siguiendo la trayectoria de la misma, cabe destacar:
Una primera capa de gelatina cuya finalidad es la protección mecánica de la emulsión situada inmediatamente debajo, por lo que recibe el nombre de capa o recubrimiento antiabrasión. Debajo se sitúan las capas sensibles a la luz en los materiales de blanco y negro -y esto es válido, también para los de color-, la emulsión está compuesta por una suspensión de gelatina, granulos -cristales- de haluros de plata y una serie de químicos -activadores, sensibilizadores,...- que tienen como finalidad. En el proceso fotográfico, el color es reproducido superponiendo los componentes amarillo, magenta y cián sobre una fuente de luz blanca. Cada componente o filtro controla la intensidad con la que se transmite cada color primario: rojo, verde y azul. Así como un negativo de B/N tiene plata en las áreas expuestas que han absorbido la luz, cada capa de color de un negativo fotográfico en color tiene un tinte en las áreas expuestas a la luz que absorbe el componente de color adecuado de la luz. Las tres capas de una emulsión están superpuestas una sobre otra sobre la base de la película, formando lo que se denomina un tripack y todas son expuestas a la luz y procesadas a la vez. La imagen en una emulsión negativa del color una vez procesada es inversa en color y en densidad: las áreas más brillantes aparecen negras y viceversa, y, por ejemplo, los objetos verdes aparecen de color magenta.
En las emulsiones negativas de color, la capa superior es sensible sólo al azul -la capa amarilla tras el revelado-; inmediatamente debajo se encuentra un filtro amarillo que absorbe el exceso de azul, y bajo éste, están las capas sensibles al verde -capa magenta en el revelado- y al rojo -capa cián en el revelado-. El filtro que absorbe azul es necesario ya que las dos capas inferiores también son sensibles al azul. En las emulsiones positivas, la primera capa es la sensible al verde -capa magenta- y le siguen la sensible al rojo -capa cían- y la sensible al azul -capa amarilla-. Puesto que las capas magenta y cián, menos sensibles y de grano más fino, son sensibles al azul no se necesita filtro amarillo.
Los tintes de color que se forman en las capas de la emulsión no son apropiados para reproducir fielmente el color de la escena. En la práctica, el tinte magenta es un poco amarillo-rojizo, absorbiendo una pequeña cantidad de luz azul, además de la luz verde. El tinte cián absorbe algo de verde y azul además del rojo. Si estos defectos no se corrigieran, el resultado serían copias positivas de colores impuros y en los internegativos, colores desaturados. El problema se soluciona añadiendo a cada capa los llamados copulantes de color, a partir de los cuales se procesa el tinte de cada capa. Estos copulantes permanecen inalterados en las zonas que no han sido expuestas a la luz. En el caso de la capa magenta, estos copulantes son de color amarillo pálido. Tanto las áreas expuestas como las no expuestas a la luz en la capa magenta tienen de este modo la misma cantidad de absorción de azul. El tinte de la capa cián se forma de igual manera a partir de un copulante rojo pálido. Como resultado, tras ser procesado, un negativo de color tiene un característico tomo anaranjado que afecta a todas las partes de la imagen de manera uniforme. De esta forma se compensa la absorción excesiva de azul y verde. Los copulantes son una parte integral de las capas de la película y no deben confundirse con una capa aparte o un tinte en la base de la película.
La base de la película es el soporte plástico sobre el que se deposita la emulsión fotosensible. Los requisitos para una base de película adecuada son: transparencia óptica y ausencia de imperfecciones, estabilidad química y resistencia a la humedad y a los procesos químicos. Además, teniendo en cuenta que la imagen va a ser proyectada y que pasa por diversas fases de duplicado, es necesario que la base sea particularmente resistente a desgarros, rayaduras, tensiones y que al mismo tiempo sea flexible. En la actualidad se emplean dos clases de base para películas: triacetato de celulosa y un polímero sintético de poliéster de denominado estar. La mayoría de las películas para cámara emplean bases de triacetato de celulosa. Sin embargo, para las películas internegativas y las de duplicado se emplea la base de poliéster debido a su especial resistencia y flexibilidad. Permite además la fabricación de películas con menor grosor que precisan menos espacio de almacenaje. A diferencia de las de base de celulosa, no se pueden unir con pegamento para películas: hay que usar cinta adhesiva o un aparato que une la película por calor -soldadura-.
La luz que penetra la emulsión puede ser reflejada desde la base de nuevo hacia la emulsión. Como resultado se da una exposición secundaria que reduce la nitidez de la imagen y la luz así dispersada crea un poco de halo alrededor de los objetos más brillantes de la escena. Una capa opaca sobre la base de la película minimizará esta reflexión. Existen varios métodos para reducir el halo, conocidos genéricamente como de inclusión de una capa antihalo:
• Rem Jet: una capa de pigmentos negros situada detrás de la base sirve como capa antihalo y antiestática. Esta capa se elimina
durante el procesado.
• Revestimiento antihalo: una capa de gelatina de plata tintada situada bajo la emulsión cualquier coloración en esta capa se eliminan
en el procesado. Este tipo de capa es efectiva sobre todo en emulsiones de alta resolución -grano muy fino-. Cuando se emplea, se
añade una capa antiestática tras la base.
• Base teñida: se incorpora una capa de densidad neutra a la misma base de la película, no solo para reducir el halo, sino también la transmisión de luz que las bases de poliéster pueden hacer y cuyo efecto es un ligero velado sobre la película.
Las imágenes fotoquímicas están constituidas por microscópicos granos de plata metálica o manchas de colorantes que se desarrollan a través de la exposición y el revelado de una emulsión compuesta por una gelatina con cristales de haluros de plata en suspensión y, en los materiales de color, unos tintes llamados copulantes. Los cristales, que pueden variar en tamaño, sensibilidad y distribución, están distribuidos de modo aleatorio en la emulsión, lo que produce una cierta granularidad característica de los materiales fotográficos. Existe una relación directa entre el tamaño de dichos cristales, la sensibilidad del material y el contraste.
A finales de los '80, los científicos de Kodak lograron desarrollar un nuevo tipo de emulsión. Los granos de haluros de plata que componen la película tienen el aspecto de cubos de ocho caras o de guijarros de contorno irregular. Cuanto más sensible es la película, mayor es el tamaño de los granos con el consiguiente aumento de la granulosidad. Si la forma del grano se cambia de manera que sea más plana, los haluros captan más luz y la transmiten de forma más eficiente, pero la cantidad total de plata sigue siendo la misma. Esto permite aumentar la sensibilidad sin incrementar el grano. Este nuevo tipo de emulsión se denominó emulsión de grano tabular o grano-T. Sin embargo, no todas las emulsiones de grano-T tienen mejor rendimiento que las de grano convencional, por lo que algunas emulsiones están formadas por una combinación de los dos tipos.
No hay comentarios:
Publicar un comentario