Exponer correctamente en cine

WELAB Plus
11 de Marzo 2020

 

Exponer correctamente en cine es la preocupación de todo director de fotografía y por ello partimos del triángulo de exposición original creado por los fotógrafos. Se compone de la apertura del diafragma, la profundidad de campo, el ISO, la velocidad de obturación y frames (cuadros) por segundo.

Imagen vía: Photoplls.com

 

Variables para exponer correctamente en cine:

  1. Apertura del diafragma.
  2. Profundidad de campo
  3. ISO
  4. Velocidad de obturación y velocidad de fotogramas
  5. Frame rate/cuadros por segund

  1.  APERTURA DEL DIAFRAGMA EN LA EXPOSICIÓN CINEMATOGRÁFICA

El diafragma se encuentra en el objetivo de la cámara. Está formado por unas palas que se abren y cierran para dejar pasar más o menos luz. Trabaja de un modo similar a la función que realiza el iris en el ojo humano.

Importante, al ubicarse en el objetivo, no en el cuerpo de cámara, según el objetivo que usemos tendremos un diafragma con un mínimo y máximo diferente. Muy importante saber diferenciar entre el tipo de ópticas utilizadas.

Se representa con el número f.  Cuanto menor es el número f mayor apertura tendremos por lo que obtendremos más paso de luz. Es decir que f.2 será mayor que f.4.

   2.  PROFUNDIDAD DE CAMPO

La profundidad de campo es clave para exponer correctamente en cine y es el espacio que encontramos a foco/nítido que existe por delante y por detrás del sujeto enfocado.  Por ejemplo, si el espacio detrás del sujeto enfocado está borroso diremos que tiene corta profundidad de campo.

Cuando el diafragma está más abierto, deja pasar más luz, es decir tenemos un número f bajo obtendremos menos profundidad de campo.

Este look se utiliza para centrar la atención en el sujeto y es muy usado en el cine como técnica narrativa ya que concentra la historia en un elemento del plano.

El efecto “bokeh” es la estética que se produce con estos parámetros, ya que todo aparece fuera de foco excepto el sujeto de la acción.

Si usas un número f. alto puedes mantener el foco en toda la escena, lo que conocemos como larga profundidad de campo. Se utiliza para paisajes y lugares que tienen relevancia en la narración y conforman el contexto y ambiente de la historia.

Además, la profundidad de campo también se verá afectada dependiendo del tipo de objetivo que utilicemos por lo que tendremos más o menos espacio nítido según el uso que le demos. Mira el siguiente ejemplo:

Alcanzar cierta profundidad de campo para tu proyecto puede darte una exposición no deseada, poca luz, por ejemplo. Así que es importante hablar del papel que juega el ISO para exponer correctamente en cine.

    3. ISO

El ISO es la sensibilidad que tiene la cámara, el sensor de ésta, a recoger la luz.  Cuanto más bajo sea el ISO, menos sensibilidad a la luz tendrá. Cuanto más alto sea el ISO mayor sensibilidad tendrá. Hay que tenerlo en cuenta ya que cuanto mayor sea el ISO mayor riesgo tenemos de conseguir una imagen con grano o ruido. Para reconocerlo tenemos que fijarnos en las partes oscuras del plano.

La cámara tendrá un ISO nativo, pero en ocasiones encontramos un dual ISOs que se han convertido en un básico en nuestra industria. Es imprescindible que lo tengamos en cuenta en la exposición cinematográfica.

Hoy día, el ISO nativo es una de las apuestas fuertes de las cámaras de cine digital más modernas. A mayor ISO nativo, mejor calidad, como ocurre con la Sony Venice o la Alexa Mini LF.

  4. VELOCIDAD DE OBTURACIÓN Y VELOCIDAD DE FOTOGRAMAS

Velocidad de obturación: es el tiempo que cada frame/cuadro queda expuesto a la luz. La frecuencia con que la cámara actualiza cada imagen será determinante para exponer correctamente en cine.

Con una mayor velocidad obtendremos imágenes más nítidas, muy acorde para películas de acción o lucha, ya que capturan todos los detalles.

Las velocidades de obturación más bajas darán como resultado un desenfoque en el movimiento lo que en realidad se verá más natural. Ejemplo:

La regla de 180º es la que se aplica a la velocidad de obturación. Se trata de una fórmula matemática que consiste en duplicar el valor del obturador según el número de fotogramas que grabemos por segundo. Con esta regla conseguimos movimientos más naturales, una apariencia cercana a la del cine y evitando el grado de difusión/blur que tengan los objetos o personas al moverse.

Es decir, si necesitas una escena a cámara lenta es recomendable que dupliques la velocidad, dependiendo de la cantidad a la que vayas a reducir. Ejemplo, si grabas a 60fps y vas a hacer una cámara lenta deberás grabar a 1/120.

Las velocidades de obturación más altas son muy adecuadas para agregar energía cinética a tu proyecto por lo que experimentar con ello es siempre una buena idea para encontrar aquel que mejor se adapte a la narración.

   5. FRAME RATE/CUADROS POR SEGUNDO

La industria establece su estándar en 23.98 o 24 frames por segundo. Es la imagen a la que estamos acostumbrados en el cine clásico. Otros frames rates comunes son 25 o 30 frames por segundo. Por ejemplo, 30fps está asociado a la grabación de noticias y deportes.

Por debajo de 24fps sería una decisión creativa con la que representar a alguien contando un recuerdo, simulando una sensación de intoxicación, o también algunos vídeos de grunge y rock de los 90’. Es el efecto que conocemos como Motion Blur. Y otra opción es apostar por una velocidad a 48fps tendremos la opción de usar cámara lenta en una línea de tiempo de 24fps y duplicar su duración. En conclusión, debemos tener en cuenta estas cinco variables para conseguir exponer correctamente en cine.

 

Lentes zoom Vs Lentes Prime

WELAB Plus
Diciembre 2021

 

Existe una abrumadora variedad de alquiler de lentes para cineastas y camarógrafos, ya sean lentes zoom o lentes prime principalmente. En muchos sentidos y con numerosas marcas en juego, los últimos años han sido una avalancha constante en las opciones de lentes de cine. Algo comparable a la explosión de cámaras de cine digital asequibles de 2008-2013. Por eso, a medida que uno se prepara para el próximo alquiler de lentes (o compra), es importante pensar en el tipo de trabajo que está haciendo y que compensaciones se está dispuesto a hacer.

La elección, ¿Lentes Zoom o Lentes Prime?

La primera gran elección es entre ir con lentes principales o prime o lentes con Zoom. Los beneficios de una lente con zoom son obvios: puede seleccionar una variedad de encuadres sin tener que cambiar las lentes. Esto puede ser muy útil cuando se trabaja con horarios apretados o cuando se ejecutan planos a la carrera y rápidos. Por esta razón, las lentes zoom son dominantes en documentales, noticias, deportes y, cada vez más, en producciones narrativas.

Inconvenientes de lentes de zoom

Hay algunos inconvenientes con los zooms, comenzando por el peso. Si bien hay zooms livianos, diseñados para Steadicam y trabajos de estabilizador, en general las lentes con zoom pesan un poco más y son físicamente más grandes que las lentes primen. Si el trabajo requiere de mucha cámara en mano haciendo usos de estabilizadores y gimbales como MoVi o Ronin, hay que considerar en utilizar un conjunto de lentes prime.

Otro motivo es que las lentes zoom no suelen ser tan rápidas como las lentes prime. La velocidad de una lente se refiere a la máxima apertura de diafragma. Una lente que solo abre a f2.8 no es tan rápida como una lente con apertura de f2 o f1.4. Si bien los sensores más rápidos significan que no siempre estamos trabajando con una apertura de 1.4, como era común en los años 90. Todavía hay situaciones en las que desea poder abrir ese diafragma. Los stops más rápidos (lentes que se abren a un f1.4 o incluso más, como las lentes T1 de Vantage) están reservados para lentes prime.

Evolución de las lentes zoom

Los zooms están progresando a pasos agigantados. Antes era más común que un f4 fuera una lente abierta, común para un zoom de buena calidad, pero ahora son cada vez más comunes desde un f2.8 hasta f2, como ocurre con los compacts zooms por ejemplo de Zeiss, o los zooms Canon con f2,8 – f2,9 de apertura. Así como la nuevas adaptadas a Full Frame y con una apertura de f3, las nuevas EZ de Angenieux.

Una lente zoom también tiende a tener un enfoque cercano más largo, lo que significa que no puede enfocar objetos cerca de la lente. Esto puede ser importante cuando se trabaja en espacios pequeños como apartamentos reducidos, donde una lente zoom con un enfoque mínimo de metro y medio puede resultar dificultoso de utilizar. Si bien, muchas lentes zooms tienen un modo macro para obtener tomas de enfoque cercano, aunque éstas generalmente no enfocan. Esta es otra razón por la cual las lentes prime siguen siendo aún más populares.

Lentes Parafocales

Otra cosa importante a considerar con las lentes zoom es si son Parafocales o no. Parafocal es el término para la capacidad de una lente de mantenerse enfocada en el mismo lugar en todo el rango de zoom. La mayoría de las lentes diseñadas para fotos fijas no son parafocales, ya que no resulta importante su uso. Y al renunciar a la parafocalidad, son capaces de fabricar lentes más ligeras, más compactas y más asequibles. Esta razón puede ser más que suficiente para que te límites a las lentes principales o prime o pagues para alquilar verdaderas lentes de cine. Esta es una gran consideración si se dispara con cámaras DSLR digitales.

Si bien, lentes como los zooms de la serie L de Canon ofrecen imágenes fantásticas, su falta de parafocalidad significa que se debe trabajar con ellas de una manera diferente. En lugar de acercar, enfocar y alejar, necesita usar las funciones de zoom digital de la cámara para acercar una parte del cuadro y verificar el enfoque. Esto también significa que las tomas en las que usted ve activamente el zoom no serán posibles con una lente fotográfica fija, ya que el enfoque se desviará a lo largo de la toma. Además, los zooms de cine están diseñados para hacer ese movimiento suave y fluido, y con una lente de foto fija es prácticamente imposible crear la sensación de un zoom de cine de gama alta clásico.

Sigma High Speed Cine

En este momento, una de las líneas más populares de zoom de cine son los Zooms de Sigma Cine Higf Speed, los cuales pueden montarse tanto con montura EF y PL de cine. Estas en realidad no son perfectamente parafocales. Quiere decir, que están más cerca de parafocales cuando están completamente abiertas, ya que a medida que la profundidad de campo frente a la lente disminuye, la profundidad de enfoque (el área detrás de la lente que está enfocada) aumenta. Por lo tanto, cuando se trabaja con grandes aperturas, como un T2, son funcionalmente parfocales para la mayoría de las situaciones.

No serían una buena elección para grabar un evento deportivo a mediodía en un T16, ya que la falta de verdadera parafocalidad se haría evidente al acercarse y alejarse del juego. Con cualquier zoom no parafocal es recomendable usar el zoom digital de la cámara para verificar el enfoque más a menudo que el zoom físico en la lente.

Fujinon

Otro conjunto indie popular de Zoom son los Zooms de Fuji, que pueden ser parfocales y ofrecer modo macro. Ofrecen una excelente combinación de alta calidad de imagen y rendimiento, pero solo están disponibles para cámaras sin espejo con monturas de lentes poco profundas. Estas son la Sony Alpha, la FS y las cámaras de la línea Fuji X. Sin embargo, si lo que se quiere es una buena lente con zoom de «cine» junto una Sony A7SII, definitivamente son la combinación perfecta.

A medida que se actualiza el mundo de las lentes digitales, el abanico es más amplio. Opciones populares como Angeniuex, Canon, Fujinon e incluso Zeiss que generalmente están disponibles en monturas PL y EF, ofrecerán excelentes combinaciones de características y le permitirán vivir la mayor parte o todo el día con un zoom.

Con un presupuesto asequible, la mayoría de las producciones continúan optando por los packs de lentes prime, para aquellas situaciones que no permiten el uso del zoom a tiempo completo. Esto es en lugares de tomas rápidas, estabilizador, trabajos de cámara en mano o exposiciones con luz ultra baja.

La figura del DIT en la industria cinematográfica

WELABPLUS
ABRIL 2021

 

En el mundo de la producción cinematográfica, el Técnico de Imágenes Digitales (más conocido como DIT por sus siglas en inglés) puede desempeñar diversas funciones. Esto depende de la magnitud del proyecto en el que trabajamos. Es por eso que se han generado muchas dudas acerca de esta figura fundamental para la producción de una pieza cinematográfica. Hoy, en Welabplus, te las resolvemos todas.

1er Asistente de Cámara VS Técnico de Imagen Digital

La primera pregunta que se nos viene a la cabeza cuando queremos definir cuál es la función que desempeña un DIT es si pertenece al equipo de cámara o al equipo de postproducción. La realidad es que sirve como puente entre ambos departamentos.

La manera en que se ruedan las películas ha cambiado exponencialmente a medida que avanzaban las nuevas tecnologías. Décadas atrás, todo el material cinematográfico se filmaba en inmensos rollos de película para su posterior procesado y visionado. El problema al que tenían que hacer frente con este material, creado a base de nitrato de celulosa, era la fragilidad del mismo. Es altamente inflamable y cualquier humedad o suciedad puede dañar el fotograma, dificultando su futura reproducción en pantalla.

A comienzos de los años 90, el vídeo analógico se fue transformando en video digital. El trabajo del ingeniero de vídeo también se convirtió en lo que conocemos actualmente como Técnico de Imágenes Digitales, pero los trabajos son similares y distintos a la vez. Comparten los mismos objetivos, pero las herramientas y el enfoque son diferentes.

Remontándonos a la época del cine tradicional, el primer asistente de cámara era el encargado de hacer que la cámara funcionase correctamente y más específicamente, del foco. Al producirse el cambio de lo analógico a lo digital, los DIT’s ocuparon ese nuevo espacio, configurando las cámaras digitales, dando lugar a una confusión entre ambos puestos de trabajo.

La mayor diferencia que podemos encontrar entre ambos es que al primer ayudante de cámara se le encargó la tarea de asegurarse de que cada toma estuviera enfocada. Mientras que el ingeniero de vídeo se ocupaba de monitorear el color y todos aquellos parámetros que afectan a la imagen.

El DIT en el mundo digital

La inmersión al mundo digital no fue nada fácil. Las primeras cámaras de vídeo digitales eran muy complejas y el trabajo de los DIT’s una tarea complicada en sus inicios.

Esto fue mejorando con el transcurso del tiempo por la simplificación de la tecnología. Ahora las cámaras cuentan con menús mucho más sencillos e intuitivos que las hacen más accesibles a todos los usuarios.

Con esta mejora en el sector audiovisual, se le añade al DIT la tarea de coordinar el flujo de trabajo de los datos digitales para la postproducción. Archivan metraje en bruto, crean diarios y mantienen los registros asociados. Esta labor, que técnicamente le corresponde al Data Manager, todavía es desarrollada por los DIT’s cuando la producción es más pequeña y no caben ambas figuras.

Lo complicado de esta tarea no es la recopilación de todos los fotogramas, sino saber qué hacer con toda la cantidad de datos obtenidos en los sets de filmación. En última instancia, alguien debe ser el responsable de verificar todos esos datos, copiarlos y asegurarse de que cada departamento tenga los materiales que necesita para hacer el trabajo.

Para el correcto desempeño de esta función y una mejor comodidad, los DIT’s cuentan con un equipo propio donde almacenan y llevan el control de toda la información recibida, que les acompaña durante el rodaje.

Trabajo multitarea 

Otra labor muy importante entra en juego cuando hablamos de rodajes multicámara. En este sentido nos recuerda a los técnicos que trabajan en televisión en el “control de cámaras”. Ajustan los parámetros necesarios para que la imagen emitida por las diferentes cámaras tenga el mismo brillo, balance de color y que sea lo más homogénea posible. Así no habrá saltos o cortes a la hora de mezclar todo el material generado.

Es por eso que, podemos decir que los Técnicos de Imágenes Digitales son personas “multitarea”. Puesto que, además de lo citado anteriormente, también forman parte del departamento de publicación. En él se incluye el diseño inicial del flujo de trabajo, que depende del equipo que se esté utilizando y de los requisitos del productor. Además, garantiza que todos los datos generados en el set lleguen a publicarse y comunicarse con el colorista u operador de los diarios y editores asistentes. Así se asegura de que cada uno de ellos obtenga lo que necesita de manera oportuna.

El tamaño importa

Las funciones siempre están dictaminadas por el tamaño de la pieza a filmar. En ocasiones, cuando se trata de sesiones más pequeñas, se evita el costo de esta figura por su reducida capacidad de trabajo pero, un buen DIT, aporta mucho más a un rodaje que ser, únicamente, la persona encargada de transmitir el contenido audiovisual. En cambio, en las grandes producciones, al estar el trabajo mucho más fragmentado, los DIT’s se mueven de un departamento a otro echando una mano en cualquiera de las tareas necesarias.

«La función principal del DIT es ser el otro par de ojos para el director de fotografía» Dave Satin, técnico de imagen digital. 

Como hemos dicho antes, las funciones del DIT no son exclusivamente de almacenaje y distribución del material de película, sino que son de vital utilidad para otros departamentos de producción como es el caso del Departamento de Fotografía.

Muchos directores de fotografía definen las responsabilidades relacionadas con la cámara que desean que asuma el DIT.

“Es normal que los Directores de Fotografía con los que trabajo me hagan responsable no solo de elegir los filtros ND utilizados en exteriores, sino también de mantener la exposición que favorecen a medida que cambia la luz durante el día”, explica Dave Satin, técnico de imagen digital.

No se trata de un trabajo fijo dedicado exclusivamente a realizar una función concreta. De hecho, los técnicos de imágenes digitales son una de las personas que más conocimiento tienen en materia cinematográfica. Ya que participan en varios departamentos y procesos de producción. Es alguien que sabe de la gestión del color, exposición, nuevos equipos técnicos, lentes, filtros, menús de cámara, optimización de vídeo, calibración, almacenamiento, flujos de trabajo, postproducción y un largo etcétera.

Triángulo CIE

WELAB Professional Equipment
Junio 2019

 

Seguro que si en algún momento te has dedicado o interesado por el mundo de la fotografía has oído hablar de un sistema para especificar estímulos cromáticos basado en valores triestímulos de los tres colores primarios y un observador estándar, ¿verdad que si?. Si la respuesta anterior fue negativa, podemos decirte que quien desarrolló ese sistema fue la Commission International de la Comisión Internacional de la Iluminación francesa (CIE) en 1931. Esto dio lugar a lo que ahora conocemos como triángulo CIE.

Resumen de la teoría

El triángulo CIE (acrónimo de la comisión antes mencionada) caracteriza los colores por un parámetro de luminancia Y, y dos coordenadas de color X e Y que especifican un punto sobre el diagrama de cromaticidad. Este sistema ofrece más precisión en la medida del color que los sistemas Munsell y Ostwald, porque los parámetros están basados en la Distribución de Energía Espectra (SPD) de la luz emitida por el objeto coloreado, y está factorizado por las curvas de sensibilidad, las cuales han sido medidas por el ojo humano.

Basado en el hecho de que el ojo humano tiene tres tipos diferentes de conos sensibles al color, la respuesta del ojo se describe mejor en términos de tres valores triestímulos. Sin embargo, una vez que esto se logra, se encuentra que cualquier color puede ser expresado en términos de dos coordenadas de colores X e Y.

Los colores que se pueden obtener por combinación de un determinado conjunto de tres colores primarios (tales como azul, verde y rojo de una pantalla de televisión), están representados sobre el diagrama de complicidad por el triángulo construido uniendo las coordenadas de los tres colores. De ahí que se conozca como triángulo CIE.

El Observador

Según la teoría tricromática de la visión de los colores, cualquier observador (ficticio) puede igualar un estímulo de color ofrecido con la mezcla aditiva de tres primarios. Esto es, cualquier estimulo cromático se puede especificar mediante la cantidad de primarios que un observador necesita para igualar o hacer corresponder ese estímulo.

Es importante señalar que el observador para CIE no es otra cosa que el resultado de experiencias donde muchos observadores reales se enfrentaron al reto de igualar una luz monocromática proporcionada por la mezcla de tres luces primarias. Por lo tanto, este observador no es más que una tabla donde aparecen las cantidades de cada primario que un observador debe usar para obtener las diferentes longitudes de onda del espectro visible.

Funciones de correspondencia e igualación de colores para los primarios CIE XYZ, donde se pueden comprobar las cantidades medias de cada uno de los tres colores para igualar una unidad de luz en cada longitud de onda.

 

Valores Triestímulos

El sistema CIE de determinación del color se basa en la elección de tres primarios como colores patrón para la formación por mezclas aditivas de todos los demás colores del espectro. Los valores triestímulos son las cantidades de los tres colores primarios (rojo, verde y azul) que permiten describir un estímulo cromático. Los triestímulos del Triángulo CIE se llaman X, Y y Z.

Es imposible encontrar tres colores primarios reales de los que, con sus mezclas aditivas, se puedan obtener todos los colores existentes. Es por ello que en un sistema de reproducción del color aditivo real solo se puede mostrar un gamut (gama de colores reproducibles) limitado.

Primarios Imaginarios

En 1931, CIE decidió usar tres primarios imaginarios donde los valores triestímulos X, Y y Z fueran siempre positivos para todos los estímulos reales posibles. El valor Y era directamente proporcional a la luminaria del total de la mezcla aditiva y por lo tanto una sensibilidad espectral que correspondiera a la sensibilidad luminosa del ojo humano.

Cuando añadimos a la luminancia Y los componentes X y Z (sin luminancia) se obtienen los valores triestímulos XYZ que ostenta la propiedad de llevar incluidas las características espectrales de la visión humana del color.

Espacio de color CIE 1931 vs. 1976 (CIELAB)

Existían dos problemas en la especificación de colores en términos de valores triestímulos y el espacio cromático. Por un lado, dicha especificación es de difícil interpretación en términos de dimensiones psicofícias de percepción del color: brillo, tono y coloración. Por otro, ni el sistema XYZ y los diagramas de cromaticidad son uniformes y ello dificulta el cálculo de las diferencias entre dos estímulos de color.

Todo esto provocó que la necesidad de un espacio de color uniforme condujera a la transformación de una serie de transformaciones no lineales del espacio CIE 1931 que concluyó en la especificación concreta de una de estas transformaciones en lo que se dio en llamar CIE 1976 Lab. Esta especificó dos espacios de color emitidos (self-luminous) y otro para los colores es superficies.

Esta revisión CIELAB permitió especificar estímulos de color en un espacio tridimensional, donde L (luminosidad) va de 0 a 100 mientras que a y b representan las variaciones entre el rojo-verdoso y amarillo azulado. En caso de ser valor 0 son acromáticos y entonces L representa la escala cromática de grises.

 

Coordenadas de cromaticidad CIE X,Y,Z

Es conveniente, tanto para la comprensión conceptual como para el cálculo, tener una representación del color «puro» en ausencia de la luminancia. La CIE estandarizó un procedimiento para obtener dos valores cromáticos X e Y a partir de los valores triestímulos XYZ, que se obtienen por medio de la transformación proyectiva:

x=X/(X+Y+Z)

y=Y/(X+Y+Z)

Siendo la cromaticidad total = 1= x + y + z

De esta manera, un color puede mostrarse en un sistema cartesiano (diagrama de cromaticidad) como un punto de coordenadas (x,y). Esto es lo que se ha realizado en la figura en la que se han representado los colores del espectro.

La curva resultante, denominada locus, está determinada por las coordenadas de cromaticidad correspondientes a los imaginarios rojo y verde de cada uno de los colores. Estas coordenadas están calculadas a partir de los valores triestímulos. Un color queda definido en el sistema del Triángulo CIE por medio de sus coordenadas de cromaticidad. Por ejemplo: un color F cuya longitud de onda es de 560 nm, tiene unos valores triestímulos de:

 

X=0.5945, Y=0.9950, Z=0.0039

La suma es X+Y+Z=1.5934

Las coordenadas de cromaticidad del color F serán:

x = 0.5945/1.5934=0.3731

y = 0.9950/1.5934=0.6244

z = 0.0039/1.5934=0.0025

Los valores X e Y son los que se dibujan como coordenadas planas del color F. Si esto lo repetimos para todos los colores espectrales nos encontraremos con el gráfico denominado Diagrama de Cromaticidad CIE.

Utilización e interpretación del Locus

Puesto que cualquiera que sea el color ha de cumplirse que X + Y + Z = 1, no existirá ningún color fuera del triángulo R-V-A llamado triángulo de Maxwell.

Si unimos con una línea recta la longitud de onda de 400 nm con la longitud de onda de 700 nm nos encontraremos con la separación entre los colores reales y los imaginarios. La sensación de púrpura no puede obtenerse por medio de una sola longitud de onda. Para producir púrpuras se necesita una mezcla de ondas largas y ondas cortas, sin que contribuyan las ondas medias en su composición. Una vez cerrado el locus por medio de la línea de los púrpuras tendremos el espacio en el que se encuentran todos los colores del espectro.

  1. Tono

Sea un color P. Llamaremos longitud de onda dominante o tono del color a la intersección de la recta definida por P y el iluminante con el locus. La saturación del color viene determinada por la cercanía o lejanía del color respecto a la situación del iluminante. Cuanta más cerca esté del iluminante menos saturado es el color. Los colores totalmente saturados están en el perímetro del locus. La saturación suele darse en % de la relación de distancias existentes entre el iluminante y el locus y el iluminante y el color. En el ejemplo de la figura, la tinta P está definida por sus coordenadas cromáticas: (x,y)=(0.375 , 0.397)

  1. Saturación

Prolongando la recta CP encontramos el punto Q situado en el perímetro del locus, que nos marca 575 nm que es la longitud de onda dominante. La saturación del color será CP/CQ = 0.39. Diremos que el color está saturado al 39%.

  1. Luminosidad

La tercera variable del color, el valor, viene determinado en el sistema CIE por el factor de luminosidad Y. Este factor no se encuentra en el diagrama CIE sino que se especifica aparte, como ya se ha indicado.

Proceso de colimación y revisión de lentes

WELAB Professional Equipment
21 junio 2021

 

Cuando hablamos de ópticas de cine y de su cuidado, nos imaginamos que lo único que tenemos que hacer es mantenerlas limpias para que no les entre polvo, prestar atención para que no reciban daños y tratarlas con un cariño especial. Sin embargo, las funciones de los ayudantes de cámara y foquistas son mucho más amplias y complicadas. Hoy hablaremos sobre cómo se debe comprobar las lentes, las fases por las que se debe pasar antes de utilizarlas y, especialmente, sobre el proceso de colimación de lentes.

Empecemos por el principio. La responsabilidad del primer ayudante de cámara no es simplemente hacer foco o cambiar de objetivo cuando es necesario, sino que también entra dentro de sus funciones el buen uso y correcto mantenimiento de las lentes antes, durante y después del rodaje.

Lo primero que se debe hacer antes de comenzar el rodaje es revisar que las ópticas se encuentren en perfecto estado. Si se trata de una producción larga, lo más seguro es que ya haya habido pruebas técnicas durante semanas y ya conozcas el material a la perfección. Sin embargo, comprobar las ópticas es un proceso que nunca deja de hacerse, ya que, a más uso, más probabilidades de poder dañarlas. Es por esto que, no está de más examinarlas periódicamente para buscar alguna rayadura o golpe y, en caso de haberlo, anotarlo para comentárselo a la empresa de alquiler.

Un consejo que puede ser de ayuda si te encuentras en una producción larga cuyo rodaje tenga varias fechas de grabación, es apuntar el número de serie para cada óptica. Esto viene bien para trabajar siempre con la misma lente y calidad. En Welab, tenemos una hoja de estatus de lentes en donde, no sólo apuntamos este número de serie, sino que también llevamos un control del estado de la pieza.

Comprobación de las ópticas

Ahora, pasamos a comprobar las ópticas una a una. Para ello, se coloca la cámara a un metro de distancia de una carta de foco que suele haber en las casas de alquiler. Si no disponemos de una, también sirve una carta Siemens, que se puede imprimir por internet. Esta no es la solución más adecuada, pero en caso de estar en un apuro, puede sernos de ayuda. Es importante que la distancia sea exacta. Por ello, recomendamos usar un láser o un metro, para hacer la revisión correctamente.

Antes de empezar, debemos asegurarnos de tener la carta bien iluminada y sin reflejos, con un diafragma que nos permita verla perfectamente pero lo más abierto posible para saber que todo irá bien en entornos poco iluminados. Todo con el fin de conseguir un enfoque más preciso y que no dé problemas.

Empezamos a comprobar las lentes desde la más angular al más teleobjetivo. Debemos tratar de enfocar el centro de la carta lo más ajustadamente posible. Una vez a foco, comprobamos el campo de la óptica: si está a un metro, es correcto. Es recomendable repetirlo una vez más para ver si el valor coincide y que no hemos tenido un golpe de suerte. En el caso de que la óptica de por encima o por abajo, repite el proceso hasta que el valor sea uno.

Si vamos a comprobar una lente no fija, debemos ponernos a una distancia de entre tres o cuatro metros. Ponemos la óptica en la posición de teleobjetivo más grande y hacemos foco. Después, vamos abriendo hasta la posición más angular. Si el foco se pierde en esta transición, entonces la lente está descolimada.

¿Qué significa descolimada y por qué la óptica está así?

Se utiliza el término colimación de una óptica cuando se refiere a comprobar su enfoque correcto respecto a su plano focal. Que la óptica necesite una colimación es normal y puede deberse a diversos factores ya que sufren desgaste debido a su uso, la manipulación, los mecanismos y a los cambios de temperatura y humedad. Además, dependiendo del material del que esté hecho la montura, podría producirse una dilatación o contracción de la pieza. También es frecuente que la descolimación se produzca, por ejemplo, debido al terreno en el que estamos trabajando ya que, si se trata de un suelo inestable, la vibración del vehículo en el que viajamos puede perturbar la óptica. Todos estos motivos hacen que sea necesario hablar del proceso de colimación de lentes.

Un fallo en la colimación de una óptica provocará deformación en las imágenes. Este error, que puede ser imperceptible a primera vista, nos dará problemas al hacer un visionado de lo que hemos grabado. El proceso de colimación implica expandir o concentrar los haces de luz en un haz paralelo, de modo que cuando lo realizamos debemos estar enfocando a infinito para poder conseguir este efecto. Esta es la función del colimador.

En Welab contamos con un espacio propio para realizar este proceso: la sala de colimación de lentes. En ella proyectamos nuestra carta de foco y, en el centro, ponemos el colimador a un metro de distancia de la misma. Este aparato lo que hace es darnos el valor de la desviación y las micras que necesitamos corregir. Esta corrección se hace con los aros Shimms, de los que hablaremos a continuación.

En este punto, debemos distinguir entre las lentes con zoom óptico y las lentes fijas, ya que el proceso de colimación de lentes entre ambas se hace de forma muy parecida, pero con una pequeña diferencia.

Lentes fijas y los Shimms

Colocamos la óptica a una distancia exacta de un metro de la carta Siemens y enfocamos de la forma más precisa posible. Es en este momento donde aparece el término Shimms. ¿Qué son los Shimms? Unos aros adaptables de plástico o acero inoxidable con grosores determinados que se usan en la montura de la lente descolimada, haciendo que la distancia focal se desplace para corregirse entre sí. Cuando hacemos la colimación de lentes, el colimador traduce el valor para saber qué tipo de grosor de Shimms (o tipos) necesitamos para poder corregirla. Una vez colocados, la descolimación estaría corregida y ya podríamos trabajar sin problemas.

Lentes con zoom óptico

Sobre una carta Siemens, a una distancia de tres o cuatro metros, abrimos totalmente el diafragma. Lo primero que tenemos que hacer es liberar el tornillo de anillo Back Focus, hacer el máximo de zoom que permite la lente y enfocar la carta. Después, abrimos al máximo angular y ajustamos con el aro de Back Focus ya liberado para enfocar la imagen de nuevo. Debemos repetir estos dos pasos hasta que la imagen permanezca enfocada desde el teleobjetivo hasta el angular de la óptica. Después, volvemos a apretar el tornillo.

Todas estas son tareas que corresponden a los ayudantes de cámara para conseguir la mejor calidad posible al equipo. En Welab contamos con 5 puestos en total, cada uno con su carta Siemens correspondiente, en donde podéis comprobar y chequear el equipo al completo.

Nosotros siempre hacemos una revisión de todo nuestro equipo antes de entregarlo para que todo esté en perfecto estado y que podáis estar tranquilos, sin embargo, sabemos que sois muy perfeccionistas, así que, si lo solicitáis, podemos hacer el ajuste de la lente según nos indiquéis y veáis conveniente en nuestra sala de colimación de lentes. Además, os resolveremos cualquier duda que tengáis para asegurar que el equipo esté en perfectas condiciones antes de iros a rodar.

 

Los filtros polarizados

WELAB Professional Equpment
Diciembre, 2020

 

Los filtros polarizados son especiales, ya que sus efectos no pueden imitarse de manera digital. Un filtro polarizado oscurece cielos azules dando un mayor contraste con respecto a las nubes, ilumina y satura algunos colores (los verdes en especial) y eliminan algunos reflejos.

Aunque con postproducción sí se puede oscurecer las tomas o aportar más saturación, eliminar reflejos es mucho más complicado. Es por esto que los filtros polarizados no pasan de moda con los años a diferencia de otros filtros. Desde su diseño original en 1929 por Polaroid, este filtro se ha mantenido sin cambios.

¿Cómo funcionan los filtros polarizados?

La ciencia explica el funcionamiento de los filtros polarizados. La luz funciona como una partícula y como una onda, en este artículo nos centraremos en el comportamiento que tiene la onda.

Cuando tenemos una fuente de luz como el sol o una bombilla, esta irradia luz en todas direcciones. Sin embargo, al golpear un objeto plano con una superficie de gran brillo, la luz se refleja de manera polarizada. Esto quiere decir que la luz se irradia en una sola dirección. Para la cámara, y para nuestros ojos, esto se ve como un intenso reflejo de luz.

Al haber dos tipos de luz mezclada: una polarizada y otra no, con un filtro podremos separarlas para cancelar la que no nos interesa.

Los filtros polarizadores tienen una capa absorbente dicroica (conocida como “pola foil”) que selecciona el paso de luz en una pequeña gama de colores. Esta capa está hecha de alcohol polivinílico (PVA), también llamado polietinol o poli, que se sumerge en una solución de yodo. El resultado permite que la capa dicroica absorba ondas de luz paralelas a las ondas largas pero que deje pasar a las ondas perpendiculares sin alteración.

El pola foil absorbe la luz que está en la misma orientación que sus ondas, permitiendo que la luz perpendicular pase. Los filtros polarizados no tienen efecto en la luz no polarizada por lo que podrán cancelar los reflejos brillantes en superficies sin dejar de apreciar todo lo demás.

Tipos de filtros polarizados

Encontramos dos tipos de filtros polarizados: el lineal y el circular. La diferencia entre estos es cómo sale la luz del filtro y si tiene algún tipo de filtración adicional.

Un polarizador lineal elimina la luz polarizada de una dirección específica y permite que la luz no polarizada pase. Este tipo de filtros puede suponer un problema si tu objetivo tiene foco automático (AF). Este tipo de cámaras suelen contar con un prisma divisor de haz o un espejo parcial que desvía la luz de la lente. Esto polariza la luz y si la única luz que incide en el divisor ya está polarizada, no podrá verse o su intensidad no será la adecuada. Estos polarizadores también podrían causar problemas con las cámaras ENG de tres chips.

Los filtros polarizados circulares cuentan con un segundo filtro: “placa de cuarto de onda” o “retardador de cuarto de onda” en la parte posterior de un filtro lineal. Este tipo de filtro es el más recomendable para utilizar con cualquier cámara. El filtro circular hace que la onda de luz que oscila linealmente gire alrededor de su eje, de ahí el término circular.

Por supuesto, hay filtros polarizadores de diferentes precios. Los filtros pueden llegar a ser lo más caro de un kit. Un mejor filtro polarizador tendrá una mejor calidad de cristal. Los filtros más caros utilizan un cristal óptico de mayor calidad, y tendrán menos sesgos de color en la imagen. En muchas ocasiones las polas se utilizan junto a algún filtro neutro.

¿Cómo usar un filtro polarizado?

Los filtros polarizados pueden venir en forma redonda, cuadrada o rectangular. Las circulares se pueden colocar directamente a la parte frontal permitiendo su movimiento de forma independiente. Con este filtro es esencial asegurarse de colocar la onda de retardo hacia la lente. Si el filtro viene con rosca no tendrás que preocuparte, ya que solo podrá ponerse de la manera correcta.

Los filtros cuadrados o rectangulares, generalmente 4×4” o 5,6×5,6” tienen que colocarse en portafiltros giratorios especiales en un parasol.

Para utilizar estos filtros polarizados la cámara debe estar en un ángulo determinado. Además, es posible que no se elimine un reflejo por completo si la luz no se refleja en una superficie perfectamente polarizada, pero sí lo reducirá.

Lo único que no podrá eliminar ni reducir son los reflejos en las superficies metálicas. La luz de estos reflejos no es polarizada, por lo que no podrá cancelarla.

¿Cómo se consigue mejorar la luz de un cielo azul?

Esto se explica por las pequeñas partículas de gas que hay en la atmósfera. La luz del sol se dispersa en estas partículas. Esta luz está polarizada, por lo que podrá reducirse con los filtros polarizados. Este efecto funcionará mejor cuando el sol se encuentre perpendicular a la cámara, es decir, en un ángulo de 90 grados a la lente. El polarizador no tendrá efecto si el sol se encuentra en posición directa, de frente o detrás de la lente.

Pequeños inconvenientes de los filtros polarizados

Los filtros polarizados absorben alrededor de 1/2 a 2 puntos de luz en promedio. Esto quiere decir que tendremos que compensar la exposición de nuestra toma. Además, estos filtros, como cualquier otro, pueden producir destellos. Algunos filtros polarizados se venden con recubrimientos antirreflejantes para mitigar este problema.

Es muy importante tener en cuenta la lente que estamos utilizando. Si se está usando una lente gran angular, habrá que tener cuidado al utilizar las polas. En este caso, el ángulo del sol es crucial. Al estar capturando un ángulo de visión tan grande, el efecto podría no ser homogéneo en todo el cuadro. En el caso de utilizar un ojo de pez, el centro de la imagen mostrará un mayor grado de efecto. Los bordes de la imagen no tendrán el efecto polarizador, ya que se encontrarán en posición paralela al sol.

 

ARRI Textures

ARRI ALEXA 35

 

WELAB Professional Equipment.
ARRI Textures – 27 marzo, 2023

 

Arri ha lanzado un nuevo paquete de texturas para su nueva cámara Alexa 35, conocido como ARRI Textures. Estas nuevas texturas se llaman: G422 (Custom Shadow Nostalgic), G512 (Custom Smooth Nostalgic), G633 (Custom Nostalgic), y G545 (Custom Soft Nostalgic). Tras el lanzamiento de la Alexa 35, ARRI recibió muchos comentarios de los usuarios sobre texturas.

Descubrieron que la favorita de casi todos era la G733 Nostalgic. Gracias a ello, han desarrollado cuatro nuevas texturas, que ya están disponibles para descargar de manera gratuita. A continuación, os explicaremos en qué consiste el sistema de Arri Textures y sus distintos usos.

¿Qué son las ARRI Textures?

Arri ha agregado una nueva función llamada ARRI Textures en la que los usuarios de la Alexa 35 pueden elegir entre una amplia gama de ajustes de imagen. Se trata de una combinación de 30 ajustes de imagen diferentes, que combinados otorgan a la imagen resultados muy diversos. Las Texturas ARRI se eligen en cámara como los archivos Look o un stock de película. La Alexa 35 viene con varios de ellos preinstalados. Una vez más Arri propone algo innovador y que lo aleja de la competencia. Al agregar la posibilidad de usar estas texturas, permite a los directores de fotografía tener más control sobre su intención artística.

Existen diferentes texturas para distintas situaciones fotográficas. Estas van desde opciones para rodar tonos de piel, looks vintage, looks de mayor contraste, escenas nocturnas, etc. Debes tener en cuenta que al utilizar ARRI Textures nos encontramos frente a un proceso en la cámara.  Y que siempre se incorpora a los archivos ProRes y Arriraw. El funcionamiento es sencillo. Escogemos y probamos una textura Arri en preproducción, exactamente de la misma manera que lo harías con una LUT de programa. La textura por defecto se llama K445 Default. Las otras texturas son meramente una opción más de las muchas que nos ofrece este modelo de cámara.

Pero, ¿Qué significan las combinaciones de letras y números de las diferentes texturas? Te lo contamos a continuación:

  • Tipo de grano:El tipo de grano puede variar de forma bastante compleja, por ejemplo, más o menos color, fino/grueso, etc. El grano de la textura por defecto, la K445 Default, se ajusta a una letra de la mitad del alfabeto. Cuanto mayor sean las variaciones de color, tamaño, etc., del grano por defecto, más lejos estará la letra de otra textura ARRI. Cuanto más cerca estén las letras en el alfabeto, más similar será la impresión en cuanto al tipo de grano.
  • Cantidad de grano:Es un número que indica la cantidad de grano. Cuanto más alto es el número, más grano hay (0 a 9).
  • Contraste en las estructuras finas de la imagen:Este número indica la cantidad de contraste para estructuras de imagen finas (frecuencias espaciales altas). Cuanto mayor sea el número, mayor será el contraste (de 0 a 9).
  • Contraste en estructuras de imagen gruesas:Este número indica la cantidad de contraste para estructuras de imagen gruesas (frecuencias espaciales bajas). Cuanto mayor sea el número, mayor será el contraste (de 0 a 9).
  • Descripción:Se trata simplemente de un nombre descriptivo de la textura.

Las ARRI Textures son visibles tanto en el visor como en las salidas SDI. Han sido diseñadas para ser bastante sutiles y Arri recomienda que se vean mejor en una pantalla HDR grande de alta calidad. Sin embargo, si tiene un monitor decente puede ampliar la imagen y ver claramente la diferencia entre las distintas texturas. Algunas son más sutiles que otras. Han sido diseñadas a propósito para no forzar demasiado el aspecto. Pero hay que tener cuidado si se establece una textura que tiene más grano y luego se combina con una LUT personalizada que también tiene grano se termina con un aspecto muy estilizado. Si bien las texturas ARRI son sutiles, pueden ser bastante pronunciadas dependiendo de lo que decida hacer con su material en postproducción.

 ARRI TEXTURES PARA ALEXA 35

 K445 Default

La textura K445 Default está diseñada para funcionar bien en la mayoría de las situaciones y al mismo tiempo aprovechar al máximo las ventajas cinematográficas de la cámara. Es indulgente con la piel, pero también renderiza imágenes con excepcional claridad y detalle. Lo que la convierte también en una textura perfecta para rodar en croma. Esta es también la textura a utilizar cuando se rueda con Alexa 35, y cámaras digitales Arri anteriores, ya que se asemeja mucho a las texturas de esas cámaras. Tiene un grano de bajo a moderado y es perfecta para usar en todos los ajustes de EI.

P425 Cosmetic

Se trata de una textura más suave, y muy cercana a la cinematográfica K445 Default. Esta textura se recomienda especialmente para representar tonos de piel. Mantiene además, las estructuras y las luces pronunciadas. Posee un grano con rango de bajo a moderado, pero es un poco más suave en comparación con el K445 por defecto.

K445 Default vs P425 Cosmetic

 

G733 Nostalgic

Esta es una textura granulada con una sensación vintage, y fue diseñada para renderizar mucho grano y tener un carácter suave. El grano no saturado enfatiza la emulación nostálgica de la película. Se puede utilizar en todos los ajustes de EI.

K445 Default vs G733 Nostalgic

 

G522 Soft Nostalgic

Se trata de una textura granulada que da una ligera sensación vintage. Ha sido diseñada para ofrecer un grano no saturado y un carácter más suave. Tiene una textura vintage, un poco más suave, y con menos grano y menos contraste que la G733 Nostálgico. De nuevo, se puede utilizar en todas las configuraciones de EI.

K445 Default vs G522 Soft Nostalgic

 

F567 Clarity

Esta textura funciona con cualquier tipo de metraje. Tiene mayor nitidez y detalle en comparación con la textura K445 Default. Las texturas Clarity son perfectas para paisajes. Además, esta textura funciona mejor para configuraciones de IE baja a media. No se recomienda para ajustes de EI altos porque podría acentuar el grano.

K445 Defaultl vs F567 Clarity

 

F578 High Clarity

De nuevo, esta textura fue diseñada para funcionar con cualquier tipo de metraje, y tiene aún más detalle que la textura F567 Clarity. Tal y como la anterior, esta textura funciona mejor con ajustes de EI bajos o medios. No se recomienda su uso con ajustes de EI altos, ya que podría acentuar el grano.

K445 Default vs F578 High Clarity

 

L345 Shadow

Esta textura está basada en la textura K445 Default, pero tiene menos ruido y grano optimizado para imágenes con mucho contenido oscuro. El grano visible emula el aspecto del grano de la película en color negativo y es más agradable en escenas más oscuras. Ya que el color del mismo no está tan saturado. Las texturas de sombra están optimizadas para ajustes de EI medios y altos del sensor. Por tanto, funcionan mejor en este rango de exposición.

K445 Default vs L345 Shadow

 

H457 Deep Shadow

Esta textura está diseñada para ser utilizada en tomas bastante oscuras. Tiene poco grano y su color restante está menos saturado. Además, tiene mayor claridad (más contraste) y aún más retención de detalles de sombra que la textura Sombra L345. Las texturas Shadow están optimizadas para ajustes de EI medios a altos del sensor y por lo tanto funcionan mejor en este rango de exposición.

K445 Default vs H457 Deep Shadow 

 

Debido a que las ARRI Textures son toda una novedad, para evitar malos resultados, se han mantenido las texturas sutiles a propósito. Por supuesto, habría sido genial tener opciones más extremas, sin embargo, debido a que las texturas están integradas en las grabaciones, esto podría llevar fácilmente a cometer errores. El grado de visibilidad de las texturas mencionadas anteriormente depende en gran medida de su configuración de visualización. Algo que será claramente visible en un monitor de 7″ resultará demasiado fuerte en una pantalla HDR de alta calidad. Por el contrario, algo que se ve muy bien en una pantalla HDR será apenas visible en un monitor de 7″. Este es el motivo por el que Arri recomienda encarecidamente que los usuarios prueben las texturas en preproducción con pantallas HDR grandes y de alta calidad, para que sepan de antemano qué resultados van a obtener.

Una vez que Arri haya recibido un feedback sobre qué otros tipos de texturas pueden ser objetivo de deseo entre los distintos usuarios, crearán otras nuevas y las publicarán en el sitio web de Alexa 35. En cuanto a la cuestión sobre qué ARRI texture es mejor usar a la hora de emparejarla con una Alexa 35, ARRI recomienda la K445 Default (especialmente cuando se trabaja sobre croma). ¿Existe alguna advertencia cuando se utilizan texturas? Sí, las hay. Por lo general, las texturas influyen en el ruido de la imagen de diferentes maneras, lo que afectará a la SNR. Algunas texturas disminuirán el rango dinámico medido en ¼ de parada, mientras que otras lo aumentarán en ½ parada. Los efectos de las texturas dependen también del contenido de la imagen.

 

Ray Harryhausen habla sobre su magia cinematográfica

Harryhausen y una de sus mejores criaturas, Medusa, la Gorgona, de Furia de titanes (1981).

 

AMERICAN CINEMATOGRAPHER
23 de febrero del 2022 – Personal del CSA
por Ann Tasker

 

Después de más de 40 años, el mago de la cinematografía stop-motion finalmente comparte algunos de los secretos técnicos de su arte único.

Nota del editor: Esta discusión fue parte de la cobertura de AC sobre Choque de titanes, con una descripción general de la producción de la película que se encuentra aqui.

 El gran mago de los efectos visuales especiales, Ray Harryhausen acaba de completar su película número 16 en una carrera que abarca 41 años. Choque de titanes es el duodécimo en el que trabaja con su viejo amigo y productor Charles H. Schneer, el octavo que se filma en Dynamation, un término acuñado por Schneer para describir la técnica de unir la acción en vivo y la animación stop-motion que Harryhausen ha sido pionera en el arte elevado.

Furia de titanes representa el proyecto más ambicioso de MGM en más de 10 años y es una aventura de fantasía con raíces en la mitología. Desmond Davis es el director y «más estrellas de las que hay en el cielo» incluyen a Harry Hamlin, Judi Bowker, Burgess Meredith, Maggie Smith, Ursula Andress, Claire Bloom, Sian Phillips, Flora Robson y Laurence Olivier como Zeus, padre de los dioses.

Esta entrevista se realizó para el número de junio de 1981 de AC.

 

Para conocer las técnicas de filmación de esta epopeya, American Cinematographer viajó a Inglaterra, donde Harryhausen, nacido en Los Ángeles, vive y trabaja desde hace 21 años.

Se ingresa al maravilloso mundo de Ray Harryhausen a través de una puerta con cicatrices de pintura que se abre con un chirrido en uno de los rincones más remotos de Pinewood Studios, a 15 millas de Londres. Durante los últimos dos años y medio, el viejo estudio de cine ha sido su casa de trabajo y, francamente, el lugar es un desastre. La técnica de Harryhausen siempre ha parecido ser una parte de tecnología y dos de improvisación escolar, imaginación sin límites y una capacidad infinita para esforzarse. Todo se refleja aquí.

Las criaturas, siempre «criatura», nunca «monstruo», como Harryhausen aborrece la palabra, yacían destripadas en el suelo, sus esqueletos esféricos fueron removidos para hacer modelos más nuevos y mejores. Una lechuza operada electrónicamente con un mecanismo lo suficientemente sofisticado como para guiar un misil se apoya en una botella de Fairy Washing Up Liquid, «mejor que la glicerina para resaltar las características de las criaturas cuando haces un primer plano», afirma Harryhausen.

Un par de ojos de porcelana que esperan el pincel cuelgan de un trípode hecho con pinzas para la ropa y agujas de tejer. Pronto entrarán en la cabeza de goma espuma de una Gorgona cuyo cabello ha sido reemplazado por 12 serpientes, cada una con 25 articulaciones. Recortes de cómics y volúmenes de arte encuadernados en cuero, ruedas de juegos de construcción y sus propias hermosas esculturas, todo ensucia la superficie de lo que Harryhausen llama con optimismo su mesa de trabajo.

Ray Harryhausen mira el modelo de Kraken a través de la cámara. No usa animación por computadora, sintiendo que se necesita el toque personal de la animación manual.

 

Aunque podría escribir el libro sobre los aspectos técnicos de su oficio y, de hecho, ha contribuido a todos los tratados definitivos sobre el tema, la preocupación de Harryhausen sigue siendo la historia que está ayudando a contar; un hombre más interesado en la música hermosa que en el equipo de alta fidelidad que la reproduce.

Presionado con fuerza, revelará con cautela algunos de los secretos de Dynamation, pero su verdadera pasión está reservada para las aventuras no contadas que le gustaría filmar, las nuevas criaturas que le gustaría crear, si solo le quedara suficiente tiempo y dinero en el mundo.

Un nombre se repite a lo largo de su conversación, el nombre que comenzó todo para él: King Kong. Harryhausen tenía 13 años cuando vio la película de 1933 en el Teatro Chino de Grauman y se convirtió instantáneamente en discípulo del creador de Kong, Willis O’Brien. “Estaba intrigado por la película porque no sabía cómo estaba hecha”, recuerda. “Sabía que no era un hombre con traje. La película jugó en mi imaginación. Había estado haciendo dioramas como pasatiempo con arcilla, los pozos de alquitran de ka Brea  y varios otros temas prehistóricos, y vi en King Kong una forma de hacer que estas cosas se movieran.

“Empecé a hacer mis propias películas en el jardín trasero. No teníamos luces, pero un amigo había comprado una vieja cámara Victor de 16 mm y se ofreció a filmar. Hicimos un oso con el abrigo de piel de mi madre y empezamos a animar temprano en la mañana. Terminamos a última hora de la tarde, momento en el que el sol se había desplazado de modo que, cuando el oso salió de la cueva, las sombras se movían por la pantalla. Quería hacerlo mucho mejor, así que me involucré con la fotografía y la iluminación.

King Kong (1933, imágenes de radio RKO).

 

“Tenía entonces unos 15 o 16 años y me propuse tratar de averiguar cómo se hizo King Kong. Ocasionalmente, había algo en las revistas que describía las articulaciones esféricas, etc. Reuní toda la información que pude sobre la animación stop-motion y todo se desarrolló a partir de ahí”.

Mientras aún estaba en la escuela, Harryhausen estudió dirección de arte y fotografía en un curso nocturno a cargo de la Universidad del Sur de California bajo la guía de varios miembros de la industria cinematográfica: editores, directores de arte y directores de fotografía como Lewis Physioc ASC. Después de un breve coqueteo con la actuación y una temporada en el departamento de teatro de Los Ángeles City College, Harryhausen volvió a esculpir, dibujar y planificar películas de fantasía.

A principios de la década de 1940, Harryhausen se unió a George Pal y luego produjo una serie de películas animadas llamadas Puppetoons. Los títeres de Pal eran figuras muy estilizadas torneadas en un torno y cortadas en madera contrachapada. Para cada movimiento, había una figura separada y un paso podía involucrar 24 figuras. Aunque Harryhausen aprendió mucho sobre fotografía y adquirió experiencia práctica, el tipo de animación de Pal le resultó limitante.

Pasó la Segunda Guerra Mundial haciendo películas instructivas y de orientación para los servicios y sin querer volver a la animación de títeres limitada. A su regreso a la vida civil, Harryhausen se embarcó en su propia serie de cuentos de hadas animados. Conocidas como las “Historias de la Madre Oca”, las películas aún se exhiben en las escuelas. El “estudio” de Harryhausen estaba detrás del garaje de su padre y la producción era un asunto familiar. Su madre hizo el vestuario y Harryhausen Sr, un maquinista, hizo las uniones y armaduras. Harryhausen fue el «animador jefe» del corto de Puppetoon «Tulips Shall Grow» en 1942.

Antes de que Harryhausen ingresara al ejército, concibió y comenzó a trabajar en una película llamada Evolution. Fue un proyecto ambicioso que rastreaba el surgimiento del mundo desde un gas arremolinado en el espacio hasta la era de los mamíferos. Le había mostrado su metraje a Willis O’Brien y en 1946, cuando O’Brien estaba preparando Mighty Joe Young, Harryhausen fue contratado para trabajar en la película.

Animando a Mighty Joe Young (1949).

 

Trabajó con O’Brien y el productor Merian Cooper durante unos tres años. El primer año lo pasó cortando marcos para dibujos, mecanografiando, cualquier cosa para adquirir experiencia, y luego comenzó a ayudar con la animación de Mighty Joe. Varios proyectos previstos por O’Brien y Cooper, como Food of the Gods , Valley of the Mist y Mighty Joe Young Meets Tarzan  no lograron despegar, y un amigo le presentó a Harryhausen a Jack Dietz. El productor tenía un esquema llamado Monster From Beneath the Sea, que se convirtió en The Beast from 20,000 Fathoms y el primer largometraje en solitario de Harryhausen.

La bestia de 20.000 brazas (1953, Warner Bros.)

 

La película se convirtió en una de las «durmientes» del año, pero entre el final de la producción y el estreno, Harryhausen volvió a sus cuentos de hadas. Cinemascope y los artilugios de pantalla ancha estaban entonces de moda y Warner Bros, los distribuidores, temían que, como La Bestia no estaba en color, no consiguiera reservas para los cines. Resolvieron esto tiñendo la película de marrón y lanzándola con la etiqueta promocional “Glorious Sepiatone”.

Los amigos han jugado un papel importante en el destino de Harryhausen y fue otro amigo quien le presentó a un joven productor llamado Charles H. Schneer. Quería hacer una película protagonizada por un pulpo gigante que derriba el puente Golden Gate. Se juntaron e hicieron It Came From Beneath The Sea.

Vino de debajo del mar (1955, Columbia Pictures)

 

American Cinematographer: Fue el comienzo de una asociación y una amistad que perdura desde hace más de 30 años. En 1959, la pareja se mudó a Inglaterra. Le preguntamos a Harryhausen por qué.

Ray Harryhausen: Habíamos hecho tres o cuatro películas en Hollywood y luego alguien vino a nosotros con un guión llamado Gulliver. Queríamos hacer la imagen y la mejor manera de hacerlo fue a través de travelling mate. Hollywood no contaba con amplias instalaciones en ese momento para hacer viajes correctamente, y habíamos oído hablar de la Proceso de vapor de sodio, donde se tiene un mate instantáneo, lo que simplificó el trabajo. Teníamos tantos mates de viaje en la imagen que decidimos investigar el proceso que había desarrollado Rank. Vinimos a Inglaterra e hicimos dos cuadros usando el respaldo de sodio. La Isla Misteriosa y Los Tres Mundos de Gulliver.

AC: ¿Por qué este proceso solo estuvo disponible en el estudio de Rank, Pinewood, Londres? Hollywood en este punto seguramente estaba adelantado con la técnica.

RH: Creo que Hollywood había invertido demasiado en la retroproyección y sintieron que con los proyectores de tres cabezas y todo lo que podían lograr era lo que se necesitaba. Ocasionalmente veías un mate móvil en una película de Hollywood, pero se convirtió en un arte olvidado, aunque Hollywood tenía un mate móvil cuando hicieron películas como El Arca de Noé utilizando el antiguo proceso Dummng y el proceso Williams en blanco y negro.

AC: Cuando se trataba de color, nunca parecían desarrollar el arte en gran medida porque la mayoría de los estudios tenían grandes departamentos de retroproyección con enormes cantidades de dinero invertidas. Probablemente no querían cambiar.

RH: Muchas imágenes no requerían mate de viaje, pero cuando se trata de personas grandes y pequeñas, debe recurrir a su uso. El Laboratorio Rank TM, a cargo de Vic Margutti, tenía el sistema [de vapor de sodio] que era capaz de producir instantáneamente un mate en movimiento por bi-pack. Sentimos que sería un gran activo para Gulliver. Disney tenía una franquicia en el sistema en Estados Unidos.Hicimos las dos películas y nos gustó tanto Inglaterra que nos quedamos. También estábamos justo en el centro de Europa y podíamos llegar a cualquier lugar exótico en cuatro o cinco horas. Sentimos que Malibú, el Gran Cañón y todo el paisaje alrededor de Hollywood se estaba agotando rápidamente por la televisión. Un fondo demasiado familiar no podría usarse en una película de fantasía. Cuando hicimos El séptimo viaje de Sinbad, por ejemplo, queríamos algunos edificios árabes auténticos. El Medio Oriente estaba en crisis, así que nos instalamos en España y usamos la Alhambra, con su maravillosa arquitectura morisca.

AC: ¿Algunos de sus equipos son, creo, bastante viejos…?

RH: Sí, tenemos una Mitchell NC, creo que fue la 15º Mitchell que se fabricó y todavía la usamos. Soportaría cualquier cámara moderna. Estaban tan bien hechas que si les das algún tipo de cuidado durarán para siempre. En Titans tuvimos que usar cámaras adicionales. Teníamos tres equipadas con motores stop-motion y dos proyectores. De hecho, tuvimos tres para mantener un flujo de imágenes que salieran para tratar de cumplir con el cronograma.

AC: ¿En qué se diferencia una cámara de stop-motion de una cámara normal?

RH: Principalmente en lo que se refiere al motor. Una cámara de stop-motion tiene un motor que hará una exposición de un cuadro muy precisa y es muy importante que este motor sea confiable. Está produciendo una exposición de un solo cuadro y si la exposición varía de alguna manera, obtiene un parpadeo y otros problemas. Usamos algunos de los motores stop-motion que se usaron en el primer King Kong en 1933, pero recientemente hemos comprado otros nuevos.

AC: ¿Han cambiado mucho las cámaras a lo largo de los años?

RH: El principio básico no ha cambiado, aunque ahora puede obtener cámaras compactas mucho más pequeñas y motores mucho más confiables que funcionan con un principio electrónico más simple. Todavía me gusta volver al tipo de motor de 1933, a pesar de algunas de sus deficiencias. Los encuentros muy confiables. La acción de la película se filma en el lugar o en el estudio con una determinada exposición de iluminación determinada por el director de fotografía.

AC: ¿Qué problemas tienes para hacer coincidir la iluminación cuando colocas a tus criaturas en la película? ¿Hacéis una serie de gráficos relativos a los números de pizarra, por ejemplo?

RH: Intento hacer coincidir la iluminación que hay en la placa de fondo. Es muy fácil ver de dónde viene la luz clave y durante la producción hacemos diagramas muy cuidados. Por supuesto, hay un gran problema con el balance de color cuando intentas reproducir una película. Si no se ajusta con cuidado, la fuente de luz de proyección a veces cambia todo el tono de los colores. Para intercalar con el metraje de producción, debe tener mucho cuidado para intentar obtener una reproducción del color lo más precisa posible. Esto se logra mediante filtros y otras técnicas para alinear la fuente de luz. Hacemos que el camarógrafo asistente tome medidas precisas sobre qué tan lejos se supone que la criatura está de la cámara en relación con las personas. También tenemos recortes de cartón para representar a la criatura. Si el monstruo es muy grande, hacemos que alguien sostenga un palo largo para dar un punto de enfoque a los actores y extras. Hemos tenido una maravillosa serie de camarógrafos en nuestras películas. En nuestros primeros días en Inglaterra, teníamos a Wilkie Cooper [BSC]. En Clash y nuestras dos últimas películas, hemos tenido a Ted Moore [BSC].

AC: ¿Qué material de película usas?

RH: Básicamente, 5247 [de Kodak]. El material de película actual es mucho más sensible a la reproducción de una imagen y las nuevas lentes crean un fondo mucho más nítido. Tuvimos problemas con nuestra primera imagen en color, El séptimo viaje de Simbad. Fue necesario utilizar material de impresión normal para nuestras placas de fondo. Pasamos meses de agonía probando varias representaciones de color. No había ninguna otra acción en ese momento, pero en los últimos años ha habido nuevos desarrollos. Ahora usamos un stock positivo del que hacen impresiones especiales de bajo contraste para televisión. Tiene una relación de contraste más baja y ha hecho que la reproducción del color sea mucho más fácil y mucho más precisa. Cuando hicimos Los tres mundos de Gulliver El séptimo viaje de Simbad, tuvimos que usar flash en muchas de nuestras placas de fondo para que los negros no se volvieran demasiado negros cuando se volvieran a fotografiar.

Harryhausen selecciona fragmentos de películas para Choque de titanes.

 

AC: ¿Qué quieres decir con «flash»?

RH: Flash significa que debe exponer la película antes de imprimirla y empañarla ligeramente, lo que hace que los negros se vuelvan ligeramente grises. Hay que controlarlo con mucho cuidado. La película tiende a captar contraste en la reproducción. Ahora tiene 5247 y si la placa se dispara correctamente, tiene una calidad de reproducción mucho mejor.

AC: ¿Tratas de usar el mismo lote de película cuando filmas a tus criaturas que el que usas para las placas?

RH: Tenemos que tener stock especialmente perforado. Hoy en día, debido a las leyes de la economía, el material se produce a tal velocidad que a veces los orificios de las ruedas dentadas presentan imprecisiones con respecto a las perforaciones de las películas. Es asombroso a lo largo de los años cómo este tipo de problema ha aumentado en lugar de disminuir. Se debe a una serie de razones diferentes. Tratamos de bajar los primeros 20 000 o 30 000 pies antes de que el punzón comience a producir orificios de rueda dentada demasiado grandes.

AC: ¿Qué otros problemas hay para ti que difieren de la realización de películas regulares?

RH: Tenemos que ser muy cuidadosos con la perspectiva porque si estás usando una proyección en miniatura, es muy difícil hacer que la inserción de la figura animada se mueva hacia y desde la cámara. Muchas veces no usarás los mismos lentes que usaste en la fotografía original. Si un actor comienza en el fondo y avanza, aumenta de tamaño muy rápidamente si se usa una lente gran angular. Cuando llegas a insertar la criatura animada moviéndose en la misma dirección, el hecho de que hayas utilizado una lente de ángulo diferente necesaria para reproducir la placa de fondo provoca cambios en todo el concepto de la perspectiva de la toma. Tiene que ser cuidadosamente controlado y diseñado en la forma en que se escenifica la acción. Es necesario hacer frente a este problema durante la producción y no después.

AC: ¿Qué es un “punto caliente”?

 

RH: Un ‘punto caliente’ significa que ve la fuente de luz de su proyector a través de la imagen proyectada en la pantalla.

AC: ¿Los actores tienen problemas para reaccionar a los recortes de cartón?

RH: Algunas veces. Por eso realizo una serie de dibujos de los puntos destacados del cuadro, así como bocetos de continuidad. Le muestran al actor exactamente lo que se supone que debe mirar en la escena final. Para el actor, es una forma de boxeo de sombras. Están mirando y reaccionando a algo que no está ahí. Muchas veces podemos montar la escena con dobles o dobles que tomarán el lugar de la criatura. Fotografiamos a los dobles solo como guía para analizar su acción. Al mismo tiempo, hacemos otra placa de fondo sin los especialistas, solo grabando al actor «boxeando en la sombra», por así decirlo. Esta es la pieza real de la película que luego usamos para combinar el modelo animado.

AC: ¿Qué es exactamente un “plato”?

RH: No sé cómo surgió el término, pero siempre hemos llamado a la pieza de película positiva utilizada para la reproducción, una «placa» de fondo. Consiste en una tira de película positiva impresa especialmente a partir de la fotografía original. Se coloca en un retroproyector en miniatura y se reproduce con otra cámara. Lo más importante es que tenga orificios de rueda dentada negativos, Bell & Howell, para mayor precisión y registro.

AC: La película pasa por la cámara a cierta velocidad. ¿En tu trabajo tienes problemas para adaptarte a esta velocidad?

RH: La velocidad de la fotografía de acción en vivo es siempre de 24 cuadros por segundo y debe juzgar la velocidad del movimiento de su animación en consecuencia. Cuanto más amplio sea el movimiento, más rápido parecerá moverse el modelo. Presenta un problema de sincronización porque las criaturas y los actores deben aparecer para ser fotografiados al mismo tiempo. Esto hace que a veces sea necesario mover la figura alrededor de medio milímetro por cuadro para mantener la sincronización con los actores en vivo. Con velocidades de movimiento más lentas y muchos modelos, a veces solo puedo producir 13 fotogramas por día laboral. Cuando estaba haciendo la pelea de esqueletos en Jason and the Argonauts, tenía siete esqueletos peleando contra tres hombres que eran actores en vivo. Mover siete esqueletos, cada uno con cinco apéndices moviéndose a diferentes velocidades, significaba que trabajaba muy lentamente. Por supuesto, hay otros días en los que puedo promediar 25 pies de animación.

AC: ¿Tuviste resistencia a usar color?

RH: Bueno, sí. En los primeros días, cuando Charles y yo hicimos 20 Million Miles to Earth, acababan de sacar un nuevo material en blanco y negro que era maravilloso para la reproducción. Podría reproducir una placa de fondo e intercalarla con el negativo original y apenas detectar la diferencia. Acabábamos de dominar el problema inherente al blanco y negro cuando Charles quiso hacer El séptimo viaje de Simbad en color. «Simplemente no podemos hacer una película de Las mil y una noches en blanco y negro», dijo. Siguió animándome a experimentar con el color a pesar de sus muchos problemas obvios. Los primeros resultados no fueron de la calidad que esperábamos, pero fue el paso correcto en un campo relativamente nuevo.

AC: ¿El color obviamente presenta más problemas?

RH: El color presenta muchos más problemas en la reproducción porque los diversos colores cambian cuando se vuelve a fotografiar la placa. En aquella época, los verdes por ejemplo, salvo que tuvieran una intensidad particular, tendían a volverse muy grises. Tuvimos el mismo problema con otros colores. Cuando intercalas un fondo refotografiado con el material de producción original, una chaqueta o un turbante adquieren un tono completamente diferente.

AC: Con el color, ¿sus modelos tienen que construirse mucho mejor?

RH: Sí, de hecho. Esto es particularmente cierto en la fotografía de primeros planos de un modelo relativamente pequeño. El detalle es lo más importante, particularmente en la textura de la piel. El uso de lentes excesivamente nítidos para sacar lo mejor del fondo a veces hace que el modelo sea demasiado nítido en relación con el fondo. Entonces hace necesario difundir una parte de la imagen para el efecto final.

Harry y su impresionante modelo de Medusa.

 

AC: ¿Siempre grabas en película de 35 mm?

RH: Sí. Filmamos con la apertura completa, desde el orificio de la rueda dentada hasta el orificio de la rueda dentada, para las placas de fondo. Esto se reduce a la Academia normal o a la relación de aspecto de 1:1,85, según sea el caso. Cuanto más grande sea su negativo, más nítida será la imagen que obtendrá en el fondo. Muchas veces hemos querido experimentar con las placas de fondo de VistaVision. El negativo más grande reducido a 35 mm daría una imagen más nítida y una mejor reproducción. Pero con la gran cantidad de placas de fondo que solemos tener en nuestras imágenes, es cuestionable si los resultados finales justificarían los costos adicionales.

AC: Volviendo al color, ¿comparte la preocupación de Martin Scorcese sobre el rápido desvanecimiento de la película en color?

RH: Sí. Hicimos una película llamada Los primeros hombres en la luna y tenía algunos recortes de la versión de 70 mm. Los saqué de mi archivo hace un par de meses y estaban todos descoloridos. Habían estado a oscuras y no estaban almacenados en malas condiciones. Me sorprendió que los colores se hubieran desvanecido después de menos de 12 o 15 años.

Se están haciendo muchas fotografías en blanco y negro nuevamente y, por supuesto, el proceso Technicolor de tres tiras en el que realmente graba o transfiere su imagen a blanco y negro es casi la única salvación. Tienes que ir a China ahora para hacer eso. Entiendo que Technicolor vendió la mayor parte de su equipo a China y son las únicas personas que usan impresiones de liberación de tres tiras. Recuerdo que, cuando trabajábamos con las marionetas de George Pal, usábamos película en blanco y negro con un círculo cromático. Cada fotograma sucesivo era de un color diferente: rojo, verde y azul. Cada tercer cuadro se imprimió uno sobre el otro y obtuviste el color más hermoso. Por supuesto, la película en blanco y negro no se desvanece porque tiene contenido plateado. La respuesta a la preservación de la película parece ser volver al proceso Technicolor de tres tiras. Ahora dicen que la plata es tan costosa que perderá su precio.

Medusa de Choque de titanes.

 

AC: ¿Cuál de todas las criaturas que has creado fue la más complicada o difícil? Los esqueletos de Jason deben haber presentado problemas.

RH: Sí. Son los más cercanos al ser humano y por lo tanto probablemente los más criticables en movimiento. Los dinosaurios, por ejemplo, nadie sabe realmente cómo se mueve un dinosaurio, por lo que puedes tomarte grandes libertades, pero un esqueleto tiene que moverse de la manera que esperas que se mueva un ser humano. Tienes que ocultar todas las articulaciones para que parezca que solo hay hueso. En Choque de titanes, creo que Medusa presentó el mayor problema porque tenía 12 serpientes en el cabello, y cada serpiente tenía que estar articulada para mantener su propia posición. No podíamos simplemente clavar cables en la serpiente y esperar obtener algún tipo de movimiento exitoso. También tenía que tener una escala lo suficientemente grande como para permitir un marco articulado en cada serpiente. Por cada fotograma de la película, tenía que mover una serpiente a una posición diferente. Tenía 12 serpientes en el pelo, más las colas, más el movimiento de la boca, se movían los ojos, se movían los dedos, disparó una flecha y la cola se sacudió. Probablemente tenía más de 100 articulaciones en su cuerpo, 150, quizás, incluidas las serpientes.

Sosteniendo una cabeza de Medusa de utilería a gran escala utilizada durante la filmación de acción en vivo.

 

AC: ¿Cómo se hacían los movimientos?

RH: Completamente a mano. No creo que se haya ideado una computadora que pudiera crear los complicados movimientos necesarios para que nuestras criaturas animadas se realicen. Los esqueletos básicos están hechos de juntas de rótula mecanizadas. Esto permite que el modelo se pose en cualquier posición y mantenga esa posición. El gran problema está en la sincronización de todos los apéndices para dar la ilusión de un ser vivo. La mayor parte de esta ilusión depende de un sentimiento interno de movimiento por parte del animador.

AC: La rótula esférica: ¿es un nuevo desarrollo?

RH: Willis O’Brien lo ideó en los primeros días de la realización de El mundo perdido (1923), e incluso antes. La articulación esférica básica es un dispositivo bastante antiguo, pero Willis O’Brien fue uno de los primeros en adaptarlo al diseño de figuras en miniatura humanoides o animaloides con fines de stop-motion.

AC: ¿Ha habido muchos desarrollos recientes en la creación de movimientos de las criaturas?

RH: En el campo del stop-motion, no tantos. Por supuesto, el diseño real de cualquier criatura trae consigo sus propias innovaciones. Hay varios dispositivos para ayudar a hacer una animación más fluida, pero el movimiento en sí todavía está bloqueado en gran medida dentro del animador hasta que se libera mediante el uso de la fotografía stop-motion.

AC: ¿En qué se diferencian tus criaturas de los Muppets, por ejemplo?

RH: Un Muppet funciona con un principio completamente diferente. El Muppet es principalmente un títere de mano, que a veces utiliza dispositivos electrónicos. Han podido conseguir algunas caracterizaciones muy curiosas e interesantes, como la de Yoda, en El imperio contraataca, donde tenemos que recurrir al largo proceso de stop-motion para la creación de la ilusión de la vida, un Muppet puede ser fotografiado como un actor normal de acción en vivo.

AC: ¿Estás tentado a usar ese proceso?

RH: Hemos recurrido a los títeres de mano en los primeros días, como algunos planos de La Bestia de 20.000 brazas. Pero, en general, tendemos a no utilizar la técnica, ya que no es tan adecuada para nuestro tipo de historias.

AC: ¿Qué pasa con la electrónica, por ejemplo?

RC: Eso, de nuevo, es una posibilidad. Nos hemos adentrado parcialmente en la electrónica con Bubo, el búho mecánico de Choque de titanes. Hay algunas escenas en las que está controlado por radio.

AC: ¿Cuánto de Bubo en la película está controlado por radio?

RH: En bastantes escenas donde los actores lo manipulan. Sus alas baten, su cabeza girará, sus ojos girarán y su boca se abrirá. Pero básicamente, a menos que muchos búhos hayan sido hechos para hacer muchas cosas diferentes, sus movimientos son limitados. Por ejemplo, sería difícil hacer que un búho electrónico caminara o despegara y volara. Para este tipo de movimiento y caracterizaciones más complejas, nos pareció necesario recurrir a un modelo stop-motion.

El Bubo the Owl mecanizado de Choque de titanes.

 

AC: ¿Cree que el proceso electrónico es limitado?

RH: Es limitante porque estás recurriendo a motores para crear movimiento en lugar de animación donde tienes una gran flexibilidad. Es un problema completamente diferente cuando estás filmando un cohete y usando una cámara de computadora.

AC: ¿Qué es una cámara de ordenador?

RH: Una cámara de computadora es una cámara de repetición que repetirá sus movimientos exactos en stop-motion, acción en vivo o cámara lenta.

AC: ¿Es como una cámara stop-motion?

RH: Sí, a veces implica stop-motion. Se controla electrónicamente para que pueda repetir cada movimiento. Tiene que estar en una pista, tiene que estar engranado de cierta manera y tiene que estar programado para que, sin importar a dónde te muevas, pueda repetir esa posición exacta una y otra vez.

AC: ¿No te serviría de nada?

RH: No particularmente. Sin duda, sería una ventaja en ciertos tipos de escenas, pero no las hemos encontrado en este momento.

Harryhausen y su maqueta del Olimpo.

 

AC: Tu trabajo es muy personal, muy táctil, mientras que usar la cámara de una computadora es muy impersonal. ¿Será por eso que no le gusta el proceso electrónico?

RH: No es cuestión de si me gusta o no la cámara del ordenador. Es más, una cuestión de si se puede aplicar a nuestro tipo de película. Sí, siento que hay una conexión personal entre lo que hago y la forma en que se logra el efecto final. La animación stop-motion es una expresión personal del animador que necesita movimientos complejos junto con detalles de personajes improvisados. Hay una gran diferencia entre fotografiar una nave espacial inanimada volando por el espacio y los complejos movimientos de, por ejemplo, la pelea del esqueleto de Jason. Cada uno tiene su lugar en el tipo de historia que se cuenta.

AC: En Choque de titanes, ¿había alguna criatura que quisieras usar, pero no pudiste debido a restricciones presupuestarias?

RH: No, usamos todo lo que nos propusimos hacer.

AC: ¿Tienes un gran almacén de criaturas fantásticas acechando en tu mente esperando la oportunidad de emerger?

RH: Las criaturas se desarrollan a partir de la historia, pero probablemente tengo una serie de cosas en mi subconsciente que no saldrán a la luz hasta que se presente el guión adecuado. En choque, que trata de la mitología griega, traté de volver al pasado para ver qué habían hecho otros artistas. Descubrimos, por ejemplo, que Medusa tiene una enorme cantidad de variaciones. En algunas fotos es una mujer hermosa con serpientes en el pelo, en otras es simplemente una especie de fea ama de casa de clase media. Pero para nuestra situación, sentimos que Medusa debería tener el cuerpo de una serpiente. Queríamos que su rostro tuviera una estructura ósea hermosa, pero con un matiz feo porque no puedo imaginar a una mujer hermosa que convierta a alguien en piedra, incluso si tiene serpientes en el cabello. O tal vez se me hayan escapado las implicaciones más sutiles. Intentamos hacer que Medusa fuera más grotesca para que existiera la posibilidad de que su apariencia pudiera ser lo suficientemente aterradora como para convertir a alguien en piedra.

AC: ¿Qué pasa con el Kraken? Realmente no existe en la mitología. ¿Es totalmente tu criatura?

RH: Solo en el diseño. En el guión lo llamamos Kraken, aunque la palabra proviene de un período muy posterior en la historia cuando los marineros medievales regresaron con historias de calamares gigantes y ballenas, etc. Hubo un leviatán en los primeros tiempos griegos y bíblicos, por supuesto, y varios otros nombres para monstruos marinos grotescos. Andrómeda fue sacrificada a un monstruo marino de algún tipo y hay varias pinturas de su apariencia. A veces es un dragón, a veces un pez enorme pero nunca lo he visto como un pulpo. Intentamos que fuera una combinación. Queríamos que fuera un poco humanoide para dar una razón por la que la sacrificaron a esta cosa, de lo contrario, la criatura simplemente la devoraría y volvería al mar, una situación que no es muy dramática.

AC: ¿Da más miedo si la criatura tiene ciertas cualidades humanas?

RH: Sí, eso es lo que teníamos en mente. Le dimos cuatro brazos con la forma básica de una combinación de criaturas marinas. Hay una especie de concepto de tritón combinado con matices de pulpo. Le dimos cuatro brazos en lugar de ocho porque pensamos que le daría una apariencia más grotesca e inusual. Esto no fue porque tuviéramos problemas de presupuesto como los que tuvimos en la película It Came From Beneath the Sea, donde tuvimos que comprometernos con un pulpo de seis brazos para derribar el puente Golden Gate.

AC: Sin embargo, hubo problemas con el Kraken. ¿Nos parece recordar un gran Kraken flotando en el mar frente a Malta?

RH: Sí. Realmente me desagradan los hombres vestidos con trajes de dinosaurio casi tanto como me desagrada ver a un hombre con un traje de Kraken. A veces uno se ve obligado a usarlos por las circunstancias y el tiempo. Al final, usamos solo los tiros de Dynamation. Sin embargo, construimos un gran Kraken para las escenas submarinas. Bajo la supervisión fotográfica del camarógrafo submarino Egil Woxholt, construimos un set sumergido en Camino Bay, frente a la isla de Malta. Tuvimos que remolcar un modelo de 15 pies dentro y fuera de la jaula submarina. Como puedes imaginar, hubo muchos problemas al trabajar bajo el mar, además de trabajar con un modelo tan grande. Un gran inconveniente era que el miserable monstruo siempre quería flotar. Estaba hecho de una sustancia esponjosa. Muchos cientos de libras de plomo tuvieron que usarse como lastre.

AC: ¿Qué tal los escorpiones?

RH: Eran otro tipo de problema. Tenían ocho patas, dos garras y una cola, todo lo cual debía mantenerse en movimiento. Tuvimos que hacerlos a una escala mucho mayor que un escorpión vivo. El problema con los escorpiones vivos, incluso si encuentras uno talentoso, es que son difíciles de entrenar y hacer que hagan exactamente lo que requiere el guión.

AC: ¿Y Dioskilos, el perro lobo de dos cabezas?

RH: Uno de los grandes problemas en el diseño de Dioskilos fue que una vez que comienzas a separar dos cabezas del cuerpo de un perro normal, se vuelve grotesco. Tuvimos que manipular el diseño bastante para que pareciera creíble, pero salió bastante bien.

AC: ¿Pegasus, el caballo volador, es en parte real, en parte animación?

RH: Sí, debido al detalle de la cabeza de un caballo, usamos un caballo vivo en ciertas tomas, pero las tomas largas son todas animaciones.

Harryhausen con el modelo y animador de Pegasus Jim Danforth, quien manejó gran parte del trabajo de stop-motion en el personaje alado.

AC: ¿Qué tamaño tienen los modelos que usas?

RH: Algunos de ellos son muy pequeños. Una vez hice un modelo de Raquel Welch de solo 3 ½ pulgadas de alto. En la película Un millón de años antes de Cristo, un pterodáctilo gigante tuvo que recogerla. No quería hacer un enorme lagarto alado de tamaño natural, así que hice una pequeña Raquel Welch y la animé fotograma a fotograma. Por supuesto, otros modelos pueden ser mucho más grandes, hasta dos pies y medio de altura.

AC: ¿Qué dicta el tamaño?

RH: Depende de lo que la criatura tenga que hacer. Muchas veces es más fácil trabajar con un modelo más pequeño. Casi me siento como el Dr. Frankenstein o el Dr. Cyclops en ese sentido porque tomo actores y los encojo para hacer que un modelo parezca grande en lugar de construir un modelo grande que es incontrolable.

Un primer plano de Raquel Welch en One Million Years BC (1966, Hammer Films)

 

AC: Antes de que comience la filmación, presenta toda la película en forma de guión gráfico. ¿Por qué?

RH: Porque al fotografiar cualquier cosa, hay una forma costosa de hacerlo y una forma económica. A veces, solo colocar la cámara un metro más abajo o un metro a la derecha o a la izquierda puede marcar la diferencia cuando estás animando la escena final. Es la diferencia entre pasar un día o 10 animando, debido a las complicaciones que presenta un ángulo de cámara particular. Encuentro que es muy importante diseñar todas las secuencias principales en forma de diagrama aproximado para tener un punto de vista armonioso con todos los involucrados. Ayuda a los actores a visualizar, así como al director y al fotógrafo. Repasamos la secuencia completa antes de la producción para ver si el director tiene algún cambio que cree que mejorará la escena. Por supuesto, siempre hay compromisos que uno tiene que hacer, cambios en el clima, vuelos chárter para tomar, etc.

AC: ¿Te importan los actores o son más importantes tus criaturas?

RH: Básicamente, estoy interesado en el producto en general. Como productor de esta película, me interesa más que solo mi papel. Quiero ver una imagen redondeada que produzca los mejores resultados, pero naturalmente, tengo prejuicios hacia las criaturas porque sentimos que son los valores inusuales de la producción.

AC: Con Titans tienes un grupo de actores caro. ¿Tienes un resentimiento furtivo de que una gran cantidad de dinero se les iba a ellos en lugar de a tus criaturas?

RH: No puedo negar que el pensamiento había pasado por mi mente. En el pasado, nos dimos cuenta de que la historia que estábamos contando no tenía un actor muy costoso, pero en Titans, sentimos que mejoraría el producto final al tener los mejores actores que pudiéramos conseguir.

Entre las muchas estrellas (humanas) de la película, Harry Hamlin interpreta a Perseo, visto aquí con Ammon (Burgess Meredith).

 

AC: ¿Por qué nunca has dirigido una película completa tú mismo?

RH: El problema es que una película de esta naturaleza tiene tantas complicaciones, siento que te desgarraría intentarlo todo; algo debe sufrir. Nunca he estado tan intrigado con la dirección de acción en vivo.

AC: ¿Hay algún conflicto entre usted y el director?

RH: Siempre es posible un choque de personalidades, ya veces eso sucede. Tienes que afrontarlo lo mejor que puedas. No todo el mundo ve una determinada escena o situación de la misma manera. Puedo ver una escena desarrollada de cierta manera debido a mi experiencia previa y el director tendrá otras ideas. Es por eso que, antes de comenzar la producción, debemos acordar la forma en que se debe manejar una escena. Pero, a veces, de la batalla sale un producto mejor, otras veces simplemente estorba. Una vez se dijo: ‘Cuando dos personas piensan exactamente igual, una de ellas es innecesaria’.

AC: Las ideas de la historia, ¿son tuyas?

RH: No siempre. A Beverley Cross, por ejemplo, se le ocurrió Choque de titanes. Siempre había querido hacer esta historia, pero no podía encontrar una manera de resolver algunos de los problemas de la trama. He contribuido con historias en el pasado y luego alguien como Beverley o Jan Read o varios escritores las elaboran y las desarrollan en guiones.

AC: La mitología parece ser la principal fuente de su historia.

RH: Sí, creo que la mitología tiene una estructura integrada para las criaturas que podemos hacer mejor con Dynamation. No tienes que escribir el monstruo en la historia. Con muchas historias, encuentras que los elementos deben incorporarse solo para crear el espectáculo. Recuerdo que en mi juventud vi algunas de las primeras imágenes de Simbad en las que solo hablaban del elemento de fantasía, pero nunca lo mostraban. En consecuencia, las películas se convirtieron simplemente en policías y ladrones con trajes árabes. Nunca viste ninguna forma de magia o maravilla. Por supuesto, cuando vi El ladrón de Bagdad de Korda me estimuló aún más a creer que era una gran verdad que debes mostrar la fantasía en la pantalla de la misma manera que en los libros de cuentos y no solo hablar de ella.

AC: Las historias espaciales ocupan mucho tiempo en pantalla ahora. ¿No te interesan?

RH: Los encuentro terriblemente fríos e indiferentes. Las historias siempre tienen que ver con aparatos y máquinas y ocasionalmente hay un poco de participación personal dramática. prefiero el pasado; tiene una cualidad mucho más romántica, mucho más valor narrativo. De alguna manera, todas las imágenes espaciales terminan siendo muy similares. Sin embargo, si encontramos un buen guión, estaría encantado de probar uno. Hicimos Los primeros hombres en la luna de HG Wells, pero supongo que lo llamarías una epopeya espacial victoriana. Fue muy divertido, pero de nuevo volvimos al pasado, a 1900, durante la mayor parte de la película. En el prólogo y el epílogo sólo teníamos que lidiar con los cohetes espaciales actuales.

Los primeros hombres en la luna (1964, Columbia Pictures)

 

AC: ¿Cuáles han sido las principales influencias en tu trabajo?

RH: Ha habido muchas influencias cuando miro hacia atrás. Charles R. Knight, ilustrador de museos y excelente pintor. Restauró conceptos de animales prehistóricos para el Museo de Historia Natural de Nueva York. Cuando era niño, me sentaba durante horas a mirar sus libros de dinosaurios. El mundo perdido de Willis O’Brien me impresionó enormemente a la edad de cuatro años. El dinosaurio que cayó del acantilado al lodo de abajo se convirtió en un recuerdo imborrable. En Rey kongy su variado elenco de dinosaurios se convirtió en un estímulo que cambió mi vida por completo. La película de fantasía para acabar con todas las películas de fantasía. A través de O’Brien, conocí los maravillosos grabados de Gustave Dore y John Martin. Las películas de Merian C. Cooper, James Whale, Tod Browning, Rouben Mamoulian, Fritz Lang ampliaron mi imaginación. La lista podría seguir.

AC: ¿No has querido hacer una película basada íntegramente en criaturas animadas sin seres humanos?

RH: Realmente no. Me gusta pensar que mis intereses van más allá de las películas de criaturas. Dudo mucho que una audiencia pueda sentarse durante dos horas de solo personajes animados. Al principio, hacía cuentos de hadas animados de 10 minutos en película de 16 mm simplemente para ganar experiencia. Temas como Hansel y Gretel, Rey Midas, Rapunzel y otros. Todavía me encanta ver un buen musical, cualquier buen drama, algunas películas de terror. Laurel y Hardy me hacen reír sin control. Nunca habrá otro par como ellos.

AC: Ahora que te has convertido en una figura de culto, casi el padre del stop-motion, ¿cuál ves como tu posición en el negocio en este momento?

RH: Realmente no tengo ni idea. Si me detengo a pensarlo dudo que pueda hacer algo más en el campo de la animación dimensional. Sin embargo, siento que llegará un momento en el que no podremos funcionar de la misma manera que lo hicimos en el pasado. La animación dimensional stop-motion es principalmente trabajo manual. Es personal para mí y ha sido toda mi carrera. Charles y yo estamos muy agradecidos de recibir muchas cartas de jóvenes que nos dicen que nuestras películas los han inspirado hacia una nueva carrera. Gracias a la televisión, hay muchas más oportunidades para la expansión de este campo.

Harryhausen con el productor Charles H. Schneer. Primero trabajaron juntos en It Came from Beneath the Sea y han seguido siendo amigos y socios durante más de 30 años.

 

AC: Si te hubieras quedado en Hollywood en lugar de mudarte a Inglaterra, ¿crees que tu trabajo habría ido en una dirección diferente?

RH: Tendría que ser un profeta para responder eso. No tengo ni idea. Simplemente sentí que Hollywood no era el lugar para mí. Hicimos muchas películas y teníamos maravillosas condiciones de trabajo, pero para nuestro tipo de película de fantasía, sentimos que no serviría para nuestro mejor propósito.

AC: ¿Hay alguna película que realmente quieras hacer? Nos parece recordar que mencionaste el Infierno de Dante.

RH: El Infierno de Dante, como tal, sería una característica bastante tediosa, creo, pero ciertos elementos podrían incorporarse en el guión correcto. Sería un proyecto enorme y recuerdo haber dicho que me gustaría ver miles de almas atormentadas rodando por los cielos en el espíritu de Gustave Dore. Desafortunadamente, la historia completa de Dante puede no ser comercialmente viable”.

AC: Entonces, ¿qué vas a hacer a continuación?

RH: No tengo ni idea. Como decimos en Titans, ‘Está en el regazo de los Dioses’

En 1992, Harryhausen recibió un premio de la Academia por los logros de su vida en el cine. A pesar de su cuerpo de trabajo, nunca antes había sido nominado: en 2003, la Cámara de Comercio de Hollywood le otorgó a Harryhausen una estrella en el Paseo de la Fama de Hollywood, ubicado al otro lado de la calle del Teatro Chino de Grauman, donde vio por primera vez a King Kong cuando tenía 13 años. En su discurso de aceptación, Harryhausen señaló y dijo: “Todo para mí comenzó en ese teatro hace 70 años”.

 

Shot Craft – Anatomía de una escena: “Loki”

Loki (Tom Hiddleston) y Sylvie (Sophia Di Martino) intentan escapar de una luna agonizante. (Foto de Chuck Zlotnick)

 

AMERICAN CINEMATOGRAPHER
Imágenes cortesía de Disney Plus / Marvel Studios. 
06 de octubre del 2021 – Jay Holben

 

Echamos un vistazo en detalle a la secuencia continua de tres minutos del programa en el episodio «Lamentis». El travieso hermano de Thor, Loki (Tom Hiddleston), se ha encontrado en una situación bastante difícil. Ha sido arrestado por la Time Variance Authority por desviarse de su camino predestinado y comenzar una nueva «rama» de la línea de tiempo que habría estimulado el comienzo de un multiverso. Es un crimen del que nunca había oído hablar y que no tenía intención de cometer. Ahora está huyendo.

El episodio 3 de  Loki, la última serie de Disney Plus dentro del Universo Cinematográfico de Marvel, ve a nuestro antihéroe titular asociado con Sylvie (Sophia Di Martino), una «variante» femenina de Loki de otra línea temporal, mientras intentan escapar de una luna habitada. que está al borde de la destrucción. Corren a través del caos de una ciudad salpicada de neón para llegar al último transporte con destino al espacio.

El guión del episodio, titulado «Lamentis» y escrito por Bisha K. Ali, describió esta carrera por sus vidas como una secuencia de acción de larga duración. En Shot Craft de este mes, veremos en detalle esta secuencia continua de tres minutos, que fue fotografiada por la dirección de fotografía Autumn Durald Arkapaw.

La directora de fotografía Autumn Durald Arkapaw planea una toma.

 

Determinando la dirección

La primera temporada de Loki fue dirigida por Kate Herron, una recién llegada cuyo trabajo anterior incluye la serie Sex Education Daybreak. Junto a ella durante toda la temporada estuvo Durald Arkapaw, cuyos créditos incluyen The Sun Is Also a Star (AC June ’19) y el próximo Black Panther: Wakanda Forever.

El dúo comenzó a discutir cómo capturar esta secuencia en «Lamentis» cuando comenzaron la preparación para toda la temporada, y Herron abrazó el concepto «oner» desde el principio. La preparación comenzó en octubre de 2019, pero pronto se detuvo debido a la pandemia de Covid-19. Sin embargo, Herron, Durald Arkapaw y la diseñadora de producción Kasra Farahani se mantuvieron activos durante el encierro. La planificación de esta única secuencia tomó oficialmente alrededor de un año, desde el inicio de la preparación hasta el rodaje en noviembre de 2020. El extenso montaje y pre-iluminación tomó cuatro semanas. Farahani inició el proceso diseñando un decorado urbano circular de 350’x200 ‘que finalmente se construiría en el backlot de Pinewood Atlanta Studios (ahora Trilith Studios), y al crear una miniatura de cartón y poliestireno que los realizadores podrían usar para previsualizar la secuencia.

Una miniatura de cartón y espuma de poliestireno del set para previsualización, construida por la diseñadora de producción Kasra Farahani.

 

El concepto inicial de la secuencia implicaba una persecución en motocicleta por las calles, pero esa idea se abandonó a favor de una persecución a pie más íntima intercalada con varios momentos de combate cuerpo a cuerpo. “Kate dio un paso atrás en un momento y preguntó: ‘¿Qué significa esta secuencia? ¿Qué papel tiene que jugar en la historia? Y nos dimos cuenta de que podríamos estar tirando demasiado”, recuerda Durald Arkapaw. «Decidimos hacerlo más humanista, y fue entonces cuando dejamos caer las motocicletas y fuimos con una persecución a pie».

Planificación y preparación

Varias interacciones de previsualizaciones 3D fueron creadas para la secuencia por The Third Floor. Las discusiones comenzaron con el bloqueo general: ¿Dónde entrarían los personajes, ¿qué camino tomarían, qué obstáculos enfrentarían y cómo se podría dividir el plano en pedazos más pequeños para disparar durante varias noches?

“Ciertos aspectos se volvieron obvios”, dice Durald Arkapaw. “En la historia, la luna agonizante está a punto de ser destruida por un planeta que se desmorona sobre ella, así que tenemos que mirar hacia arriba varias veces para ver qué se avecina. Como estamos filmando en 2.39: 1, eso significó una inclinación hacia arriba, por lo que hay momentos en los que sabíamos que íbamos a mirar el planeta, y esos podrían ser puntos de costura naturales porque estaríamos viendo una creación completamente generada por computadora. “Entonces Richard Graves, el asistente de dirección, agotó el tiempo de la secuencia, de modo que supimos cuándo ocurrirían los momentos prácticos de efectos especiales o de efectos visuales, y cuándo los actores entrarían corriendo en un área determinada y saldrían de esa área hacia el siguiente”, continúa el director de fotografía. «Al final, decidimos que habría siete puntos de sutura en la toma, donde podríamos dividirla en noches individuales para filmar cada parte de la secuencia». A partir de ahí, el equipo hizo un recorrido físico por los sets en curso para tener una mejor idea del bloqueo, el tiempo, las posiciones de la cámara y la historia.

Para ayudar a romper la secuencia visualmente, Farahani diseñó cada sección de la calle para tener un color base diferente, incorporando una gran cantidad de pintura fluorescente, accesorios UV e iluminación retrorreflectante. «Kasra es un gran colaborador», dice Durald Arkapaw. “Él comprende lo que necesita un director de fotografía y siempre está pensando en eso; no solo está diseñando en el vacío.

“Probamos varias pinturas fluorescentes bajo luz ultravioleta y elegimos las mejores, y luego Kasra incorporó accesorios de iluminación ultravioleta en el diseño de producción para que la cara de cada fachada tuviera su propia fuente”, continúa. “Los dispositivos de luz ultravioleta no son como los dispositivos de iluminación normales; se necesitan varios para que funcionen realmente bien, por lo que muchos de ellos fueron integrados. Luego, el departamento de arte diseñó todos los letreros LED y las luces prácticas para los decorados, y mi capataz de accesorios, Joel Warren y el equipo de datos los construyeron RGBDT para que pudiéramos controlar cualquier color o intensidad en el escritorio de la consola de iluminación. Los cientos de [letreros] eran [todos accesorios hechos a medida] – hicieron un trabajo increíble. No hice ninguna iluminación de película desde el suelo; todo estaba integrado en el plató. Mantuve mi iluminación en cajas de luz del techo y luces de borde.

En el techo había una grúa de construcción y tres grúas Pettibone con grandes cajas de luz de armazón de caja. Uno tenía una cuadrícula de 40’x40 ‘con 64 dispositivos Arri SkyPanel S60-C, y los otros tres eran cajas de 30’x20’ cargadas con 60 S60-C. Estos fueron aumentados por seis grúas adicionales con Maxi Brutes de nueve luces para iluminación interactiva mientras los personajes se abrían camino a través del guante.

“Me gusta la luz de la luna cian, así que coloreamos los SkyPanels de un color parecido al de la menta para el brillo que viene del planeta de arriba, y luego sentimos el borde cálido de las explosiones en los actores con ½ CTS en los Maxis”, señala Durald Arkapaw. “Teníamos todo conectado de nuevo al escritorio de la consola de iluminación, por lo que el maestro Brian Bartolini y yo mirábamos los ensayos y ajustamos las intensidades de la iluminación arquitectónica, así como el ambiente y los bordes de nuestro planeta en el techo, para dar forma a la luz a medida que avanzábamos.

“Los efectos de iluminación integrados complementarios tanto SFX como VFX; por ejemplo, cuando ocurre una explosión, modelaríamos nuestra luz sobre el talento en consecuencia. Habíamos agotado el tiempo para que supiéramos que a los 37 segundos, una mujer lanzaría un cóctel Molotov y, a los 41 segundos, explotaría y agregaríamos iluminación para complementaria. Luego, en 1 minuto y 7 segundos, agregamos iluminación para simular un gran impacto en la distancia, y así sucesivamente «.

Haciendo a secuencia

Una vez terminada la coreografía, Durald Arkapaw rompió la secuencia técnicamente y determinó que todo sería filmado en Steadicam por el operador de cámara A Andrew Fletcher.

La secuencia se rodó durante cinco noches. Durald Arkapaw filmó toda la temporada con CineAlta Venice de Sony (en una base de 2500 ISO) y anamorficos personalizados de la Serie T que se expandieron para una cobertura de fotograma completo. El primero fue fotografiado con una lente de la Serie T de 40 mm.

“Los métodos exactos que usamos para cada sección de la secuencia evolutiva”, dice el director de fotografía. “Realmente decidimos las cosas cuando comenzamos a ensayar con los actores y nos dimos cuenta de que Tom es un corredor muy rápido. Sabíamos que para Andrew sería demasiado difícil seguir el ritmo de Tom a pie, así que trajimos un Grip Trix [coche con cámara eléctrica]. Sabíamos que no lo usaríamos todo el tiempo, habría momentos en los que subir o bajar de él. También sabíamos que tendríamos que construir una plataforma para que el Grip Trix se montara porque el suelo era de tierra irregular, así que empezamos a planificarlo.

Las cajas de luz en el techo proporcionaron la luz clave, mientras que los letreros LED y los accesorios UV crearon la iluminación del escenario.

 

“Kate y yo resolvimos el bloqueo general, y luego decíamos: ‘Está bien, tenemos que forzarlos de esta manera, entonces, ¿qué los obliga? Esta mujer va a lanzar un cóctel Molotov, y luego una explosión los detiene aquí, y tienen que luchar contra esta gente de allá. A través de las iteraciones previas, descubrimos dónde estarían las puntadas, dónde estarían los efectos visuales y dónde estarían los efectos especiales prácticos, pero la secuencia realmente tomó forma una vez que llegamos al suelo y caminamos.

«Para algo como esto, es realmente preparar, preparar, preparar», dice ella. “Puedes hacer todo lo que puedas en papel, y con previsualización, si tienes el presupuesto, pero también tienes que salir y seguir a alguien para tener una idea [del bloqueo] y resolver los problemas, incluso si solo usa un iPhone. Un tiro como este no se puede resolver ese día; tienes que configurarlo y luego perfeccionar su ejecución. Mucho de lo que establecimos el día involucró a los jugadores de fondo, y nuestro AD fue realmente bueno en eso. Pon todos tus patos en fila con anticipación y practica todo lo que puedas, y luego, en el día, te diviertes disparando y haciéndolo bonito.

“Soy alguien que graba desde el corazón. Soy un nerd técnico, pero cuando estoy filmando, si no se siente bien y no tengo una respuesta emocional, entonces tengo que dar un paso atrás, reevaluar y arreglarlo. Me pongo en el punto de vista de la audiencia y trato de determinar si lo que estoy haciendo se siente correcto y real. Afortunadamente, Kate lo aprecia, y nuestras elecciones por Loki vinieron todas desde el corazón «.

En este diagrama del conjunto, los números sombreados en amarillo indican las ubicaciones a las que se hace referencia a continuación. 

 

Desglose de secuencia

1-2. Steadicam sigue detrás de Loki y Sylvie cuando entran a la ciudad a través de un túnel y giran a la izquierda, dirigiéndose hacia «el Arca» al final de la ciudad. Su camino está bloqueado por la policía y multitudes enojadas.

2-3. Loki sube a una caja para ver a la multitud. Steadicam sube a una plataforma montada en una plataforma rodante, que se eleva cuando Loki sube a la caja. Steadicam se mueve para dar un tiro frontal a Loki, sostiene, luego la plataforma rodante vuelve a bajar mientras él se baja. Sigue la cámara. Una mujer con un cóctel Molotov pasa corriendo junto a la cámara (PUNTO DE COSTURA).

3-4. Giran a la derecha y bajan por el callejón (Steadicam detrás).

4-5. Se secretaria y miran hacia arriba. La cámara gira y luego se inclina para ver el planeta desmoronándose sobre ellos (PUNTO DE COSTURA). La cámara se inclina hacia abajo desde el planeta y está en una posición diferente (la reposición ocurre durante la costura) en los actores. Empiezan a avanzar por la calle, la cámara está detrás de ellos (STITCH POINT para reemplazar a los actores por los especialistas).

5-6. Una explosión los devuelve (STITCH POINT para reemplazar a los especialistas en acrobacias con actores).

6-7. Loki se levanta de la explosión y él y Sylvie están huyendo nuevamente. Steadicam sigue.

7-8. Entran en una tienda de ramen y se abren camino a través de ella. Steadicam sigue la acción recorriendo el perímetro de la tienda mientras luchan.

8-9. Salen de la tienda por la ventana. Sylvie enfunda su machete (PUNTO DE PUNTADA).

9-10. Steadicam ahora está en un Grip Trix frente al talento. Corren por la calle (Steadicam al frente). Se refugian momentáneamente, una niña pasa corriendo (Steadicam se baja de Grip Trix y la cámara está detrás de ellos), y miran hacia una explosión y una gran matriz de antenas cayendo (efecto de iluminación / PUNTO DE PUNTO).

10-11. La cámara se reposiciona en Grip Trix. Se inclina, siguiendo el conjunto de antenas. Loki y Sylvie se dan vuelta y huyen de la matriz, con Grip Trix guiándolos por la calle. Habiendo rodeado el plató, están de vuelta en el punto donde empezar. Loki usa su magia para evitar que un edificio caiga sobre ellos. Venta de Steadicam del Grip Trix (PUNTO DE PUNTADA).

11-12. Loki y Sylvie corren por la calle larga y luchan hasta el final. Steadicam da vueltas a su alrededor mientras luchan. Al final de la calle, ven explotar el Arca; la salida se ha ido. Steadicam da vueltas por la reacción de Loki.

 

Hot Craft: “Bustos parlantes” Entrevistas sobre tomas

La directora de fotografía Kaity Williams captura a Sonya Klaus con un enfoque de «lado oscuro a cámara» para el documental de formato corto Sonya Slidez, dirigido por Abbey Spacil. (Imagen cortesía de Kaity Williams)

 

AMERICAN CINEMATOGRAPHER
03 de noviembre del 2021 – Jay Holben

 

La entrevista le pide al director de fotografía que equilibre el modelado adecuado de la cara mientras mantiene el tono y el estilo general del proyecto. La simpleza visual de la entrevista puede ser engañosa. A menudo, un elemento clave en las producciones documentales, este tipo particular de toma le pide al director de fotografía que equilibre el modelado adecuado de la cara, colocando al sujeto con la mejor luz (literalmente), mientras mantiene el tono y el estilo general del proyecto. Esta entrega de Shot Craft presenta algunas cosas a tener en cuenta a la hora de fotografiar este tipo de material.

Iluminación

La cabeza (busto parlante) es una oportunidad perfecta para aprovechar la iluminación clásica de tres puntos y modelar el sujeto con clave, relleno y luz de fondo. La luz clave más favorecedora se logra colocando una fuente grande y suave a un lado de la cámara y orientando el lado sombreado de la cara del sujeto más cerca de la cámara. De esta manera, los bustos parlantes documentales son una aplicación ideal del enfoque «del lado de la sombra a la cámara», que ofrece cierta dimensionalidad a la cara.

El exejecutivo de Facebook Tim Kendall está iluminado con iluminación clave de retrato al estilo de Rembrandt para el documental de Netflix The Social Dilemma, fotografiado por John Behrens y Jonathan Pope. el ángulo principal de la cámara (arriba) tiene la línea de visión de Kendall justo al costado de la cámara, mientras que el segundo ángulo es un perfil completo. (Imágenes cortesía de Netflix)

 

Una variación del lado clásico de la sombra se puede ver en la iluminación de «estilo Rembrandt», donde la fuente principal está a un lado y por encima de la línea del ojo para crear un punto culminante en forma de triángulo en la mejilla del lado en la sombra: un prototipo de «estilo retrato». Excesivamente del estilo del documental, es posible que incluso desee un efecto naturalista, como la luz del sol moteada por un árbol. Algunos bustos parlantes se filman frente a una pantalla verde, un patrón fijo o un fondo de color, o incluso se les recorta la silueta para proteger la identidad de los oradores.

Las entrevistas documentales a menudo se llevan a cabo donde el sujeto vive o trabaja. Esto puede presentar al director de fotografía muchas complicaciones, incluidas temperaturas de color mixtas, fuentes mixtas, iluminación arquitectónica dura y fondos suaves. Debe poder adaptarse a todas estas situaciones y ser especialmente flexible, ya que los realizadores de documentales suelen trabajar con recursos limitados. Los accesorios de iluminación LED le brindarán mucha flexibilidad, ya que son livianos, ahorrarán energía y, por lo general, tienen balance de color tanto de luz diurna como de tungsteno.

Crear un contraste de color en la iluminación puede agregar profundidad e interés al marco. Permitir que el fondo se enfríe un poco mientras el sujeto está un poco más cálido puede proporcionar una separación cromática que permita que el sujeto «salte» en el cuadro. En la naturaleza, las ondas de luz más cortas se filtran por factores atmosféricos, por lo que los objetos en la distancia parecen más azules que los objetos cercanos al espectador. Por lo tanto, al hacer que sus fondos sean un poco más fríos que el primer plano, está acentuando este concepto y agregando la profundidad percibida a la imagen.

En otra entrevista de «cabeza parlante» de The Social Dilemma, Aza Raskin, cofundadora del Center for Humane Technology, se presenta en un contexto interesante que aporta profundidad a la imagen. (Imagen cortesía de Netflix)

 

Elección de la ubicación

Si usted y el director no están filmando entrevistas con un fondo fijo, como una pantalla verde, una cortina negra o un fondo prefabricado, debe elegir el fondo adecuado para el tema. Aquí es donde el director de fotografía puede tener la mayor influencia sobre el aspecto de la entrevista de la cabeza parlante. Elegir un área cerca de una ventana grande puede contribuir en gran medida a simplificar la iluminación y crear una apariencia agradable y natural, y comprender cómo colocar el sujeto en relación con la ventana lo ayudará a refinar esa apariencia. Una técnica común es colocar al sujeto de modo que la ventana proporcione la luz principal, probablemente frente al sujeto, pero a un lado.

Trate de evitar colocar al sujeto directamente contra paredes y esquinas, ya que esto crea una imagen plana. Más bien colocar la cámara en ángulo con respecto a las paredes puede generar líneas de perspectiva principales en lugar de planos. Incluir aspectos interesantes de la ubicación en el fondo, lejos del sujeto, puede crear complejidad visual, pero asegúrese de que no esté demasiado «ocupado». Las ventanas son maravillosas para la luz natural del día, pero debe tener en cuenta lo que se ve a través de la ventana, como los peatones o el tráfico de vehículos, ya que pueden producir un movimiento que distrae o luz en el marco.

Líneas

De los ojos, la línea de los ojos del sujeto es crítica en la entrevista documental. Por lo general, está solo a un lado de la cámara mientras la persona habla con un entrevistador fuera de cámara. Esto le da a la audiencia la sensación de que el sujeto está conversando con alguien. También permite la iluminación clave del lado de la sombra, ya que el sujeto está ligeramente alejado de la lente. Generalmente, esto se logra colocando al entrevistador cerca de la lente.

Cuando un documental presenta entrevistas con múltiples sujetos, a menudo se considera una mejor práctica crear líneas de visión alternativas para cada entrevistado cambiar el lado de la cámara en el que está el entrevistador. Tener líneas de visión de sujetos alternas ayuda a crear una cohesión en la edición, donde entrevistados dispares aparecen ante la audiencia como si pudieran estar conversando entre ellos.

Si un sujeto está destinado a acercarse directamente a la audiencia, la línea de los ojos está directamente en la lente, pero tiene en cuenta que esto puede ser intimidante para las personas que no están acostumbradas a hablar a la cámara. Sin tener un entrevistador a quien mirar y hablar, el sujeto puede volverse nervioso y cohibido. Para resolver este problema, el célebre documentalista Errol Morris creó un dispositivo llamado Interrotron, que empleó en documentales como The Fog of War ganador de un Premio de la Academia, sobre el exsecretario de Defensa de EE. UU. Robert S. McNamara, con entrevistas filmadas por el director de fotografía Robert Chappell.

La mirada del sujeto es crítica en la entrevista documental. 

El Interrotron es una variación de un teleprompter, pero en lugar de proporcionar un guión frente a la lente, proporciona una imagen de video del entrevistador en un medio espejo colocado frente a la lente; esto permite que el entrevistado vea y hable con el entrevistador mientras mira directamente a la lente. Además, el Interrotron incorpora un segundo medio espejo estilo teleprompter para que el entrevistador pueda ver claramente al entrevistado y puedan tener una conversación natural mientras mantienen la línea de visión deseada. Una herramienta similar es EyeDirect, que utiliza un espejo grande y un medio espejo frente a la lente para proporcionar un reflejo del entrevistador al sujeto, y un reflejo de espejo del sujeto para que el entrevistador lo vea.

 El exsecretario de Defensa de EE. UU., Robert S. McNamara, mira directamente a la cámara, con la ayuda de la plataforma Interrotron del director Errol Morris, en el documental The Fog Of War. (Imagen cortesía de The Criterion Collection)

 

Incorporación de múltiples cámaras

Debido a que la entrevista del busto parlante rara vez es una actuación con guión, le corresponde al cineasta capturar la entrevista desde múltiples perspectivas simultáneas para proporcionar puntos de edición. Esto significa que muchas entrevistas se filman con dos o más cámaras. Cómo se incorporan las cámaras adicionales es una cuestión de estética. En algunos casos, se «apila» una segunda cámara, ubicada directamente encima o debajo de la cámara principal para mantener la continuidad de la línea de visión con una distancia focal o un tamaño de fotograma diferente. Esto brinda la oportunidad de cortes de salto que hacen uso de dos perspectivas ligeramente diferentes: otra opción estilística. Más comúnmente, la segunda cámara se coloca más hacia un lado, a veces incluso lo suficientemente lejos como para capturar al sujeto de perfil.

Permitir que el fondo se enfríe un poco mientras el sujeto está un poco más cálido puede proporcionar una separación cromática que permita que el sujeto «salte» en el cuadro.

Para Challenger: The Final Flight de Netflix, fotografiada por Graham Willoughby, a la exastronauta Rhea Seddon se le presenta un ejemplo clásico de línea de ojos fuera de cámara (izquierda), junto con una toma más cercana con su línea de ojos más alejada, pero del mismo lado de la «Línea de 180 grados». (Imágenes cortesía de Netflix)

 

Las “reglas” para usar una segunda cámara para filmar segmentos de bustos parlantes es el tema de debate entre los realizadores de documentales. ¿Debería la cámara principal tener la lente más cercana (es decir, una distancia focal más larga o físicamente más cercana) y la cámara secundaria debería ser más ancha? ¿O viceversa? Mi preferencia es que la cámara secundaria sea más ancha (a menos que crea un ángulo de perfil lateral más drástico, en cuyo caso debería ser más larga). Esto permite que la cámara principal, con la lente más larga o más cercana, tenga una conexión más íntima con la línea del ojo del sujeto, y la cámara más ancha, donde la conexión directa no es tan fuerte, tenga una conexión más flexible con esa línea del ojo. Una segunda o tercera cámara también puede capturar B-roll, como tomas de las manos del sujeto, su entorno o los objetos que están discutiendo, para proporcionar puntos de corte editorial. También es posible lograr todo esto con una sola cámara al continuar filmando una conversación informal después de que termine la entrevista, o dirigiendo al sujeto para que repita los movimientos para que pueda crear momentos de corte.

Selecciones de lentes

Según mi experiencia, nada supera a un lente zoom para trabajos documentales. Le brinda la flexibilidad de alterar la relación entre la cámara y el sujeto sobre la marcha mientras dispara. Incluso en entrevistas con personas que hablan, un zoom permite ajustes rápidos en la composición sin distraer significativamente al entrevistado y al entrevistador de la conversación en cuestión. Los zooms incluso permiten realizar ajustes durante la conversación. (Durante las preguntas del entrevistador, el director de fotografía puede replantear rápidamente la composición sobre el tema). También se produjeron alteraciones dinámicas de distancia focal en medio de la conversación. Por ejemplo, cuando el sujeto analiza un tema emocional, el director de fotografía tiene la capacidad de empujar lentamente hacia una composición más configurada para subrayar el drama del momento. Sin embargo, algunos directores de fotografía prefieren lentes fijos para el trabajo documental por su mayor velocidad, peso más ligero y tamaño más compacto. El uso de lentes fijos también crea una cierta disciplina, ya que el director de fotografía debe cambiar la posición de la cámara, o la lente, para modificar una composición.

No existe una regla con respecto a la distancia focal para una secuencia de busto parlante. Algunos directores de fotografía prefieren lentes más anchos cerca de un sujeto para crear intimidad entre el sujeto y el espectador. Esta es otra situación que algunos sujetos pueden encontrar intimidante, pero también se puede argumentar que vivimos en una sociedad en la que las cámaras son ubicuas y las personas se sienten bastante cómodas con ellas o se vuelven así rápidamente.

Un enfoque más tradicional es utilizar una distancia focal un poco más larga un poco más lejos del sujeto. Una consideración, sin embargo, es la compresión de perspectiva de fondo. Para un encuadre de primer plano medio dado, una lente más ancha más cerca del sujeto exagerará la distancia relativa entre el sujeto y el fondo (en comparación con la distancia entre la cámara y el sujeto). Una lente más larga más lejos, para mantener el mismo encuadre compositivo, comprimirá esa distancia, ampliando el fondo y haciendo que parezca más cercano al sujeto.  Además, el mismo factor de compresión afecta al rostro humano. Una lente de 100 mm a 10′ de distancia dará una presentación muy diferente de la cara que una lente de 10 mm a 1′ de distancia. Pasar demasiado tiempo y demasiado lejos del sujeto tenderá a aplanar los rasgos faciales e incluso hará que el sujeto parezca más pesado. Ir demasiado ancho y demasiado cerca puede distorsionar y exagerar sus características. Hay un punto dulce estético para cada combinación de cara y distancia focal, que puede variar según la estética objetiva y la producción específica en cuestión, y encontrarlo requiere un poco de prueba y error. Usar una lente de zoom es una forma de encontrarlo rápidamente.

Mover la cámara

Algunos cineastas prefieren usar movimientos de cámara sutiles durante los segmentos de bustos parlantes. Esto se puede lograr con la cámara principal, pero se captura más a menudo con una cámara secundaria en un control deslizante o un brazo pequeño. La operación portátil puede proporcionar una especie de inmediatez y una sensación de vuelo en la pared, pero los cineastas deben tener cuidado de realizar una entrevista larga mientras el director de fotografía está parado con una cámara pesada sobre su hombro. Estar activo con una cámara en el hombro es físicamente exigente, pero estar de pie en un lugar y tratar de mantener una composición durante 30 minutos a una hora estable (la duración típica de una entrevista) exacerba el desafío.