RAY HARRYHAUSEN habla sobre su magia cinematográfica


Harryhausen y una de sus mejores criaturas, Medusa, la Gorgona, de Furia de titanes (1981).

 

AMERICAN CINEMATOGRAPHER
23 de febrero del 2022 Personal del CSA
por Ann Tasker

 

Después de más de 40 años, el mago de la cinematografía stop-motion finalmente comparte algunos de los secretos técnicos de su arte único.

Nota del editor: Esta discusión fue parte de la cobertura de AC sobre Choque de titanes, con una descripción general de la producción de la película que se encuentra aqui..

 El gran mago de los efectos visuales especiales, Ray Harryhausen, acaba de completar su película número 16 en una carrera que abarca 41 años. Choque de titanes es el duodécimo en el que trabaja con su viejo amigo y productor Charles H. Schneer, el octavo que se filma en Dynamation, un término acuñado por Schneer para describir la técnica de unir la acción en vivo y la animación stop-motion que Harryhausen ha sido pionera en el arte elevado.

Furia de titanes representa el proyecto más ambicioso de MGM en más de 10 años y es una aventura de fantasía con raíces en la mitología. Desmond Davis es el director y «más estrellas de las que hay en el cielo» incluyen a Harry Hamlin, Judi Bowker, Burgess Meredith, Maggie Smith, Ursula Andress, Claire Bloom, Sian Phillips, Flora Robson y Laurence Olivier como Zeus, padre de los dioses.

Esta entrevista se realizó para el número de junio de 1981 de AC.

 

Para conocer las técnicas de filmación de esta epopeya, American Cinematographer viajó a Inglaterra, donde Harryhausen, nacido en Los Ángeles, vive y trabaja desde hace 21 años.

Se ingresa al maravilloso mundo de Ray Harryhausen a través de una puerta con cicatrices de pintura que se abre con un chirrido en uno de los rincones más remotos de Pinewood Studios, a 15 millas de Londres. Durante los últimos dos años y medio, el viejo estudio de cine ha sido su casa de trabajo y, francamente, el lugar es un desastre. La técnica de Harryhausen siempre ha parecido ser una parte de tecnología y dos de improvisación escolar, imaginación sin límites y una capacidad infinita para esforzarse. Todo se refleja aquí.

Las criaturas, siempre «criatura», nunca «monstruo», como Harryhausen aborrece la palabra, yacían destripadas en el suelo, sus esqueletos esféricos fueron removidos para hacer modelos más nuevos y mejores. Una lechuza operada electrónicamente con un mecanismo lo suficientemente sofisticado como para guiar un misil se apoya en una botella de Fairy Washing Up Liquid, «mejor que la glicerina para resaltar las características de las criaturas cuando haces un primer plano», afirma Harryhausen.

Un par de ojos de porcelana que esperan el pincel cuelgan de un trípode hecho con pinzas para la ropa y agujas de tejer. Pronto entrarán en la cabeza de goma espuma de una Gorgona cuyo cabello ha sido reemplazado por 12 serpientes, cada una con 25 articulaciones. Recortes de cómics y volúmenes de arte encuadernados en cuero, ruedas de juegos de construcción y sus propias hermosas esculturas, todo ensucia la superficie de lo que Harryhausen llama con optimismo su mesa de trabajo.

Ray Harryhausen mira el modelo de Kraken a través de la cámara. No usa animación por computadora, sintiendo que se necesita el toque personal de la animación manual.

 

Aunque podría escribir el libro sobre los aspectos técnicos de su oficio y, de hecho, ha contribuido a todos los tratados definitivos sobre el tema, la preocupación de Harryhausen sigue siendo la historia que está ayudando a contar; un hombre más interesado en la música hermosa que en el equipo de alta fidelidad que la reproduce.

Presionado con fuerza, revelará con cautela algunos de los secretos de Dynamation, pero su verdadera pasión está reservada para las aventuras no contadas que le gustaría filmar, las nuevas criaturas que le gustaría crear, si solo le quedara suficiente tiempo y dinero en el mundo.

Un nombre se repite a lo largo de su conversación, el nombre que comenzó todo para él: King Kong. Harryhausen tenía 13 años cuando vio la película de 1933 en el Teatro Chino de Grauman y se convirtió instantáneamente en discípulo del creador de Kong, Willis O’Brien. “Estaba intrigado por la película porque no sabía cómo estaba hecha”, recuerda. “Sabía que no era un hombre con traje. La película jugó en mi imaginación. Había estado haciendo dioramas como pasatiempo con arcilla, los pozos de alquitrán de La Brea  y varios otros temas prehistóricos, y vi en King Kong una forma de hacer que estas cosas se movieran.

“Empecé a hacer mis propias películas en el jardín trasero. No teníamos luces, pero un amigo había comprado una vieja cámara Victor de 16 mm y se ofreció a filmar. Hicimos un oso con el abrigo de piel de mi madre y empezamos a animar temprano en la mañana. Terminamos a última hora de la tarde, momento en el que el sol se había desplazado de modo que, cuando el oso salió de la cueva, las sombras se movían por la pantalla. Quería hacerlo mucho mejor, así que me involucré con la fotografía y la iluminación.

King Kong (1933, imágenes de radio RKO).

 

“Tenía entonces unos 15 o 16 años y me propuse tratar de averiguar cómo se hizo King Kong. Ocasionalmente, había algo en las revistas que describía las articulaciones esféricas, etc. Reuní toda la información que pude sobre la animación stop-motion y todo se desarrolló a partir de ahí”.

Mientras aún estaba en la escuela, Harryhausen estudió dirección de arte y fotografía en un curso nocturno a cargo de la Universidad del Sur de California bajo la guía de varios miembros de la industria cinematográfica: editores, directores de arte y directores de fotografía como Lewis Physloc, ASC. Después de un breve coqueteo con la actuación y una temporada en el departamento de teatro de Los Ángeles City College, Harryhausen volvió a esculpir, dibujar y planificar películas de fantasía.

A principios de la década de 1940, Harryhausen se unió a George Pal y luego produjo una serie de películas animadas llamadas Puppetoons. Los títeres de Pal eran figuras muy estilizadas torneadas en un torno y cortadas en madera contrachapada. Para cada movimiento, había una figura separada y un paso podía involucrar 24 figuras. Aunque Harryhausen aprendió mucho sobre fotografía y adquirió experiencia práctica, el tipo de animación de Pal le resultó limitante.

Pasó la Segunda Guerra Mundial haciendo películas instructivas y de orientación para los servicios y sin querer volver a la animación de títeres limitada. A su regreso a la vida civil, Harryhausen se embarcó en su propia serie de cuentos de hadas animados. Conocidas como las “Historias de la Madre Oca”, las películas aún se exhiben en las escuelas. El “estudio” de Harryhausen estaba detrás del garaje de su padre y la producción era un asunto familiar. Su madre hizo el vestuario y Harryhausen Sr, un maquinista, hizo las uniones y armaduras. Harryhausen fue el «animador jefe» del corto de Puppetoon «Tulips Shall Grow» en 1942.

Antes de que Harryhausen ingresara al ejército, concibió y comenzó a trabajar en una película llamada Evolution. Fue un proyecto ambicioso que rastreaba el surgimiento del mundo desde un gas arremolinado en el espacio hasta la era de los mamíferos. Le había mostrado su metraje a Willis O’Brien y en 1946, cuando O’Brien estaba preparando Mighty Joe Young, Harryhausen fue contratado para trabajar en la película.

Animando a Mighty Joe Young (1949).

 

Trabajó con O’Brien y el productor Merian Cooper durante unos tres años. El primer año lo pasó cortando marcos para dibujos, mecanografiando, cualquier cosa para adquirir experiencia, y luego comenzó a ayudar con la animación de Mighty Joe. Varios proyectos previstos por O’Brien y Cooper, como Food of the Gods , Valley of the Mist y Mighty Joe Young Meets Tarzan  no lograron despegar, y un amigo le presentó a Harryhausen a Jack Dietz. El productor tenía un esquema llamado Monster From Beneath the Sea, que se convirtió en The Beast from 20,000 Fathoms y el primer largometraje en solitario de Harryhausen.

La bestia de 20.000 brazas (1953, Warner Bros.)

 

La película se convirtió en una de las «durmientes» del año, pero entre el final de la producción y el estreno, Harryhausen volvió a sus cuentos de hadas. Cinemascope y los artilugios de pantalla ancha estaban entonces de moda y Warner Bros, los distribuidores, temían que, como La Bestia no estaba en color, no consiguiera reservas para los cines. Resolvieron esto tiñendo la película de marrón y lanzándola con la etiqueta promocional “Glorious Sepiatone”.

Los amigos han jugado un papel importante en el destino de Harryhausen y fue otro amigo quien le presentó a un joven productor llamado Charles H. Schneer. Quería hacer una película protagonizada por un pulpo gigante que derriba el puente Golden Gate. Se juntaron e hicieron It Came From Beneath The Sea.

Vino de debajo del mar (1955, Columbia Pictures)

 

Fue el comienzo de una asociación y una amistad que perdura desde hace más de 30 años. En 1959, la pareja se mudó a Inglaterra. Le preguntamos a Harryhausen por qué.

Ray Harryhausen: Habíamos hecho tres o cuatro películas en Hollywood y luego alguien vino a nosotros con un guión llamado Gulliver. Queríamos hacer la imagen y la mejor manera de hacerlo fue a través de travelling mate. Hollywood no contaba con amplias instalaciones en ese momento para hacer viajes correctamente, y habíamos oído hablar de la Proceso de vapor de sodio, donde se tiene un mate instantáneo, lo que simplificó el trabajo. Teníamos tantos mates de viaje en la imagen que decidimos investigar el proceso que había desarrollado Rank. Vinimos a Inglaterra e hicimos dos cuadros usando el respaldo de sodio. La Isla Misteriosa y Los Tres Mundos de Gulliver.

American Cinematographer: ¿Por qué este proceso solo estuvo disponible en el estudio de Rank, Pinewood, Londres? Hollywood en este punto seguramente estaba adelantado con la técnica.

RH: Creo que Hollywood había invertido demasiado en la retroproyección y sintieron que con los proyectores de tres cabezas y todo lo que podían lograr era lo que se necesitaba. Ocasionalmente veías un mate móvil en una película de Hollywood, pero se convirtió en un arte olvidado, aunque Hollywood tenía un mate móvil cuando hicieron películas como El Arca de Noé utilizando el antiguo proceso Dunning y el proceso Williams en blanco y negro.

AC: Cuando se trataba de color, nunca parecían desarrollar el arte en gran medida porque la mayoría de los estudios tenían grandes departamentos de retroproyección con enormes cantidades de dinero invertidas. Probablemente no querían cambiar.

RH: Muchas imágenes no requerían mate de viaje, pero cuando se trata de personas grandes y pequeñas, debe recurrir a su uso. El Laboratorio Rank TM, a cargo de Vic Margutti, tenía el sistema [de vapor de sodio] que era capaz de producir instantáneamente un mate en movimiento por bi-pack. Sentimos que sería un gran activo para Gulliver. Disney tenía una franquicia en el sistema en Estados Unidos.Hicimos las dos películas y nos gustó tanto Inglaterra que nos quedamos. También estábamos justo en el centro de Europa y podíamos llegar a cualquier lugar exótico en cuatro o cinco horas. Sentimos que Malibú, el Gran Cañón y todo el paisaje alrededor de Hollywood se estaba agotando rápidamente por la televisión. Un fondo demasiado familiar no podría usarse en una película de fantasía. Cuando hicimos El séptimo viaje de Sinbad, por ejemplo, queríamos algunos edificios árabes auténticos. El Medio Oriente estaba en crisis, así que nos instalamos en España y usamos la Alhambra, con su maravillosa arquitectura morisca.

AC: ¿Algunos de sus equipos son, creo, bastante viejos…?

RH: Sí, tenemos una Mitchell NC, creo que fue la 15º Mitchell que se fabricó y todavía la usamos. Soportaría cualquier cámara moderna. Estaban tan bien hechas que si les das algún tipo de cuidado durarán para siempre. En Titans tuvimos que usar cámaras adicionales. Teníamos tres equipadas con motores stop-motion y dos proyectores. De hecho, tuvimos tres para mantener un flujo de imágenes que salieran para tratar de cumplir con el cronograma.

AC: ¿En qué se diferencia una cámara de stop-motion de una cámara normal?

RH: Principalmente en lo que se refiere al motor. Una cámara de stop-motion tiene un motor que hará una exposición de un cuadro muy precisa y es muy importante que este motor sea confiable. Está produciendo una exposición de un solo cuadro y si la exposición varía de alguna manera, obtiene un parpadeo y otros problemas. Usamos algunos de los motores stop-motion que se usaron en el primer King Kong en 1933, pero recientemente hemos comprado otros nuevos.

AC: ¿Han cambiado mucho las cámaras a lo largo de los años?

RH: El principio básico no ha cambiado, aunque ahora puede obtener cámaras compactas mucho más pequeñas y motores mucho más confiables que funcionan con un principio electrónico más simple. Todavía me gusta volver al tipo de motor de 1933, a pesar de algunas de sus deficiencias. Los encuentros muy confiables. La acción de la película se filma en el lugar o en el estudio con una determinada exposición de iluminación determinada por el director de fotografía.

AC: ¿Qué problemas tienes para hacer coincidir la iluminación cuando colocas a tus criaturas en la película? ¿Hacéis una serie de gráficos relativos a los números de pizarra, por ejemplo?

RH: Intento hacer coincidir la iluminación que hay en la placa de fondo. Es muy fácil ver de dónde viene la luz clave y durante la producción hacemos diagramas muy cuidados. Por supuesto, hay un gran problema con el balance de color cuando intentas reproducir una película. Si no se ajusta con cuidado, la fuente de luz de proyección a veces cambia todo el tono de los colores. Para intercalar con el metraje de producción, debe tener mucho cuidado para intentar obtener una reproducción del color lo más precisa posible. Esto se logra mediante filtros y otras técnicas para alinear la fuente de luz. Hacemos que el camarógrafo asistente tome medidas precisas sobre qué tan lejos se supone que la criatura está de la cámara en relación con las personas. También tenemos recortes de cartón para representar a la criatura. Si el monstruo es muy grande, hacemos que alguien sostenga un palo largo para dar un punto de enfoque a los actores y extras. Hemos tenido una maravillosa serie de camarógrafos en nuestras películas. En nuestros primeros días en Inglaterra, teníamos a Wilkie Cooper [BSC]. En Clash y nuestras dos últimas películas, hemos tenido a Ted Moore [BSC].

AC: ¿Qué material de película usas?

RH: Básicamente, 5247 [de Kodak]. El material de película actual es mucho más sensible a la reproducción de una imagen y las nuevas lentes crean un fondo mucho más nítido. Tuvimos problemas con nuestra primera imagen en color, El séptimo viaje de Simbad. Fue necesario utilizar material de impresión normal para nuestras placas de fondo. Pasamos meses de agonía probando varias representaciones de color. No había ninguna otra acción en ese momento, pero en los últimos años ha habido nuevos desarrollos. Ahora usamos un stock positivo del que hacen impresiones especiales de bajo contraste para televisión. Tiene una relación de contraste más baja y ha hecho que la reproducción del color sea mucho más fácil y mucho más precisa. Cuando hicimos Los tres mundos de Gulliver El séptimo viaje de Simbad, tuvimos que usar flash en muchas de nuestras placas de fondo para que los negros no se volvieran demasiado negros cuando se volvieran a fotografiar.

Harryhausen selecciona fragmentos de películas para Choque de titanes.

 

AC: ¿Qué quieres decir con «flash»?

RH: Flash significa que debe exponer la película antes de imprimirla y empañarla ligeramente, lo que hace que los negros se vuelvan ligeramente grises. Hay que controlarlo con mucho cuidado. La película tiende a captar contraste en la reproducción. Ahora tiene 5247 y si la placa se dispara correctamente, tiene una calidad de reproducción mucho mejor.

AC: ¿Tratas de usar el mismo lote de película cuando filmas a tus criaturas que el que usas para las placas?

RH: Tenemos que tener stock especialmente perforado. Hoy en día, debido a las leyes de la economía, el material se produce a tal velocidad que a veces los orificios de las ruedas dentadas presentan imprecisiones con respecto a las perforaciones de las películas. Es asombroso a lo largo de los años cómo este tipo de problema ha aumentado en lugar de disminuir. Se debe a una serie de razones diferentes. Tratamos de bajar los primeros 20 000 o 30 000 pies antes de que el punzón comience a producir orificios de rueda dentada demasiado grandes.

AC: ¿Qué otros problemas hay para ti que difieren de la realización de películas regulares?

RH: Tenemos que ser muy cuidadosos con la perspectiva porque si estás usando una proyección en miniatura, es muy difícil hacer que la inserción de la figura animada se mueva hacia y desde la cámara. Muchas veces no usarás los mismos lentes que usaste en la fotografía original. Si un actor comienza en el fondo y avanza, aumenta de tamaño muy rápidamente si se usa una lente gran angular. Cuando llegas a insertar la criatura animada moviéndose en la misma dirección, el hecho de que hayas utilizado una lente de ángulo diferente necesaria para reproducir la placa de fondo provoca cambios en todo el concepto de la perspectiva de la toma. Tiene que ser cuidadosamente controlado y diseñado en la forma en que se escenifica la acción. Es necesario hacer frente a este problema durante la producción y no después.

AC: ¿Qué es un “punto caliente”?

RH: Un ‘punto caliente’ significa que ve la fuente de luz de su proyector a través de la imagen proyectada en la pantalla.

AC: ¿Los actores tienen problemas para reaccionar a los recortes de cartón?

RH: Algunas veces. Por eso realizo una serie de dibujos de los puntos destacados del cuadro, así como bocetos de continuidad. Le muestran al actor exactamente lo que se supone que debe mirar en la escena final. Para el actor, es una forma de boxeo de sombras. Están mirando y reaccionando a algo que no está ahí. Muchas veces podemos montar la escena con dobles o dobles que tomarán el lugar de la criatura. Fotografiamos a los dobles solo como guía para analizar su acción. Al mismo tiempo, hacemos otra placa de fondo sin los especialistas, solo grabando al actor «boxeando en la sombra», por así decirlo. Esta es la pieza real de la película que luego usamos para combinar el modelo animado.

AC: ¿Qué es exactamente un “plato”?

RH: No sé cómo surgió el término, pero siempre hemos llamado a la pieza de película positiva utilizada para la reproducción, una «placa» de fondo. Consiste en una tira de película positiva impresa especialmente a partir de la fotografía original. Se coloca en un retroproyector en miniatura y se reproduce con otra cámara. Lo más importante es que tenga orificios de rueda dentada negativos, Bell & Howell, para mayor precisión y registro.

AC: La película pasa por la cámara a cierta velocidad. ¿En tu trabajo tienes problemas para adaptarte a esta velocidad?

RH: La velocidad de la fotografía de acción en vivo es siempre de 24 cuadros por segundo y debe juzgar la velocidad del movimiento de su animación en consecuencia. Cuanto más amplio sea el movimiento, más rápido parecerá moverse el modelo. Presenta un problema de sincronización porque las criaturas y los actores deben aparecer para ser fotografiados al mismo tiempo. Esto hace que a veces sea necesario mover la figura alrededor de medio milímetro por cuadro para mantener la sincronización con los actores en vivo. Con velocidades de movimiento más lentas y muchos modelos, a veces solo puedo producir 13 fotogramas por día laboral. Cuando estaba haciendo la pelea de esqueletos en Jason and the Argonauts, tenía siete esqueletos peleando contra tres hombres que eran actores en vivo. Mover siete esqueletos, cada uno con cinco apéndices moviéndose a diferentes velocidades, significaba que trabajaba muy lentamente. Por supuesto, hay otros días en los que puedo promediar 25 pies de animación.

AC: ¿Tuviste resistencia a usar color?

RH: Bueno, sí. En los primeros días, cuando Charles y yo hicimos 20 Million Miles to Earth, acababan de sacar un nuevo material en blanco y negro que era maravilloso para la reproducción. Podría reproducir una placa de fondo e intercalarla con el negativo original y apenas detectar la diferencia. Acabábamos de dominar el problema inherente al blanco y negro cuando Charles quiso hacer El séptimo viaje de Simbad en color. «Simplemente no podemos hacer una película de Las mil y una noches en blanco y negro», dijo. Siguió animándome a experimentar con el color a pesar de sus muchos problemas obvios. Los primeros resultados no fueron de la calidad que esperábamos, pero fue el paso correcto en un campo relativamente nuevo.

AC: ¿El color obviamente presenta más problemas?

RH: El color presenta muchos más problemas en la reproducción porque los diversos colores cambian cuando se vuelve a fotografiar la placa. En aquella época, los verdes por ejemplo, salvo que tuvieran una intensidad particular, tendían a volverse muy grises. Tuvimos el mismo problema con otros colores. Cuando intercalas un fondo refotografiado con el material de producción original, una chaqueta o un turbante adquieren un tono completamente diferente.

AC: Con el color, ¿sus modelos tienen que construirse mucho mejor?

RH: Sí, de hecho. Esto es particularmente cierto en la fotografía de primeros planos de un modelo relativamente pequeño. El detalle es lo más importante, particularmente en la textura de la piel. El uso de lentes excesivamente nítidos para sacar lo mejor del fondo a veces hace que el modelo sea demasiado nítido en relación con el fondo. Entonces hace necesario difundir una parte de la imagen para el efecto final.

Harry y su impresionante modelo de Medusa.

 

AC: ¿Siempre grabas en película de 35 mm?

RH: Sí. Filmamos con la apertura completa, desde el orificio de la rueda dentada hasta el orificio de la rueda dentada, para las placas de fondo. Esto se reduce a la Academia normal o a la relación de aspecto de 1:1,85, según sea el caso. Cuanto más grande sea su negativo, más nítida será la imagen que obtendrá en el fondo. Muchas veces hemos querido experimentar con las placas de fondo de VistaVision. El negativo más grande reducido a 35 mm daría una imagen más nítida y una mejor reproducción. Pero con la gran cantidad de placas de fondo que solemos tener en nuestras imágenes, es cuestionable si los resultados finales justificarían los costos adicionales.

AC: Volviendo al color, ¿comparte la preocupación de Martin Scorcese sobre el rápido desvanecimiento de la película en color?

RH: Sí. Hicimos una película llamada Los primeros hombres en la luna y tenía algunos recortes de la versión de 70 mm. Los saqué de mi archivo hace un par de meses y estaban todos descoloridos. Habían estado a oscuras y no estaban almacenados en malas condiciones. Me sorprendió que los colores se hubieran desvanecido después de menos de 12 o 15 años. Se están haciendo muchas fotografías en blanco y negro nuevamente y, por supuesto, el proceso Technicolor de tres tiras en el que realmente graba o transfiere su imagen a blanco y negro es casi la única salvación. Tienes que ir a China ahora para hacer eso. Entiendo que Technicolor vendió la mayor parte de su equipo a China y son las únicas personas que usan impresiones de liberación de tres tiras. Recuerdo que, cuando trabajábamos con las marionetas de George Pal, usábamos película en blanco y negro con un círculo cromático. Cada fotograma sucesivo era de un color diferente: rojo, verde y azul. Cada tercer cuadro se imprimió uno sobre el otro y obtuviste el color más hermoso. Por supuesto, la película en blanco y negro no se desvanece porque tiene contenido plateado. La respuesta a la preservación de la película parece ser volver al proceso Technicolor de tres tiras. Ahora dicen que la plata es tan costosa que perderá su precio.

Medusa de Choque de titanes.

 

AC: ¿Cuál de todas las criaturas que has creado fue la más complicada o difícil? Los esqueletos de Jason deben haber presentado problemas.

RH: Sí. Son los más cercanos al ser humano y por lo tanto probablemente los más criticables en movimiento. Los dinosaurios, por ejemplo, nadie sabe realmente cómo se mueve un dinosaurio, por lo que puedes tomarte grandes libertades, pero un esqueleto tiene que moverse de la manera que esperas que se mueva un ser humano. Tienes que ocultar todas las articulaciones para que parezca que solo hay hueso. En Choque de titanes, creo que Medusa presentó el mayor problema porque tenía 12 serpientes en el cabello, y cada serpiente tenía que estar articulada para mantener su propia posición. No podíamos simplemente clavar cables en la serpiente y esperar obtener algún tipo de movimiento exitoso. También tenía que tener una escala lo suficientemente grande como para permitir un marco articulado en cada serpiente. Por cada fotograma de la película, tenía que mover una serpiente a una posición diferente. Tenía 12 serpientes en el pelo, más las colas, más el movimiento de la boca, se movían los ojos, se movían los dedos, disparó una flecha y la cola se sacudió. Probablemente tenía más de 100 articulaciones en su cuerpo, 150, quizás, incluidas las serpientes.

Sosteniendo una cabeza de Medusa de utilería a gran escala utilizada durante la filmación de acción en vivo.

 

AC: ¿Cómo se hacían los movimientos?

RH: Completamente a mano. No creo que se haya ideado una computadora que pudiera crear los complicados movimientos necesarios para que nuestras criaturas animadas se realicen. Los esqueletos básicos están hechos de juntas de rótula mecanizadas. Esto permite que el modelo se pose en cualquier posición y mantenga esa posición. El gran problema está en la sincronización de todos los apéndices para dar la ilusión de un ser vivo. La mayor parte de esta ilusión depende de un sentimiento interno de movimiento por parte del animador.

AC: La rótula esférica: ¿es un nuevo desarrollo?

RH: Willis O’Brien lo ideó en los primeros días de la realización de El mundo perdido (1923), e incluso antes. La articulación esférica básica es un dispositivo bastante antiguo, pero Willis O’Brien fue uno de los primeros en adaptarlo al diseño de figuras en miniatura humanoides o animaloides con fines de stop-motion.

AC: ¿Ha habido muchos desarrollos recientes en la creación de movimientos de las criaturas?

RH: En el campo del stop-motion, no tantos. Por supuesto, el diseño real de cualquier criatura trae consigo sus propias innovaciones. Hay varios dispositivos para ayudar a hacer una animación más fluida, pero el movimiento en sí todavía está bloqueado en gran medida dentro del animador hasta que se libera mediante el uso de la fotografía stop-motion.

AC: ¿En qué se diferencian tus criaturas de los Muppets, por ejemplo?

RH: Un Muppet funciona con un principio completamente diferente. El Muppet es principalmente un títere de mano, que a veces utiliza dispositivos electrónicos. Han podido conseguir algunas caracterizaciones muy curiosas e interesantes, como la de Yoda, en El imperio contrataca, donde tenemos que recurrir al largo proceso de stop-motion para la creación de la ilusión de la vida, un Muppet puede ser fotografiado como un actor normal de acción en vivo.

AC: ¿Estás tentado a usar ese proceso?

RH: Hemos recurrido a los títeres de mano en los primeros días, como algunos planos de La Bestia de 20.000 brazas. Pero, en general, tendemos a no utilizar la técnica, ya que no es tan adecuada para nuestro tipo de historias.

AC: ¿Qué pasa con la electrónica, por ejemplo?

RC: Eso, de nuevo, es una posibilidad. Nos hemos adentrado parcialmente en la electrónica con Bubo, el búho mecánico de Choque de titanes. Hay algunas escenas en las que está controlado por radio.

AC: ¿Cuánto de Bubo en la película está controlado por radio?

RH: En bastantes escenas donde los actores lo manipulan. Sus alas baten, su cabeza girará, sus ojos girarán y su boca se abrirá. Pero básicamente, a menos que muchos búhos hayan sido hechos para hacer muchas cosas diferentes, sus movimientos son limitados. Por ejemplo, sería difícil hacer que un búho electrónico caminara o despegara y volara. Para este tipo de movimiento y caracterizaciones más complejas, nos pareció necesario recurrir a un modelo stop-motion.

El Bubo the Owl mecanizado de Choque de titanes.

 

AC: ¿Cree que el proceso electrónico es limitado?

RH: Es limitante porque estás recurriendo a motores para crear movimiento en lugar de animación donde tienes una gran flexibilidad. Es un problema completamente diferente cuando estás filmando un cohete y usando una cámara de computadora.

AC: ¿Qué es una cámara de ordenador?

RH: Una cámara de computadora es una cámara de repetición que repetirá sus movimientos exactos en stop-motion, acción en vivo o cámara lenta.

AC: ¿Es como una cámara stop-motion?

RH: Sí, a veces implica stop-motion. Se controla electrónicamente para que pueda repetir cada movimiento. Tiene que estar en una pista, tiene que estar engranado de cierta manera y tiene que estar programado para que, sin importar a dónde te muevas, pueda repetir esa posición exacta una y otra vez.

AC: ¿No te serviría de nada?

RH: No particularmente. Sin duda, sería una ventaja en ciertos tipos de escenas, pero no las hemos encontrado en este momento.

Harryhausen y su maqueta del Olimpo.

 

AC: Tu trabajo es muy personal, muy táctil, mientras que usar la cámara de una computadora es muy impersonal. ¿Será por eso que no le gusta el proceso electrónico?

RH: No es cuestión de si me gusta o no la cámara del ordenador. Es más, una cuestión de si se puede aplicar a nuestro tipo de película. Sí, siento que hay una conexión personal entre lo que hago y la forma en que se logra el efecto final. La animación stop-motion es una expresión personal del animador que necesita movimientos complejos junto con detalles de personajes improvisados. Hay una gran diferencia entre fotografiar una nave espacial inanimada volando por el espacio y los complejos movimientos de, por ejemplo, la pelea del esqueleto de Jason. Cada uno tiene su lugar en el tipo de historia que se cuenta.

AC: En Choque de titanes, ¿había alguna criatura que quisieras usar, pero no pudiste debido a restricciones presupuestarias?

RH: No, usamos todo lo que nos propusimos hacer.

AC: ¿Tienes un gran almacén de criaturas fantásticas acechando en tu mente esperando la oportunidad de emerger?

RH: Las criaturas se desarrollan a partir de la historia, pero probablemente tengo una serie de cosas en mi subconsciente que no saldrán a la luz hasta que se presente el guión adecuado. En choque, que trata de la mitología griega, traté de volver al pasado para ver qué habían hecho otros artistas. Descubrimos, por ejemplo, que Medusa tiene una enorme cantidad de variaciones. En algunas fotos es una mujer hermosa con serpientes en el pelo, en otras es simplemente una especie de fea ama de casa de clase media. Pero para nuestra situación, sentimos que Medusa debería tener el cuerpo de una serpiente. Queríamos que su rostro tuviera una estructura ósea hermosa, pero con un matiz feo porque no puedo imaginar a una mujer hermosa que convierta a alguien en piedra, incluso si tiene serpientes en el cabello. O tal vez se me hayan escapado las implicaciones más sutiles. Intentamos hacer que Medusa fuera más grotesca para que existiera la posibilidad de que su apariencia pudiera ser lo suficientemente aterradora como para convertir a alguien en piedra.

AC: ¿Qué pasa con el Kraken? Realmente no existe en la mitología. ¿Es totalmente tu criatura?

RH: Solo en el diseño. En el guión lo llamamos Kraken, aunque la palabra proviene de un período muy posterior en la historia cuando los marineros medievales regresaron con historias de calamares gigantes y ballenas, etc. Hubo un leviatán en los primeros tiempos griegos y bíblicos, por supuesto, y varios otros nombres para monstruos marinos grotescos. Andrómeda fue sacrificada a un monstruo marino de algún tipo y hay varias pinturas de su apariencia. A veces es un dragón, a veces un pez enorme pero nunca lo he visto como un pulpo. Intentamos que fuera una combinación. Queríamos que fuera un poco humanoide para dar una razón por la que la sacrificaron a esta cosa, de lo contrario, la criatura simplemente la devoraría y volvería al mar, una situación que no es muy dramática.

AC: ¿Da más miedo si la criatura tiene ciertas cualidades humanas?

RH: Sí, eso es lo que teníamos en mente. Le dimos cuatro brazos con la forma básica de una combinación de criaturas marinas. Hay una especie de concepto de tritón combinado con matices de pulpo. Le dimos cuatro brazos en lugar de ocho porque pensamos que le daría una apariencia más grotesca e inusual. Esto no fue porque tuviéramos problemas de presupuesto como los que tuvimos en la película It Came From Beneath the Sea, donde tuvimos que comprometernos con un pulpo de seis brazos para derribar el puente Golden Gate.

AC: Sin embargo, hubo problemas con el Kraken. ¿Nos parece recordar un gran Kraken flotando en el mar frente a Malta?

RH: Sí. Realmente me desagradan los hombres vestidos con trajes de dinosaurio casi tanto como me desagrada ver a un hombre con un traje de Kraken. A veces uno se ve obligado a usarlos por las circunstancias y el tiempo. Al final, usamos solo los tiros de Dynamation. Sin embargo, construimos un gran Kraken para las escenas submarinas. Bajo la supervisión fotográfica del camarógrafo submarino Egil Woxholt, construimos un set sumergido en Camino Bay, frente a la isla de Malta. Tuvimos que remolcar un modelo de 15 pies dentro y fuera de la jaula submarina. Como puedes imaginar, hubo muchos problemas al trabajar bajo el mar, además de trabajar con un modelo tan grande. Un gran inconveniente era que el miserable monstruo siempre quería flotar. Estaba hecho de una sustancia esponjosa. Muchos cientos de libras de plomo tuvieron que usarse como lastre.

AC: ¿Qué tal los escorpiones?

RH: Eran otro tipo de problema. Tenían ocho patas, dos garras y una cola, todo lo cual debía mantenerse en movimiento. Tuvimos que hacerlos a una escala mucho mayor que un escorpión vivo. El problema con los escorpiones vivos, incluso si encuentras uno talentoso, es que son difíciles de entrenar y hacer que hagan exactamente lo que requiere el guión.

AC: ¿Y Dioskilos, el perro lobo de dos cabezas?

RH: Uno de los grandes problemas en el diseño de Dioskilos fue que una vez que comienzas a separar dos cabezas del cuerpo de un perro normal, se vuelve grotesco. Tuvimos que manipular el diseño bastante para que pareciera creíble, pero salió bastante bien.

AC: ¿Pegasus, el caballo volador, es en parte real, en parte animación?

RH: Sí, debido al detalle de la cabeza de un caballo, usamos un caballo vivo en ciertas tomas, pero las tomas largas son todas animaciones.

Harryhausen con el modelo y animador de Pegasus Jim Danforth, quien manejó gran parte del trabajo de stop-motion en el personaje alado.

AC: ¿Qué tamaño tienen los modelos que usas?

RH: Algunos de ellos son muy pequeños. Una vez hice un modelo de Raquel Welch de solo 3 ½ pulgadas de alto. En la película Un millón de años antes de Cristo, un pterodáctilo gigante tuvo que recogerla. No quería hacer un enorme lagarto alado de tamaño natural, así que hice una pequeña Raquel Welch y la animé fotograma a fotograma. Por supuesto, otros modelos pueden ser mucho más grandes, hasta dos pies y medio de altura.

AC: ¿Qué dicta el tamaño?

RH: Depende de lo que la criatura tenga que hacer. Muchas veces es más fácil trabajar con un modelo más pequeño. Casi me siento como el Dr. Frankenstein o el Dr. Cyclops en ese sentido porque tomo actores y los encojo para hacer que un modelo parezca grande en lugar de construir un modelo grande que es incontrolable.

Un primer plano de Raquel Welch en One Million Years BC (1966, Hammer Films)

 

AC: Antes de que comience la filmación, presenta toda la película en forma de guión gráfico. ¿Por qué?

RH: Porque al fotografiar cualquier cosa, hay una forma costosa de hacerlo y una forma económica. A veces, solo colocar la cámara un metro más abajo o un metro a la derecha o a la izquierda puede marcar la diferencia cuando estás animando la escena final. Es la diferencia entre pasar un día o 10 animando, debido a las complicaciones que presenta un ángulo de cámara particular. Encuentro que es muy importante diseñar todas las secuencias principales en forma de diagrama aproximado para tener un punto de vista armonioso con todos los involucrados. Ayuda a los actores a visualizar, así como al director y al fotógrafo. Repasamos la secuencia completa antes de la producción para ver si el director tiene algún cambio que cree que mejorará la escena. Por supuesto, siempre hay compromisos que uno tiene que hacer, cambios en el clima, vuelos chárter para tomar, etc.

AC: ¿Te importan los actores o son más importantes tus criaturas?

RH: Básicamente, estoy interesado en el producto en general. Como productor de esta película, me interesa más que solo mi papel. Quiero ver una imagen redondeada que produzca los mejores resultados, pero naturalmente, tengo prejuicios hacia las criaturas porque sentimos que son los valores inusuales de la producción.

AC: Con Titans tienes un grupo de actores caro. ¿Tienes un resentimiento furtivo de que una gran cantidad de dinero se les iba a ellos en lugar de a tus criaturas?

RH: No puedo negar que el pensamiento había pasado por mi mente. En el pasado, nos dimos cuenta de que la historia que estábamos contando no tenía un actor muy costoso, pero en Titans, sentimos que mejoraría el producto final al tener los mejores actores que pudiéramos conseguir.

Entre las muchas estrellas (humanas) de la película, Harry Hamlin interpreta a Perseo, visto aquí con Ammon (Burgess Meredith).

 

AC: ¿Por qué nunca has dirigido una película completa tú mismo?

RH: El problema es que una película de esta naturaleza tiene tantas complicaciones, siento que te desgarraría intentarlo todo; algo debe sufrir. Nunca he estado tan intrigado con la dirección de acción en vivo.

AC: ¿Hay algún conflicto entre usted y el director?

RH: Siempre es posible un choque de personalidades, ya veces eso sucede. Tienes que afrontarlo lo mejor que puedas. No todo el mundo ve una determinada escena o situación de la misma manera. Puedo ver una escena desarrollada de cierta manera debido a mi experiencia previa y el director tendrá otras ideas. Es por eso que, antes de comenzar la producción, debemos acordar la forma en que se debe manejar una escena. Pero, a veces, de la batalla sale un producto mejor, otras veces simplemente estorba. Una vez se dijo: ‘Cuando dos personas piensan exactamente igual, una de ellas es innecesaria’.

AC: Las ideas de la historia, ¿son tuyas?

RH: No siempre. A Beverley Cross, por ejemplo, se le ocurrió Choque de titanes. Siempre había querido hacer esta historia, pero no podía encontrar una manera de resolver algunos de los problemas de la trama. He contribuido con historias en el pasado y luego alguien como Beverley o Jan Read o varios escritores las elaboran y las desarrollan en guiones.

AC: La mitología parece ser la principal fuente de su historia.

RH: Sí, creo que la mitología tiene una estructura integrada para las criaturas que podemos hacer mejor con Dynamation. No tienes que escribir el monstruo en la historia. Con muchas historias, encuentras que los elementos deben incorporarse solo para crear el espectáculo. Recuerdo que en mi juventud vi algunas de las primeras imágenes de Simbad en las que solo hablaban del elemento de fantasía, pero nunca lo mostraban. En consecuencia, las películas se convirtieron simplemente en policías y ladrones con trajes árabes. Nunca viste ninguna forma de magia o maravilla. Por supuesto, cuando vi El ladrón de Bagdad de Korda me estimuló aún más a creer que era una gran verdad que debes mostrar la fantasía en la pantalla de la misma manera que en los libros de cuentos y no solo hablar de ella.

AC: Las historias espaciales ocupan mucho tiempo en pantalla ahora. ¿No te interesan?

RH: Los encuentro terriblemente fríos e indiferentes. Las historias siempre tienen que ver con aparatos y máquinas y ocasionalmente hay un poco de participación personal dramática. prefiero el pasado; tiene una cualidad mucho más romántica, mucho más valor narrativo. De alguna manera, todas las imágenes espaciales terminan siendo muy similares. Sin embargo, si encontramos un buen guión, estaría encantado de probar uno. Hicimos Los primeros hombres en la luna de HG Wells, pero supongo que lo llamarías una epopeya espacial victoriana. Fue muy divertido, pero de nuevo volvimos al pasado, a 1900, durante la mayor parte de la película. En el prólogo y el epílogo sólo teníamos que lidiar con los cohetes espaciales actuales.

Los primeros hombres en la luna (1964, Columbia Pictures)

 

AC: ¿Cuáles han sido las principales influencias en tu trabajo?

RH: Ha habido muchas influencias cuando miro hacia atrás. Charles R. Knight, ilustrador de museos y excelente pintor. Restauró conceptos de animales prehistóricos para el Museo de Historia Natural de Nueva York. Cuando era niño, me sentaba durante horas a mirar sus libros de dinosaurios. El mundo perdido de Willis O’Brien me impresionó enormemente a la edad de cuatro años. El dinosaurio que cayó del acantilado al lodo de abajo se convirtió en un recuerdo imborrable. En Rey kongy su variado elenco de dinosaurios se convirtió en un estímulo que cambió mi vida por completo. La película de fantasía para acabar con todas las películas de fantasía. A través de O’Brien, conocí los maravillosos grabados de Gustave Dore y John Martin. Las películas de Merian C. Cooper, James Whale, Tod Browning, Rouben Mamoulian, Fritz Lang ampliaron mi imaginación. La lista podría seguir.

AC: ¿No has querido hacer una película basada íntegramente en criaturas animadas sin seres humanos?

RH: Realmente no. Me gusta pensar que mis intereses van más allá de las películas de criaturas. Dudo mucho que una audiencia pueda sentarse durante dos horas de solo personajes animados. Al principio, hacía cuentos de hadas animados de 10 minutos en película de 16 mm simplemente para ganar experiencia. Temas como Hansel y Gretel, Rey Midas, Rapunzel y otros. Todavía me encanta ver un buen musical, cualquier buen drama, algunas películas de terror. Laurel y Hardy me hacen reír sin control. Nunca habrá otro par como ellos.

AC: Ahora que te has convertido en una figura de culto, casi el padre del stop-motion, ¿Cuál ves como tu posición en el negocio en este momento?

RH: Realmente no tengo ni idea. Si me detengo a pensarlo dudo que pueda hacer algo más en el campo de la animación dimensional. Sin embargo, siento que llegará un momento en el que no podremos funcionar de la misma manera que lo hicimos en el pasado. La animación dimensional stop-motion es principalmente trabajo manual. Es personal para mí y ha sido toda mi carrera. Charles y yo estamos muy agradecidos de recibir muchas cartas de jóvenes que nos dicen que nuestras películas los han inspirado hacia una nueva carrera. Gracias a la televisión, hay muchas más oportunidades para la expansión de este campo.

Harryhausen con el productor Charles H. Schneer. Primero trabajaron juntos en It Came from Beneath the Sea y han seguido siendo amigos y socios durante más de 30 años.

 

AC: Si te hubieras quedado en Hollywood en lugar de mudarte a Inglaterra, ¿crees que tu trabajo habría ido en una dirección diferente?

RH: Tendría que ser un profeta para responder eso. No tengo ni idea. Simplemente sentí que Hollywood no era el lugar para mí. Hicimos muchas películas y teníamos maravillosas condiciones de trabajo, pero para nuestro tipo de película de fantasía, sentimos que no serviría para nuestro mejor propósito.

AC: ¿Hay alguna película que realmente quieras hacer? Nos parece recordar que mencionaste el Infierno de Dante.

RH: El Infierno de Dante, como tal, sería una característica bastante tediosa, creo, pero ciertos elementos podrían incorporarse en el guión correcto. Sería un proyecto enorme y recuerdo haber dicho que me gustaría ver miles de almas atormentadas rodando por los cielos en el espíritu de Gustave Dore. Desafortunadamente, la historia completa de Dante puede no ser comercialmente viable”.

AC: Entonces, ¿qué vas a hacer a continuación?

RH: No tengo ni idea. Como decimos en Titans, ‘Está en el regazo de los Dioses’

En 1992, Harryhausen recibió un premio de la Academia por los logros de su vida en el cine. A pesar de su cuerpo de trabajo, nunca antes había sido nominado: En 2003, la Cámara de Comercio de Hollywood le otorgó a Harryhausen una estrella en el Paseo de la Fama de Hollywood, ubicado al otro lado de la calle del Teatro Chino de Grauman, donde vio por primera vez a King Kong cuando tenía 13 años. En su discurso de aceptación, Harryhausen señaló y dijo: “Todo para mí comenzó en ese teatro hace 70 años”.

Ojos en el cielo: “Tomas con Drones”

AMERICAN CINEMATOGRAPHER
02 de setiembre del 2021
Tara Jenkns

 

Los directores de fotografía deben estar preparados para cualquier cosa en el set, y hoy eso a menudo significa tener un dron a mano.

Había una toma aérea en la hoja de llamadas y la iluminación en el lugar era hermosa, pero el helicóptero quedó en tierra en el aeropuerto a 50 millas de distancia debido al mal tiempo. “Si hubiera tenido un dron en mi camioneta, podría haber tomado la foto tan fácilmente”, dice Claudio Mranda, miembro de ASC. “Fue frustrante, y eso fue lo que me inició en esta pista”.

Miranda, un director de fotografía ganador de un Premio de la Academia, comenzó a aprender a pilotar drones en 2016, “principalmente porque me facilitó la comunicación”, dice. “Una vez que había desarrollado habilidades de pilotaje, cuando quería una toma aérea específica, sabía exactamente cómo obtenerla y podía capturarla yo mismo o, si era algo más complejo, podía comunicársela a un piloto de drones experimentado”.

Los directores de fotografía deben estar preparados para cualquier cosa en el set, y hoy eso a menudo significa tener un dron a mano. AC habló con varios expertos en el campo que opinaron sobre las opciones, los conceptos erróneos y, a veces, las capacidades sorprendentes que vienen con esta tecnología de alto vuelo.

Claudio Miranda, ASC (Foto cortesía de DJI)

 

Que es posible

“Algunas personas piensan que el dron es un helicóptero de juguete, y en gran medida no lo es”, dice Sarah Phillips, directora de fotografía y piloto de drones que con frecuencia cumple ambos roles en tándem, incluso para las películas IRL e Ingress, los cortos Beachworld y Supplements, y el piloto de Tavern Brawl. “Puede lograr cosas similares a las de un helicóptero, pero también puede lograr cosas similares a las de una grúa o un brazo, aunque siento que las personas que piensan que los drones reemplazan otras tecnologías están limitando su potencial. Un dron puede hacer cosas realmente increíbles”.

“Volar justo al lado de algo o alguien mientras empujas hacia adentro o hacia afuera, giras hacia la izquierda o hacia la derecha, o subes o bajas son cosas que practico todos los días”, dice el operador de drones y miembro asociado de ASC Mark Bender, cuyo trabajo aéreo ha incluido colaboraciones con el director de fotografía Chuck France en el corto Artemis; con Sam Nicholson, ASC en un comercial de SDGE; y con este autor en el corto Remains of a Nation. “Puedo fotografiar sin problemas a poca altura sobre el suelo y luego hacer la transición a puntos de vista aéreos sin cambiar las configuraciones, evitando así cortes en medio de esas transiciones”. Señala su aprecio por lo lejos que han llegado las empresas de drones en la mejora de los problemas con la baja latencia “entre la entrada del movimiento de la cámara y el movimiento real de la cámara. No es la perfección de una Steadicam en los brazos de un operador maestro, pero se acerca a esa capacidad”.

Stuart Cram, gerente sénior de marketing de DJI, ha notado que las tomas compuestas, por ejemplo, un movimiento que comienza en el aire en un dron, baja para convertirse en una toma manual y luego vuelve a subir al cielo, todo sin cortes, son cada vez más popular. Señala el largometraje Cherry, la serie Snowfall de FX, y la serie SEAL Team de CBS como producciones que han presentado dicho trabajo. “Se agregan cosas nuevas al idioma todo el tiempo”, dice. “A veces, un aspecto del movimiento solo se puede lograr con un dron y, a veces, solo se puede lograr con ese dron específico”.

“Mi desafío personal es hacer que el espectador sienta que es natural volar”.

La toma de un dron DJI Inspire 2 se cambia de aérea a cámara de mano para el corto The Circle, fotografiado por Claudio Miranda, ASC. (Foto cortesía de DJI)

 

Es igualmente importante que los cineastas entiendan las limitaciones de la tecnología, dice Bender. “Es la herramienta adecuada para algunas situaciones, pero no para todas. La gente trata de usar drones para movimientos precisos de jib o grúa, y aunque son bastante buenos, no puedes obtener esa repetibilidad precisa todo el tiempo porque son literalmente parte del aire en el que vuelan. Los drones ofrecen otra paleta de perspectivas: a veces es valioso ya veces no lo es. Ya sabes, no todas las películas necesitan una toma del ‘Ojo de Dios’ para encajar a la fuerza en la trama, o que la cámara gire perturbadoramente de izquierda a derecha». Pero para los proyectos que se ven realzados por la perspectiva de un dron, agrega, “mi desafío personal es hacer que el espectador sienta que es natural volar y aceptar la perspectiva aérea. El objetivo es sumergirlos más en la historia con estas imágenes. Trabajar con directores y directores de fotografía que deseen explorar esto es muy emocionante y satisfactorio”.

Explorando opciones

En cuanto a la elección del tamaño del dron, Miranda señala que la distancia entre la cámara y el actor es clave en esta determinación. “Tienes que saber qué es lo que estás tratando de hacer y planear tu tiro”, dice. “Obviamente, un helicóptero no puede acercarse mucho a un actor. Puedes acercarte un poco más con un dron grande y puedes acercarte aún más con un dron pequeño, lo que permite una mayor intimidad con el actor”.

Phillips sugiere que incluso si una producción emplea una combinación particular de cámara y lente, un dron más pequeño con una cámara incorporada generalmente puede producir una imagen comparable con un presupuesto, especialmente para establecer tomas, porque «usualmente estás en un enfoque infinito». Pero si desea una toma especial que comience cerca de un actor y retroceda hasta un punto lejano, puede usar la cámara A montada en un dron más grande para ese cambio de profundidad de campo”.

“La democratización del movimiento aéreo ha facilitado mucho la vida de los cineastas, lo que creo que es realmente importante”.

Un dron de carreras XM2 FPV (“vista en primera persona”) de 5″ lleva una GoPro. (Fotografía cortesía de XM2 Pursuit)

 

Stephen Ohl, director ejecutivo de la compañía de cinematografía aérea XM2 Pursuit, ha diseñado grandes drones para numerosos proyectos, incluido Pirates of the Caribbean: Dead Men Tell No Tales, filmado por Paul Cameron, ASC. Ohl señala que los cineastas en películas a gran escala generalmente prefieren lograr la consistencia entre el trabajo del dron y las cámaras en el suelo filmando con “el mismo sensor y el mismo vidrio” en todo momento. Agrega que «con un dron más grande, también podemos filmar en conjuntos de cámaras de película y volar». La compañía ha brindado servicios de drones para producciones filmadas No Time to Die (AC April ’20) y la serie de HBO Westworld, y para conjuntos de cámaras en Star Wars: The Rise of Skywalker. (AC febrero ’20).

Ohl y su equipo aprenden bastante al pasar tiempo en el set. “Hemos colaborado con muchos grandes directores de fotografía y todos han contribuido a nuestro trabajo a su manera”, dice. “Cuando estamos en el set, miramos y escuchamos, e incluso si un director de fotografía no hace una solicitud específica, puedo escucharlo comentar sobre algún aspecto del dron en el set, y eso me ayuda a entender cómo podemos mejorarlo. A veces surge una idea, o surge algo de una conversación con alguien, y lo aceptamos”.

Bender señala que incluso con drones más grandes, lo que se puede lograr “todavía se reduce a la habilidad del operador. Y con los drones más grandes, hay múltiples operadores: alguien que vuela y al menos un operador de cámara. Ser un agarrador de cámara ya es un arte, y ser un piloto de drones es como ser un agarrador tridimensional. El hecho de que estés volando no significa que dejes tus habilidades con la cámara o la plataforma rodante en el suelo, simplemente las llevas a nuevas alturas”.

Más que volar

Entre las numerosas colaboraciones de Miranda y DJI, que incluyen la función de drones Only the Brave, varios comerciales («especialmente anuncios de automóviles», dice) y la muy esperada próxima función Top Gun: Maverick, estaba The Circle, una Producción de formato corto de 2016 filmada por Miranda y diseñada para exhibir el Inspire 2 de DJI y su cámara X5S. El círculo se centra en la relación de padre e hijo, y fue capturado en su totalidad con el equipo Inspire 2, no solo las tomas aéreas, sino también todas las tomas convencionales. “Para obtener primeros planos para tomas de conducción, instalamos la cámara montada en el dron] en una bandeja de azafatas atada al auto de fotografía”, dice Miranda. “Para una toma en la que queríamos bajar la cámara directamente sobre una cama, usamos un par de poleas y usamos el dron como cabeza remota. Fue una forma genial de usar el dron; es posible que no hubiéramos podido llegar lo suficientemente alto en ese lugar con una cámara de cine y un cabezal remoto estándar”.

Miranda ve The Circle como un testimonio de todo lo que pueden hacer los drones. “Para mí, gran parte del atractivo es tener la capacidad de concentrarme en lo que quiero”, dice. “Los directores de fotografía aérea establecen una parada profunda y cubre todo. En The Circle, la parada fue más rápida y mi AC pudo desviar el enfoque de los monitores para enfocar selectivamente a los sujetos”.

Miranda señala que forma parte del programa de maestría de DJI y brinda información sobre el desarrollo de sus tecnologías. También reconoce el apoyo de Kevin LaRosa II en Helinet Aviation Services, quien ha sido especialmente útil en el viaje de Miranda en el mundo de los drones y lo ayudó a navegar por las reglas y regulaciones relacionadas con el tiro con drones comerciales.

Una ladera italiana capturada por la directora de fotografía y operadora de drones Sarah Phillips. (Imagen cortesía de Sarah Phillips)

 

Oportunidades Accesibles

Miranda afirma que aunque usó “todo” durante la producción de Top Gun: Maverick (“drones, helicópteros, jets”), y que la fotografía con drones puede ser típica de las producciones a gran escala de hoy en día, la tecnología también ofrece ventajas para los presupuestos más bajos. “Me emociona todo lo que hace que una toma sea más interesante, y los drones han hecho posibles las tomas aéreas para cineastas que no pueden pagar helicópteros. Esta democratización del movimiento aéreo les ha facilitado mucho la vida a estos cineastas, lo cual me parece muy importante. Puedes salir con un Inspire 2 y obtener tomas increíbles si lo tratas bien. La oportunidad está ahí”.

Dice Phillips, que tiene la costumbre de llevar siempre un dron con ella en los proyectos: “¿Por qué evitar tener tomas más grandes en tu película? Ya no necesitas una grúa enorme para conseguir una toma a vista de pájaro. Busby Berkeley hizo un agujero en la parte superior del escenario de sonido para obtener la vista correcta, pero ahora solo puedes volar un dron”.

“A veces, un aspecto de un movimiento solo se puede lograr con un dron y, a veces, solo se puede lograr con ese dron específico”.

Sarah Phillips en el set con un DJI Inspire 2 (Fotografía cortesía de Sarah Phillips)

 

Caminos futuros

A medida que se expande la base de conocimiento de los drones, también lo hacen las posibilidades creativas. Miranda, por ejemplo, ha notado recientemente algunos experimentos de iluminación. “Vi a alguien usar un dron como luz de helicóptero de un hombre pobre, y fue bastante convincente”, dice. “Creo que eso es súper creativo”.

Phillips está atento a los FPV, drones con vista en primera persona, que requieren gafas de realidad virtual para sumergir al piloto en la experiencia de vuelo, como si estuvieran sentados en la «cabina». Ella señala: “Estamos empezando a ver el amanecer de toda una generación de pilotos de FPV. ¡He visto todos estos videos virales de FPV con bombardeos en picado, y me asustan!”

Ohl está interesado en hacer volar matrices de cámaras más grandes y probar nuevas cámaras digitales para usarlas. “Hemos estado analizando la Achtel 9×7, una cámara de 65 megapíxeles desarrollada en Australia el año pasado para VFX [así como para VR y trabajos de formato más grande]. La cámara fue diseñada para Imax [presentación]. Tiene una resolución nativa de 9344 x 7000 con capacidades únicas que nos entusiasma explorar”.

Stephen Ohl (Imagen cortesía de XM2 Pursuit)

 

Comunicación clara

Con tanta evolución tan rápida, los cineastas deben poder comunicar sus objetivos con claridad. Dice Phillips: “Si quieres una toma con un dron, lo más importante es tener una visión muy clara de esa toma, porque eso afectará a quién la realza y sobre qué realzan, y a su vez, cuánto cuesta. También es útil saber qué es posible, qué es logísticamente realista. Y por otro lado, si solo estoy en un proyecto por un día como operador de drones, necesito saber cómo hablar con el DF sobre lo que están imaginando.

Una toma de dron capturada por Phillips para el corto Beachworld. (Imagen cortesía de Sarah Phillips)

 

“Colaborar con operadores de drones es lo mismo que comunicarse con cualquier otra especialidad en el set”, agrega. “Es solo que los drones son más nuevos que, digamos, Steadicam. Al igual que con esas especialidades, las palabras descriptivas son clave. ¿Quieres flotar hacia arriba, camión a la izquierda, observar a vista de pájaro, rastrear a un actor, liderar a un actor y desde qué ángulo, a qué ángulo? A veces, el director no sabe lo que quiere excepto ‘genial’ o ‘épico’. ¡Eso tampoco es realmente un problema, porque la mayoría de los operadores de drones saben cómo hacerlo genial y épico!

 

Star Trek 50 Parte I — Efectos de la serie original

 

AMERICAN CINEMATOGRAPHER
Star Trek 50 Parte I — Efectos de la serie original
13 de octubre del.2016 Personal CSA

 

Esta historia apareció originalmente en la edición de octubre de 1967 de American Cinematographer.

 

En el ocular, Linwood G. Dunn, ASC establece una toma mientras trabaja con los modelos Enterprise y Botnay Bay en Film Effects of Hollywood mientras filma el episodio «Space Seed» en 1966.

 

EFECTOS ESPECIALES FUERA DE ESTE MUNDO PARA STAR TREK

(NOTA DEL EDITOR: En una triple combinación única de habilidades y talentos altamente técnicos, tres de los  estudios de magia cinematográfica más importantes del mundo recibieron una nominación conjunta al Premio Emmy de 1966 en la categoría de Efectos Fotográficos Especiales en reconocimiento a las ilusiones espectaculares creadas para Desilu-NBC., serie de televisión del espacio exterior, Star Trek Estos estudios son Howard A. Anderson Company, Film Effects of Hollywood, Inc., y Westheimer Co., todos los cuales, encabezados por los mejores expertos en efectos especiales de ASC, trabajaron por separado pero con un espíritu de cordial colaboración para producir algunos de los efectos visuales más sorprendentes y literalmente «extravagantes» jamás grabados en una película en color ., los presidentes de las respectivas empresas involucradas amablemente accedieron a explicar la tecnología involucrada en la creación de varios de los efectos antes mencionados, y sus comentarios individuales se encuentran a continuación).

HOWARD ANDERSON, ASC

 Presidente, Howard A. Anderson Co.

 

Nuestras contribuciones a los efectos especiales fotográficos de Star Trek, que fueron los responsables de que recibiésemos una nominación al Emmy, se dividen en tres áreas principales:

• El diseño y la construcción de las miniaturas de la nave espacial USS Enterprise.
• La creación del efecto de viajar por el espacio a velocidades más allá de la comprensión.
• Los efectos de desmaterialización y rematerialización en la cámara de transporte de la Empresa.

Este trabajo, que requirió el talento creativo y la experiencia de 20 de nuestros técnicos, se realizó bajo la dirección de Darrell Anderson.

Nuestro trabajo en Star Trek comenzó un año completo antes de que se hiciera el primer piloto (había dos pilotos). [El productor ejecutivo y creador de la serie, Gene Roddenberry, nos describió el concepto de la serie y nos pidió, con la ayuda del director de arte de Star Trek Matt Jeffries, que diseñará un modelo de Enterprise.

El modelo Enterprise original. Imagen cortesía del Laboratorio de Conservación Smithsonian.

 

Una de nuestras asignaciones más difíciles para la serie fue crear la impresión de que la Enterprise corría por el espacio a una velocidad increíble: más rápida que la velocidad de la luz, que es de 6,000,000,000,000 millas por año.

Otros espectáculos espaciales han mostrado naves espaciales más o menos «a la deriva» por el espacio. Queríamos evitar ese cliché. La solución no llegó fácil ni rápidamente. Experimentamos con docenas de ideas antes de encontrar una solución efectiva.

Los elementos principales de nuestra solución son un cielo espacial y el uso de una impresora óptica Oxberry. Para hacer el cielo del espacio, pintamos estrellas negras sobre un fondo blanco de aproximadamente 2 ½ pies por 3 pies, logrando un diseño adecuado. Luego hicimos una serie de componentes de oscurecimiento que pudimos usar más tarde con el cielo en la impresora óptica.

La impresora Oxberry avanzada era única en ese momento. Es capaz de hacer una reducción de 5 a 1 a través de una ampliación de 4 a 1 con enfoque automático continuo. Se fotografió el cielo espacial y se sacó una imagen fija en la impresora óptica. Seguimos el cielo espacial hacia la izquierda, hacia la derecha, hacia arriba y hacia abajo, utilizando un mate de oscurecimiento diferente en cada pasada y superponiendo estos diversos movimientos a diferentes velocidades. Pudimos crear la ilusión de que el Enterprise corría por el espacio a una velocidad increíble. Comenzamos con un cielo espacial lleno de unas 500 estrellas y terminamos con unas 30 en cada pasada. En el proceso de enfoque automático, pasó de un alcance de 3 pies a unas 10 pulgadas. La nave espacial, tal como la imaginó el productor, era más grande que un acorazado, tenía ocho niveles o cubiertas separadas y transportaba una tripulación de más de 400.

El primer paso fue una serie de representaciones artísticas de Jeffries. Cuando Roddenberry presentó su diseño final, pasó al siguiente paso: traducir el renderizado a un modelo a escala de 4 pulgadas, construido en madera. Nuestro siguiente paso fue la construcción de un modelo de 3 pies, que nuevamente fue construido de madera maciza. Este modelo, por supuesto, tenía muchos más detalles que el primero. Una vez que Roddenberry lo dseño, estaban listos para continuar con el modelo grande y detallado. Este era un modelo elaborado de 14 pies, que estaba hecho principalmente de láminas de plástico y requería cientos de horas de trabajo. El diámetro de la cúpula, o cuerpo principal, del barco era de 10 pies. Las maquetas fueron talladas a mano con madera dura.

Después de realizar el primer piloto, se realizaron dos cambios importantes en el diseño del Enterprise para el segundo piloto. Primero, por sugerencia de Roddenberry, construimos una plataforma de aterrizaje en la parte trasera de la nave espacial. Y, en segundo lugar, una sugerencia nuestra, resultó un complejo sistema eléctrico para la iluminación interior. Esto, sentimos, transmitía la sensación de vida y actividad a bordo de la nave espacial. Y también ayudó a crear una ilusión más vívida del enorme tamaño de la nave.

El proceso fue extremadamente efectivo. Daba la sensación de pasar a través de las estrellas y los planetas y no simplemente pasar junto a ellos.

El tercer efecto principal que creamos para la serie fue la desmaterialización y rematerialización en la cámara de transporte. Esta es la habitación en la Enterprise desde la cual oa la cual la tripulación de la nave espacial y otras formas de vida son enviadas o traídas desde otras naves espaciales o planetas. Una respuesta simple hubiera sido el uso estándar de mates y disoluciones. Decidimos tratar de desarrollar algo nuevo y distintivo y tuvimos éxito.

Normalmente, el efecto se lograría en los siguientes pasos:

  • La persona (o personas) a ser “transportadas” se filma en el set del transportador.
  • La cámara se congela, la persona sale de la escena y la cámara filma el decorado vacío.
  • A partir de un negativo duplicado, se hace un mate de la figura en el punto de congelación.
  • Luego, la figura se disuelve, dejando el conjunto vacío.

Pero para el efecto transportador, agregamos otro elemento: un efecto de brillo en la desmaterialización y rematerialización. Para obtener el efecto brillo, utilizamos polvo de aluminio cayendo a través de un haz de luz de alta intensidad. Esto fue fotografiado en uno de nuestros escenarios en nuestra planta de Fairfax Ave.

Además de hacer un mate de la figura a transportar, también hacemos un mate de forma idéntica con las partículas de aluminio que caen.

Luego, usando los dos mates, disolvemos lentamente a la persona, dejando solo el efecto de brillo, luego disolvemos lentamente el efecto de flitter para dejar nada más que la cámara vacía. Las tres áreas discutidas de ninguna manera representan el alcance total de los esfuerzos de  Star Trek . Pero cada uno constituyó un desafío distinto y único para nuestra capacidad creativa. Y cada uno nos presentó una gran satisfacción en el cumplimiento de ese desafío.

Dunn se acerca a Enterprise. Imagen cortesía del Laboratorio de Conservación Smithsonian.

 

LINWOOD G. DUNN, ASC
Presidente, Film Effects of Hollywood, Inc.

 

Efectos fotográficos especiales creados por Film Effects of Hollywood para Desilu-NBC Star Trek. La serie incluye muchas técnicas creativas de impresión óptica que combinan una variedad de elementos únicos de películas originales. Este trabajo incluye la distorsión de los contrastes y los valores de color de escenas normales, planetas misteriosos e imágenes que atraviesan el espacio, cometas con colas multicolores, bolas de fuego, haces de «fase» y una gran variedad de efectos fuera de este mundo y transformaciones extrañas. Las formas y masas que se agitan y tejen en el espacio, como se ve a través de la pantalla de visualización del USS Enterprise, se crean fotografiando la acción de tintes especiales alimentados en un tanque de líquido transparente. Con una cierta medida de control sobre la acción de los tintes, evolucionaron variedades fascinantes ya menudo inesperadas de formas y colores extraños y sin forma. En algunos casos, se utilizaron dispositivos relativamente simples para efectos de choque, como una espada que atravesó una figura, la aparición y desaparición de objetos, manipulaciones generales de color y difusión, etc. Se creó un dispositivo intrigante de retroceso en el tiempo cuando nuestros viajeros espaciales pisaron a través de una pared de humo que emanaba del interior de un marco similar a una roca que brillaba en modulación con la voz de un «espíritu maestro». Dentro de este marco, el tiempo retrocedía ante los ojos a medida que pasaban escenas del pasado, deteniéndose momentáneamente en épocas significativas.

A Film Effects se le asignó la tarea de continuar con el excelente trabajo iniciado por The Anderson Company, en la fotografía de la nave espacial USS Enterprise.

 

Se utilizaron dos pies y de 12 pies, este último completamente equipado con luces interiores y exteriores, y motores gemelos que emitían efectos de luces intermitentes multicolores, girando en las narices de las góndolas de los motores. La mayor parte del movimiento aparente de la nave fue producido por el viaje de la cámara hacia adelante y hacia atrás. Todos los movimientos estaban motorizados: el recorrido de la plataforma rodante, el brazo de la cámara subiendo o bajando, la cabeza del trípode girando o inclinando y la lente haciendo zoom hacia adelante o hacia atrás. Además, la Enterprise, montada sobre un eje unido a una cabeza de trípode basculante y panorámico, podía ejecutar ciertos movimientos controlados de forma remota que, combinados con las acciones de la cámara, podría llevar a cabo prácticamente cualquier tipo de maniobra.

Se requerían ciertas tomas elaboradas, como combinar las acciones del Enterprise con las de otras naves, como cuando el Enterprise alcanza una nave más pequeña y la coloca en posición para «bloquear» por medio de una fuerza magnética. Se construyó un modelo a mayor escala de la cabina de vuelo del Enterprise, desde el cual despega y regresa su pequeña «lanzadera», las puertas traseras con forma de concha se deslizan para abrirse y cerrarse. El movimiento de la nave hacia adelante y hacia atrás, y hacia y desde la plataforma giratoria en la cubierta, fue maniobrado por cables que también controlaban la nave mientras se elevaba hacia el «espacio», suspendida de un aparejo especial montado en lo alto y por encima de la cubierta de vuelo.

En todos los casos en los que los fondos iban a ser campos de estrellas, se obtuvo el proceso de mate viajero de pantalla azul de la manera estándar.

Se encontraron algunos problemas al hacer coincidir el pedestal y la cabeza del trípode en los que estaba montado la Enterprise con la pantalla de fondo azul. Un paso muy importante en la composición de las escenas de primer plano con los campos de estrellas fue el matizado de todas las áreas excepto las de pantalla azul. Esto era particularmente difícil cuando la plataforma rodante de la cámara hacía movimientos rápidos, ya que se convirtió en un procedimiento manual cuadro por cuadro o pie por pie, ejecutado en la grúa rotoscopio .Allí, la escena se proyectó en la platina de animación y se pintaron mates, bloqueando las áreas no deseadas, para producir mates adicionales para usar con los mates fotográficos creados por la reacción del fondo azul a los filtros de separación especiales.

Los campos de estrellas de fondo se crearon perforando agujeros de varios tamaños, en la escala y ubicación adecuada, en grandes hojas de papel negro, respaldados por pantallas de difusión especiales y filtros de color para crear el efecto deseado. Al combinar escenas realizadas a diferentes distancias de cámara y velocidades de viaje, se creó una ilusión realista de profundidad. Esto fue particularmente importante en los campos de estrellas que se vinculaban con el viaje hacia adelante o hacia atrás de la nave y se veían en su pantalla de visualización delantera.

La tremenda imaginación es evidente en los guiones producidos por el productor Gene Roddenberry y su personal. Dado que el formato único de  Star Trek  favorece la creatividad libre, obviamente hubo momentos en los que se descubrió que ciertos efectos eran difíciles de producir dentro del presupuesto y las limitaciones de tiempo permitidas. Las modificaciones, incorporadas a medida que avanzaba el trabajo, a menudo resultaron en sustituciones muy aceptables. La flexibilidad de este tipo es principalmente una cuestión de comprensión y cooperación entre todas las partes involucradas, y es el tipo de relación que disfrutamos con el personal de producción de Star Trek.

JOSÉ WESTHEIMER, ASC

Presidente, Westheimer Company

 

Los efectos fotográficos especiales en el espectáculo de Star Trek se dividen en cinco categorías principales.

El Primero son las tomas del USS Enterprise volando en el espacio o orbitando un planeta. El planeta varía en color de un programa a otro, por lo que se modifica el color de los planetas existentes o se toman nuevos para cumplir con los requisitos del productor. Además de los cambios de color, pueden cambiarse a diferentes partes de la escena, voltear o incluso usar al revés.

El segundo tipo de efecto es la materialización de las personas cuando son transportadas a la nave desde un planeta o al planeta desde la nave. El USS Enterprise es una nave espacial, designación oficial «Star Ship Class» y es algo más grande que un crucero naval actual. Hay varias salas de transporte en todo el barco. En una Sala de Transporte hay una consola controlada por el oficial de transporte y un técnico. Ellos, en conjunto o solos, pueden transportar hasta seis personas a la vez y, por supuesto, devolverlas. A veces se pueden llevar a bordo objetos en el espacio que están cerca de la nave.

El transportador en sí mismo es suficiente un dispositivo que trae tripulación o carga hacia y desde las superficies de los planetas y/u otras naves espaciales. Convierte material temporalmente en energía, coloca esa energía en un lugar fijo y luego la vuelve a convertir en la estructura material original. El efecto de materialización o transportador se logra superponiendo un brillo sobre la forma de las personas u objetos que se transportan.

El tercero, el efecto phaser. Se puede dividir en dos clases: el «Phaser de mano», que es apenas mucho más grande que un paquete gigante de cigarrillos, y el «Phaser Pistol», que consiste en el fáser de mano encajado en una montura de pistola; cuyo mango es un paquete de energía. Esto aumenta el alcance y la potencia del arma. Tanto el fáser manual como la pistola fáser tienen una variedad de configuraciones y ajustes. El más utilizado es el efecto de aturdimiento que puede derribar a un hombre y dejarlo inconsciente sin dañarlo. El efecto completo, que hace que un objeto se desmaterialice y desaparezca, es otro. El fáser también se puede configurar para hacer explotar un objeto o hacer un agujero a través de un objeto similar a un soplete de corte. Visualmente, el modulador de fase es un haz pulsante que varía en color dependiendo de si se desea un “efecto de aturdimiento” o un “efecto completo”.

El cuarto tipo de efecto son las reducciones y superposiciones televisivas. A bordo del USS Enterprise hay muchas pantallas de visualización. La más importante es la pantalla de visualización del puente. Es un dispositivo elaborado que se puede apuntar hacia afuera en cualquier dirección y con varios aumentos. La mayoría de las veces apunta hacia adelante y vemos pasar estrellas, así como aproximarse a planetas y asteroides. Otras pantallas de televisión se utilizan en todo el barco como intercomunicadores. También hay una pantalla rectangular en la estación de computadora de la biblioteca en la que se puede mostrar información visual de las cintas de grabación de la nave. Cuando se requieren estos efectos, se crean mates para las pantallas y las escenas se reducen ópticamente en el área de la pantalla.

El quinto, y último lugar, son las escenas o secuencias en las que se crea un efecto óptico modificado desde cero. Estos efectos se pueden clasificar como “aventuras esotéricas”. El productor, por ejemplo, tendrá una secuencia en la que la nave se acerca a un sol brillante a gran velocidad. Se requiere una toma lenta con zoom del sol, creciendo desde el tamaño de una punta de alfiler hasta casi llenar la pantalla, momento en el cual la nave se desviará para evitar la colisión. Otra solicitud podría implicar una persecución entre el Enterprise y una nave alienígena que zigzaguea alejándose de su curso mientras nuestra nave sigue en su persecución como una pelea de la Primera Guerra Mundial. Una solicitud reciente, para citar el guión, fue para un “área similar a una columna de interferencia borrosa y brumosa de algún tipo. Es más bien como un suave torbellino, pero de fuerza más que de corriente de aire. Aparecen y desaparecen tenues luces y sombras pastel. Se mueve de un lado a otro suavemente y luego desaparece”.

A partir de esta descripción, nuestra empresa óptica debe crear en la película el efecto que el escritor ha concebido. Después de la reunión de producción y más conversaciones con el director, se establecieron las reglas básicas para que las escenas de producción se filmen de tal manera que puedan componerse ópticamente. Se realizan conferencias con el productor ejecutivo, el productor y el productor asociado. Se realizan pruebas de las «luces y sombras pastel» y la forma general. Finalmente, se compone una toma como prueba. Se ofrecen sugerencias para mejorar el efecto y se compone la toma.

De alguna manera con una persistencia poco común, los productores obtuvieron resultados ópticos comparables a la alta calidad de la misma producción. Es la conciencia técnica y la competencia de todos los miembros del personal editorial y de producción de Star Trek lo que permite que la comunicación con la casa óptica sea de un alto nivel profesional. El programa en sí es desafiante, inteligentemente producido y bien escrito. Estar asociado con una producción de este calibre es en sí mismo un honor.

 Esta historia conserva el texto y el estilo original tal como se publicó originalmente.

 

Cómo James Cameron y Jon Landau remasterizaron ‘Avatar’ para su relanzamiento

Por Carolyn Giardina
23 de setiembre del 2022
Avatar  cortesía de la colección Everett

 

«Volvemos loco al equipo de operaciones del estudio», dice Landau sobre los extremos a los que él y Cameron llegan para ofrecer la mejor presentación teatral posible. Cuando Avatar  se estrenó en diciembre de 2009, en camino a convertirse en la película más grande de todos los tiempos, superando los $ 2.8 mil millones en la taquilla mundial, para muchos cinéfilos, fue la primera vez que experimentaron el 3D digital. Ahora, el cineasta  James Cameron y el productor Joe Landau volverán a presentar al público su innovadora película con una impresionante versión recién remasterizada para los cines de hoy.

A partir del viernes, el público volverá a una Pandora llena de detalles y colores vívidos que no vieron la última vez que la película estuvo en los cines, cuando muchos cines estaban equipados con proyectores de cine digital de primera generación combinados con nuevos sistemas 3D. Y para los cinéfilos más jóvenes, tal vez esta sea la primera oportunidad de experimentar Pandora en 3D en una pantalla grande. Lightstorm Entertainment de Cameron y Landau remasterizó la película en 4K en un rango dinámico alto,

 “Para nosotros, 3D se trata de esa ventana al mundo, y no de un mundo que sale de una ventana. Queremos que el plano de la pantalla desaparezca y que el público sea transportado a nuestra historia narrativa”, le dice Landau a The Hollywood Reporter . “Al hacer todas estas cosas, el 4K, el alto rango dinámico, la velocidad de cuadros más alta y el sonido mejorado, transporta a la audiencia aún más al mundo de Pandora”.

La experiencia se ve impulsada por la remasterización, junto con cines que ofrecen sistemas de proyección capaces de hacer más de lo que era posible en 2009. Landau recuerda la primera vez que vio las primeras pruebas para la remasterización de una escena de Jake Sully (Sam Worthington) primero, montando el banshee, la criatura voladora montada por los Na’vi.

“Había colores y detalles en el alma en pena que no sabía que existían. Yo estaba diciendo, ‘Oh, Dios mío, mira eso. Mira esa cualidad iridiscente’”, dice Landau con una sonrisa. “Cuando Jake ingresa a la selva tropical en la bioluminiscencia nocturna, los colores, los detalles y la gama de colores y cuán ricos pueden ser los negros y cuán brillantes pueden ser los blancos, sin apagar las cosas, dices, ‘Guau’”.

También se empleó el uso selectivo de una alta velocidad de fotogramas de 48 fotogramas por segundo como herramienta creativa en la remasterización, un paso que incorporó el software de masterización TruCut Motion de Pixelworks. Landau señala que en esos momentos, 48 ​​cuadros por segundo hacían que la imagen pareciera más suave y consistente con lo que vería el ojo humano en la vida real.

“Cuarenta y ocho fotogramas para nosotros no es algo que necesariamente deba estar presente en todas las tomas”, dice Landau. “Cuarenta y ocho fotogramas no mejorarían necesariamente un primer plano. Queremos usarlo como una herramienta creativa… donde ayuda, pero donde no te saca de la sensación cinematográfica de una película. Es una herramienta creativa que usarías de la misma manera que usarías el enfoque”.

El sonido también ha avanzado desde 2009. Por ejemplo, Dolby Atmos no se presentó hasta 2012. El cuatro veces ganador del Oscar, Christopher Boyes, le dio al nuevo maestro de Avatar una mezcla mejorada. Boyes fue el editor de sonido supervisor, diseñador y mezclador de regrabación en Avatar original y vuelve a este papel para Avatar: The Way of Water .

“Cuando presentas una imagen en la pantalla que tiene más detalles, necesitas complementarla con un sonido que tenga más detalles”, dice Landau, señalando que la mezcla y gran parte de la posproducción de la nueva versión se completaron en Peter Jackson’s Park Road. Publicar en Wellington, Nueva Zelanda.

Para tener una idea de hasta dónde llegan Landau y Cameron para lograr la mejor calidad de presentación posible, considere esto. En 2009, se crearon mas de 100 versiones de entrega diferentes de Avatar, un número sin precedentes en ese momento, para su lanzamiento diario en 102 países. Eso incluyó varios grados en diferentes niveles de luz para adaptarse mejor a cada tipo de sistema de proyección. Para este relanzamiento de Disney, ese número será considerablemente mayor. Y a finales de este año,The Way of Water podría abarcar la mayor cantidad de resultados jamás creados para una sola película.

“Volvemos loco al equipo de operaciones del estudio”, admite Landau. “Nos sentamos allí y decimos: ‘Está bien, si estamos haciendo esto, presentemos la mejor imagen posible’. Si un teatro es capaz de presentar a 14 foot-lamberts (una medida de luz), le entregamos un maestro de 14 foot-lambert. Si son capaces de entregar tres y medio, esos consumidores deberían tener la mejor experiencia posible. Y hacemos un maestro para los tres pies y medio lambertos”.

La colección de masters también se adapta a varias relaciones de aspecto y requisitos específicos para auditorios configurados para Dolby Cinema o Imax. “Tomamos el ancho máximo y la altura máxima cuando podemos, los niveles de luz más brillantes”, dice Landau, y señala que la cantidad de versiones únicas también incluye las que se adaptan a los idiomas locales, los subtítulos y las personas con discapacidad auditiva. Landau dice: «Es astronómico».

El relanzamiento de Avatar no es el final de la búsqueda de Cameron y Landau para volver a visitar películas anteriores que rompieron récords. Lightstorm Entertainment del dúo también planea remasterizar Titanic en 4K, en un rango dinámico alto e incorporando una velocidad de cuadro de 48 cuadros por segundo.

 

La tecnología Brompton ofrece una potencia de procesamiento LED excepcional para el Tour de Matemáticas de Ed Sheeran

BRITISCH CINEMATOGRAPHER
31 de agosto de 2022

 

Prometiendo a los fans una producción como nunca antes habían visto, la superestrella británica Ed Sheeran inició su gira más grande hasta la fecha el 23 de abril en el Croke Park Stadium de Dublín. Desde entonces, el cantautor ha estado tocando en estadios en el Reino Unido e Irlanda, con más fechas planeadas en Europa Central, Escandinavia, Asia, Australia, América Latina y América del Norte como parte de su gigantesca gira mundial 2022/2023. Continuando con su relación a largo plazo con el artista, Colonel Tom Touring (CTT) se enorgullece una vez más de apoyar la producción, suministrando más de 1100 metros cuadrados de una variedad de paneles ROE Visual LED, todos con tecnología de procesamiento LED de Brompton Tecnología.

El espectacular diseño de escenario de 360 ​​grados incorpora una pantalla de video gigante circular ‘halo’, que comprende 462 m2 de paneles LED exteriores de alta transparencia ROE Vanish V8T, fijados sobre un escenario LED giratorio de 90 m2 construido con paneles ROE BM5. El escenario está rodeado por seis mástiles de 30 metros de altura, con 398 m2 de ROE CB5 que forman seis pantallas IMAG de doble cara con forma de púa que cuelgan de los mástiles, y más 220 m2 de medios paneles ROE CB5 que completan los aros LED alrededor del escenario. fuera de los mástiles. La configuración de LED gigante está alimentada por cinco procesadores LED 4K Tessera SX40 activos y uno de respaldo, así como 20 unidades de distribución de datos Tessera XD 10G.

El director de video de la gira, Phil Mead, ha estado trabajando con Ed Sheeran durante 11 años y aún recuerda la primera vez que CTT usó la tecnología ROE Visual con el procesamiento LED de Brompton.

“La primera vez que implementamos los procesadores LED Tessera de Brompton y los paneles ROE fue en la última gira de Ed, la Divide Tour’ 2017-2019, que salió en marzo de 2017”, dice Mead. “Desde entonces, eso es todo lo que hemos estado usando: pantallas ROE en asociación con el procesamiento LED de Brompton”.

Después de investigar los procesadores LED disponibles en ese momento, Mead y el equipo decidir invertir en los procesadores LED Tessera de Brompton gracias a su funcionalidad y al servicio de atención horas al cliente las 24 del día, los 7 días de la semana, reconocido en la industria, y al fuerte enfoque en I+D y planificación de productos.

“Hablamos con Brompton en una feria comercial, y fue la hoja de ruta y el claro interés en la innovación tecnológica lo que realmente nos gustó”, explica Mead. “Como los SX40 no se habían lanzado en ese entonces, invertimos en M2. Luego, a la mitad de la gira Divide, salió el Tessera SX40 seguido de las unidades de distribución de datos XD, así que actualizamos toda la gira y cambiamos a las SX40. Adam [Callaway, Technical Solutions Manager] de Brompton se acercó para ayudarnos a comprender las funciones clave de SX40 y supervisar la integración”.

Mead señala que el sello final de aprobación se le dio a Brompton debido a la herencia y las raíces de la empresa. “Nos gustó la idea de usar productos hechos en Gran Bretaña, especialmente de una compañía con valores tan grandes, profundo conocimiento y experiencia en la industria”, dice. «¡Eso acaba de cerrar el trato para nosotros!».

El enfoque de fibra óptica es clave para todo en esta gira, según Mead: “Un gran amigo mío, Adam Wells, diseñó el sistema de fibra para esta gira. Creó un sistema de fibra personalizado para que todos los procesadores Tessera puedan sentarse en el camión de video, en un rack junto con los servidores y el enrutamiento, lo que mantiene nuestras rutas de señales cortas y ahorra espacio al transportar el programa. Luego deja el camión sobre cuatro fibras de núcleo MPT24 y se dirige al área principal de actuación hacia los grandes mástiles que sostienen el espectáculo. A partir de ahí, crea un bucle de red alrededor de los mástiles que alimentan las unidades XD y otros servicios de red de video para las cámaras. La red troncal de 10 Gb y el flujo de trabajo 4K nos permitieron lograr la máxima eficiencia. El sistema de fibra y el Tessera SX40 junto con los XD son clave para poder hacer lo que estamos haciendo con el Tour de Matemáticas.

Otra función que Mead encuentra útil es la API de control de IP de Brompton, que permitió a Mead crear una pieza de software web que interroga a los procesadores cada 10 segundos. “Tenemos un tablero de información general en el camión de video que muestra una descripción general del sistema, y ​​​​si uno de los enlaces de redundancia de cable comienza a fallar, recibimos una advertencia visual de la ubicación y la falla del cable”, dado. “Es una característica que hemos encontrado que realmente beneficia a todo el equipo”.

Además, CTT está utilizando el protocolo Art-Net, con cada uno de los elementos de la pantalla agrupados y controlados por el operador de video en FOH que tiene cada lienzo de pantalla como accesorio disponible a través del procesamiento LED de Brompton. “En lugar de disfrazarse, el operador puede controlar la intensidad y otros elementos desde su consola grandMA3”, señala Mead. “Nuevamente, el hecho de que pueda tomar sus conexiones de Art-Net y calificar de esa manera es una razón muy convincente para usar Tessera”.

Los comentarios sobre el Tour de Matemáticas han sido espectaculares, con el director creativo del tour, Mark Cunniffe de Twotrucks Productions, diciendo que la respuesta ha sido increíble y que el equipo ya está ansioso por llegar a Sudamérica y Australia. “Se está convirtiendo rápidamente en un espectáculo imperdible a nivel mundial”, dice Cunniffe. “Creo que gran parte de ese éxito se debe a Ed y su manager, Stuart Camp, por tener las agallas para realmente ir a por un espectáculo tan audaz en primer lugar”. [tomado del artículo de la revista TPi].

“He sido muy afortunado de trabajar con Ed Sheeran durante más de 10 años, pasando de arenas con entradas agotadas a estadios con entradas agotadas y aumentando la complejidad de la configuración del video con cada espectáculo. Pero el Tour de Matemáticas está definitivamente a la altura cuando se trata de traer nuevos desafíos en la producción de videos”, concluye Mead. “La creación de una experiencia visual de 360 ​​grados no hubiera sido posible sin los paneles ROE Visual de alta calidad y el procesamiento LED Brompton ‘estándar de oro’ de la industria. Esta tecnología de vanguardia, junto con la experiencia y el conocimiento técnico de nuestro equipo, ofrecieron un lienzo ilimitado a los diseñadores de contenido de la gira, quienes pueden crear efectos visuales inimaginablemente impresionantes para complementar este extraordinario espectáculo”.

Vū Studio y Motion Impossible lanzan “Agito Magtrax” en EE. UU.

American Cinematographer
Personal del CSA , mayo del 2022

 

Magtrax, un sistema guiado por banda magnética para aplicaciones con seguimiento discreto, y otras soluciones de Agito están disponibles en América del Norte a través de AbelCine.

La red de estudios de producción virtual VU se asoció con Motion Impossible, un fabricante inglés de sistemas modulares de plataformas rodantes remotas y estabilizadores de cámara, en el lanzamiento en EE. UU. de  Agito Magtrax, un sistema guiado por banda magnética para aplicaciones de seguimiento discretas.

Magtrax y otras soluciones de Agito están disponibles a través de Abel Cine, el socio norteamericano exclusivo de Motion Impossible para ventas, capacitación y soporte técnico.

Como parte del lanzamiento, Vū y Motion Impossible están co-creando herramientas de producción de películas que combinan elementos físicos y virtuales utilizando la tecnología de movimiento de cámara de Motion Impossible y las capacidades de VP de Vū.

Magtrax mejora los extremos de transmisión existentes al permitir que los clientes sigan una banda magnética colocada sobre una superficie, debajo de una alfombra o incrustada en un aparato. La franja se puede organizar de maneras que van más allá de lo que se puede hacer con una pista normal, incluidas las curvas y la capacidad de moverse sin problemas de una franja a otra. El Agito seguirá cada camino de forma autónoma mientras libera el control del movimiento de la cámara.

Magtrax permite la misma maniobrabilidad que el roaming libre, con movimiento repetible garantizado y control de velocidad automático en vías rectas o curvas. La velocidad se ajusta automáticamente según el arco de la banda magnética, y los marcadores magnéticos ofrecen detección de colisión y parada de emergencia automática. Además, Magtrax ofrece un sistema de iluminación delantera y trasera configurable que es fácil de configurar y modificar para una sola persona.

 

Color nítido: comunicar la cromaticidad en la producción de imágenes en movimiento

Las ricas y sugerentes mezclas de color que encontramos en la naturaleza, y que a menudo buscamos en el diseño de nuestra imagen, son más matizadas y variadas de lo que se puede representar con un simple eje naranja/azul, un fundido cruzado bicolor o unidimensional escala de temperatura de color.

 

American Cinematographer
Por Jaron Presentt, ASC – Marzo del 2022

 

Actualmente, la iluminación de cine está experimentando interesantes innovaciones en una ola de tecnologías mejoradas para el ajuste del color de la luz bajo demanda. Pero a medida que las herramientas se vuelven más complejas, intrincadas y variadas, necesitamos nuevas soluciones para lidiar con las variables en expansión, variables que tienen el potencial de brindarnos un control creativo rico, pero que con demasiada frecuencia nos dejan en un despilfarro técnico.

Imagina que estás filmando una escena en California, con una puesta de sol de septiembre que brilla en un paisaje marino costero de Santa Bárbara. Después de filmar los amplios planos de barrido en el lugar en el momento perfecto, debe suspender esa puesta de sol indefinidamente para una porción larga de diálogo de la escena que se filmará en un estudio de sonido. Para evocar la hora y el lugar en el escenario, busca el mismo color único del atardecer que ya capturó en el lugar. Para crear este tipo de matiz, no es suficiente simplemente poner un gel naranja estándar sobre una lámpara incandescente o configurar el menú de una unidad LED en una opción genérica de «puesta de sol».

En los días previos a los LED, recrear un color único con tanta precisión habría sido prácticamente impensable. Pero hoy, podemos buscar la respuesta en la amplia gama de modos, diales, botones, opciones y controles deslizantes que se ofrecen en muchas luminarias LED contemporáneas; sin embargo, el objetivo no es jugar con una pila inminente de perillas opacas y no estandarizadas. Nuestro objetivo es iluminar la escena con nuestro amado color del atardecer y no empantanarnos en minucias técnicas. Queremos pasar nuestro precioso tiempo en el set creando bellas imágenes, no navegando tediosamente por menús de usuario y configuraciones específicas del fabricante que no tienen una correlación coherente con nuestra intención artística.

La solución no radica en apilar aún más vendajes agregando diales y perillas adicionales, sino en aclarar el problema y solucionarlo de raíz. Y en el centro de este problema, de hecho, hay un problema que debe resolverse antes que cualquier otro: la falta de una norma industrial viable para identificar el color sin ambigüedades. Necesitamos una forma de cuantificar de manera única el color singular del atardecer que fotografiamos en el lugar y luego medir si nuestro equipo de iluminación en el escenario realmente está creando el mismo color.

“¿Podríamos estar al borde de un cambio de paradigma en la iluminación del cine?”

Puede parecer que nuestras prácticas comunes tienen esto cubierto, pero no es así. La temperatura de color se emplea habitualmente, pero este método es problemático, ya que solo describe un pequeño subconjunto de colores perceptibles. Además, a diferencia de su implementación en la ciencia dura, donde la temperatura del color se define rígidamente, los ajustes de temperatura del color que suenan numéricos en nuestra industria se han convertido en nombres descriptivos que no tienen definiciones fijas. Por ejemplo, “3200K” puede significar el color de una lámpara incandescente de cine tradicional o la definición científica de un punto en el lugar geométrico de Planck en 3200K, pero estos son colores diferentes. Además de eso, «temperatura de color» y «temperatura de color correlacionada» (CCT) a menudo se usan indistintamente, pero no son lo mismo. Con tantas capas de ambigüedad, el sistema se derrumba, dejándonos con una forma poco fiable de identificar los colores. Y si eso no fuera suficiente, debido a que la temperatura de color usa una escala deslizante (logarítmica), los cambios numéricos iguales a diferentes temperaturas Kelvin no son perceptualmente uniformes, lo que hace que todo el sistema sea difícil de conceptualizar, implementar o usar con un sentido de significado seguro.

Otro sistema de color de uso común es RGB, pero ese método es aún menos confiable. No solo hay innumerables espacios de color RGB (sin mencionar el propio RGB nativo de cada LED individual), sino que todos los espacios de color RGB entrelazan el brillo con el color, por lo que es imposible identificar un color de luz sin un brillo asociado. Además, la mayoría de los dispositivos de iluminación LED tienen iluminantes R, G y B (rojo, verde y azul) en su interior, pero no hay dos modelos que tengan los mismos colores de emisores rojo, verde o azul. Agregue a esto que la mayoría tiene uno o varios iluminantes además del rojo, verde y azul, y nos quedamos con una conversión desordenada y ambigua a RGB.

«La cromaticidad coordina con éxito, precisión y nombres únicos los colores de una manera que ninguno de los otros métodos puede».

Suena a caos, ¿verdad? Bueno, aquí están las buenas noticias: aunque no existe un sistema viable y ampliamente adoptado en el uso diario dentro de la industria cinematográfica, dicho sistema ya existe en el ámbito de las ciencias duras. Y se implementa en la industria del cine, aunque no es una metodología de uso común. Por lo tanto, la solución, al menos para el problema en la base de la pila, no necesita desarrollarse desde cero, sino simplemente adoptarse como práctica común. La solución es esta: coordenadas de cromaticidad. Y, de hecho, la cromaticidad coordina con éxito, de manera precisa y única los colores de una manera que ninguno de los otros métodos puede hacerlo.

El estudio del color en la academia y las ciencias duras tiene métodos establecidos desde hace mucho tiempo para evaluar un flujo de luz en el mundo físico y correlacionarlo con la forma en que un observador, ya sea una persona, un sensor de imagen o una emulsión de película, percibirá ese aluvión de fotones. como color Los resultados de esta correlación se pueden representar utilizando un sistema de coordenadas bidimensional, es decir, representando cada color percibido distinto como una ubicación (una coordenada) en un gráfico plano.

Hay varias métricas (interconvertibles) para este método de identificar y distinguir todos los colores percibidos usando coordenadas de cromaticidad. El más apto para nuestros propósitos es un espacio de color llamado «CIE 1931 xyY» o «x,y» para abreviar. Tal vez haya visto este gráfico, pero no lo haya escuchado descrito de esta manera. Esta es la clave: necesitamos cambiar el paradigma de nuestra industria para identificar los colores de la luz, de métodos que simplemente se hacen pasar por rigurosos a un método que en realidad sea numérico, inequívoco y completo. Ese método son las coordenadas de cromaticidad.

Una vez que hemos sentado esta base, surgen amplias posibilidades creativas, mientras que los atolladeros técnicos desaparecen. Y podemos construir sobre estos fundamentos para ir más allá de simplemente combinar y recrear colores. Ahora es posible encontrar varias mezclas y equivalentes que permiten mucha más funcionalidad. Podemos controlar de manera significativa los dispositivos que no tienen modos x, y incorporados, o encontrar nuevas combinaciones de colores creativas sin una referencia física. Más allá de igualar nuestra puesta de sol de Santa Bárbara, podemos recrearla a la mitad de su saturación, o averiguar en qué color configurar nuestra luz si queremos ese mismo color con un balance de blancos diferente. Incluso podemos determinar si un resultado inesperado se debe a un problema de sensibilidad espectral. Las posibilidades siguen y siguen.

¿Podríamos estar al borde de un cambio de paradigma en la iluminación del cine? 

Lo que propongo es un primer paso modesto, pero una vez que la pelota se pone en marcha, los cineastas y los fabricantes pueden comenzar a inspirarse mutuamente con ideas, creando ciclos de retroalimentación positiva que producirán oportunidades emocionantes. Imagina lo que podría deparar el futuro. A medida que x,y se vuelve más común, obtendríamos un punto de referencia común: un lenguaje compartido para comunicar con precisión los colores exactos. Y con un lenguaje preciso viene un control preciso que conduce al objetivo final: una mayor autoría de nuestras imágenes.

Este breve vistazo es solo el comienzo de las posibilidades. Si nosotros, como comunidad, estamos dispuestos a ampliar nuestros conjuntos de herramientas, los beneficios pueden ser extraordinarios.

 

Un juego totalmente nuevo

Fujinon está probando su lente de caja 8K SK35-700 con montura PL con una variedad de cámaras, incluidas Sony Venice y Arri Amira, para lograr un aspecto cinematográfico sin sacrificar la necesidad de capacidad de zoom.

 

AMERICAN CINEMATOGRAPHER
Setiembre del 2021
Por Carl Mrozek

 

Los organismos de radiodifusión adoptan las herramientas y el lenguaje visual del cine, uniendo películas y los principales deportes de forma dinámica.

Fox Sports hizo historia el 12 de agosto de 2021 al transmitir el primer juego moderno de Grandes Ligas de Iowa, específicamente, desde cierto campo de maíz famoso con un diamante incorporado. Este también fue el primer juego de temporada regular que se filmó con las nuevas plataformas de cámara estilo cine montadas en cardán de la división de programación para una transmisión en vivo. Un objetivo clave del juego era conmemorar la película clásica de 1989 Field of Dreams, y hacer de este campo de maíz un paraíso de hardball nuevamente, al menos por una noche.

Si lo construye

Tras su lanzamiento, Field of Dreams, dirigida por Phil Alden Robinson y filmada por John Lindley ASC, volvió a involucrar a millones de fanáticos estadounidenses con su pasatiempo nacional. La transmisión de Fox Sports «Field of Dreams» tenía como objetivo reforzar esa misma conexión con el béisbol durante la era UHD actual, que ahora puede estar en la cúspide de incorporar el «aspecto cinematográfico» en otros deportes televisados ​​de las grandes ligas también, incluido el fútbol, baloncesto, golf y hockey. La transmisión de “Field of Dreams” fue la culminación de dos años de planificación y preparación, retrasados ​​más de un año debido a la aparicion de la pandemia de Covid-19.

Fox Sports ha estado a la vanguardia del matrimonio en ciernes entre la transmisión deportiva y la realización de películas desde al menos fines de 2020. “Hemos estado hablando bastante sobre el uso de herramientas de cine para inyectar elementos cinematográficos en nuestra transmisión que conmemora una de las mejores películas de béisbol de la historia” dice Mike Davies, vicepresidente senior de operaciones técnicas y de campo en Fox Sports.

El equipo de Fox Sports se prepara para rodar el juego «Field of Dreams» en Iowa.

 

Para lograr este objetivo, además de desplegar su complemento normal de cámaras 4K de 3 chips Sony HDC-4300L ⅔» y otros modelos de transmisión, Fox alistó estratégicamente varias unidades especializadas, incluidos varios drones, con al menos dos en el aire en todo momento . Uno de los drones estaba equipado con un Komodo rojo, que capturaba imágenes de los campos de maíz y la comunidad local de Iowa, en particular, tomas del mítico diamante de las grandes ligas ubicado en el corazón de este paisaje bucólico.

Para lograr aún más el «aspecto cinematográfico», con su profundidad de campo claramente reducida, Fox empleó un par de paquetes de cámaras de cine diseñado para la cobertura de juegos en vivo por Jarrod Ligrani, director técnico de FOX NFL. Apodado el «Megalodon», el equipo consta de una cámara Sony a7R IV, de la línea Alpha de la compañía, montada en un cardán DJI Ronn-S, con un monitor de campo de 6″, además de una mochila para baterías externas y un transmisor inalámbrico de 1080p.

El director técnico de Fox Sports, Jarrod Ligrani, con su unidad móvil “Megalodon”.

 

El a7R IV cuenta con un sensor CMOS de fotograma completo de 61.0 MP, con un ISO de 100 a 32,000. Lo más importante para el uso deportivo es la matriz de enfoque automático de 567 puntos del sensor y la capacidad de grabar 1080p a hasta 240 fps.

Para el béisbol y el fútbol, ​​Fox Sports combina principalmente el a7R IV con una lente Sony FE 24-70 mm f / 2.8 GM, lo que ofrece flexibilidad al hacer posible llenar el encuadre con un jugador desde 20 ‘de distancia y desde 6’. 

 

«En los deportes, la acción puede escalar repentinamente, lo que dificulta la coordinación con un foquista», dice Davies. “Con un DOF de menos de 2 pies, no hay mucho margen de error, pero el enfoque automático de la Alpha ha demostrado ser confiable y se ha convertido en nuestra cámara cinematográfica preferida. Tuvimos a dos de ellos en acción en el juego ‘Field of Dreams'».

Ligrani demuestra su unidad móvil “Megalodon” para el corredor de los Dallas Cowboys, Ezekiel Elliott.

 

Durante el evento único, Fox Sports también utilizó una cámara compacta Sony HDC-P50 de 3 chips de ⅔»emparejada con el Movil de Freestyle .cardán como una cámara de mano. Las tres cámaras móviles estaban en acción durante los programas previos y posteriores al juego, y durante la mayor parte del juego. «Usamos Megalodons para los [tomas] de ambos equipos [caminando] desde el campo de maíz al campo de béisbol, y para las presentaciones de los jugadores», describe Davies.

“Durante el juego, los usamos dentro de los dugouts, para [tomas de jugadores que salían del campo] después de las carreras, y para correr desde la tercera hasta el home, incluido el trote de carreras cuando finaliza el juego y la celebración justo después del juego». Agrega que esta fue la primera vez que Fox Sports desplegó a los Megalodons en un juego de béisbol de temporada regular, después de los previamente en el juego All-Star de 2021, así como durante los juegos de final de temporada de la NFL, el torneo de baloncesto Big East Conference. Carreras de Nascar, los partidos de Premier Boxing Champions, e incluso el Westminster Kennel Club Dog Show.

Entendiendo

Otros locutores deportivos también han adoptado el Megalodon, en particular la Marquesina Roja de los Cachorros de Chicago. Mike Fox, el director de la cadena, dice: “Nos encantó el Megalodon tan pronto como Jarrod lo demostró. Me ofrecí a alquilarlo por la temporada. Con el DOF poco profundo de Megalodon, la imagen central es clara como el cristal y realmente te llama la atención. La televisión es principalmente un mundo en 2D, y me emociono mucho cada vez que podemos hacer que parezca más tridimensional».

Un operador de Marquee Network captura imágenes fuera de Wrigley Field.

 

Al igual que en el juego «Field of Dreams», donde los Megalodons jugaron un papel clave en hacer del campo de béisbol en un campo de maíz la estrella del espectáculo, Fox usa la configuración para hacer del Wrigley Field de los Cachorros un personaje principal en cada juego de pelota. «Usaré tomas amplias del estadio de béisbol, que a menudo incluyen la espesa hiedra en las paredes de los jardines y los enormes pilares detrás del plato», dice. “Me encanta incorporar el enorme marcador manual, rematado con un gran reloj antiguo, con ventiladores en primer plano. A veces están jugando a atrapar, o tomando selfies, o haciendo fila para entrar al parque, pero con el clásico marcador de Wrigley detrás de ellos».

Fox también despliega el Megalodon específicamente para entretejer a los fanáticos en la transmisión del juego. “Nos encanta registrar a los fanáticos que cantan el himno nacional, durante el tramo de la séptima entrada, comemos y bebimos en el patio de comidas y en las gradas, o hablamos con los jugadores alrededor del dugout, atrapando bolas de foul y todo tipo de B-roll», él dice. «La fuerte señal de RF nos permite flmar en cualquier lugar dentro y alrededor del estadio. Sobre todo, me encanta lo fácil que [el Megalodon] hace destacar a los jugadores aislándolos de todo lo demás, convirtiéndolos en estrellas por al menos un momento».

Ligrani estuvo a la vanguardia en reconocer el potencial del a7R IV sin espejo para transmisiones deportivas en vivo. «Habíamos estado usando Alphas en una capacidad limitada para la cobertura de juegos de la NFL, pero no en vivo», dice. “Los tiradores tenían que seguir corriendo hacia el camión para descargar tomas seleccionados durante todo el juego. Eso cambió cuando encontramos una empresa belga que fabricaba un transmisor de RF compacto y eficiente que cabía fácilmente en una mochila pequeña».

Ligrani también resolvió otros desafíos, incluido un problema de alimentación y un problema de sobrecalentamiento, al crear una fuente de alimentación externa utilizando baterías Anton / Bauer Gold Mount o V-Mount intercambiables en caliente. «El sobrecalentamiento puede ser un problema con Alpha, especialmente a velocidades de cuadro más altas», dice. «Sacar las pilas de la cámara ayudó». Agrega que «un Sunbrella también ayuda cuando se  registra al sol durante horas».

Expandiendo el campo

Las cámaras de cine más grandes también se han abierto camino en el campo de juego. CBS probó varios a multas de 2020 durante la temporada de la NFL. «Nos apoyamos en [CineAlta] Venice [de Sony] [en una Steadicam] durante los juegos finales de la temporada 2020 de la NFL, y continuamos durante los playoffs», dice Josh Cohen, consultor editorial de CBS Sports, quien le da crédito a Mike Arnold, director principal de juegos de la NFL en CBS Sports, por el esfuerzo. Los comentarios de los fanáticos fueron intensos en las redes sociales, durante y después de los juegos. “Los fanáticos notaron la diferencia de inmediato, inundándonos con comentarios como, ‘Parecía una película’”, dice Arnold. «Eso nos impulsó a seguir experimentando con estas cámaras DOF ​​poco profundas».

En los juegos de la NFL, las cámaras de cine ya han llenado nichos clave, como destacar las celebraciones de touchdown, que se han vuelto cada vez más llamativas y creativas, así como las tomas de jugadores que entran y salen del campo en el medio tiempo y después del juego. Inevitablemente, el DOF poco profundo creó desafíos en un entorno acelerado. Arnold explica: «A veces, el DOF superficial era problemático en el modo de enfoque automático al centrarse en la multitud en el fondo en el lugar del jugador en el primer plano, si no en el cuadro completo, o al enfocarse en el jugador equivocado en un scrum».

Arnold señala que CBS en realidad no probó el paquete Alpha más pequeño hasta el juego más importante de la temporada. “Para el Super Bowl, decidimos agregar un segundo paquete de cámara de cine, una Alpha IV [Sony] en una plataforma de cardán Movi, para nuestro paquete complementario Venice / Steadicam”, dice. “Rápidamente quedamos impresionados con lo bien que se desempeñó el enfoque automático del Alpha y con su excelente calidad de imagen. Tuvimos que pasarlo por un corrector de color, pero ayudó [que fuera] una cámara Sony para empezar, en términos de igualar el color con la Venecia y con nuestras cámaras de transmisión Sony”.

CBS también implementó el paquete Alpha para torneos de golf profesionales y las principales carreras de autos. “Reemplazamos una cámara ENG con el paquete Alpha en un Movi para el PGA [Tour] y durante las carreras SRX [extreme auto]. También nos complació el rendimiento de la EOS-C300 de Canon en las carreras. Cada una de las cámaras de cine digital que hemos probado ha tenido sus puntos fuertes que la opción en una mejor opción para algunas aplicaciones deportivas que otro modelo, y viceversa”, dice Jason Cohen, vicepresidente de operaciones técnicas remotas de CBS Sports.

Después de probar en la carretera diferentes modelos de cámaras de cine en varios deportes, dice Cohen, CBS aún planea mantener abiertas sus opciones, entrando en la temporada 2021-22 de la NFL. «Lo que sabemos con certeza es que vamos a mantener la relevancia del DOF superficial en nuestro mejor juego de la NFL cada semana», dice. “Sin embargo, todavía estamos en el proceso de determinar cuál será el sistema y qué modelos usaremos de una semana a otra. Sigue siendo una conversación fluida».

Jeff Silverman, fundador y presidente de la compañía de cámaras especializadas Inertia Unlimited, ha estado con locutores deportivos, incluida CBS, sobre una variedad de desafíos de cámaras durante casi una década. Últimamente, muchos de ellos están relacionados con cámaras estilo cine. “Para el Super Bowl, un desafío clave fue cómo integrar el aspecto de algunas cámaras estilo cine con otras 122 cámaras [que cubren el evento], especialmente con el caballo de batalla Sony(HDC) 4300s, que dominan las transmisiones deportivas en los EE. UU.”. Silverman agrega que siente que la colorimetría nativa de las cámaras Venice y Alpha de Sony pudo igualar el «aspecto Sony» de las HDC-4300s con relativa facilidad, y las prefirió para esta aplicación.

“Para grandes producciones como el Super Bowl, no tienes tiempo para una meticulosa combinación de colores [con] diferentes marcas [de] cámaras que no operan orgánicamente en el mismo espacio de color. Además, los Alpha tienen el mejor sistema de enfoque automático disponible, que es fundamental en deportes de acción como el fútbol. Los deportes más lentos, como el golf, tienen menos necesidad de depender del enfoque automático cuando se trata de empujar. El golf es muy predecible: los jugadores suelen caminar a un ritmo mesurado y en líneas más o menos rectas. Eso simplifica el enfoque manual con o sin CA».

Los camiones de transmisión están respondiendo a la demanda de cámaras estilo cine por parte de los presentadores deportivos. Comunicaciones CP, con sede en Nueva York y Florida, colaboró ​​con Ligrani en el Megalodon a partir de 2018. «Nuestro objetivo es proporcionar a nuestros clientes el último equipo que puede desear», explica el director ejecutivo Kurt Heitmann. “Si no lo tenemos, lo compramos o lo construimos. Creamos varios paquetes de cámaras Megalodon para Fox Sports, según sus especificaciones. Intercambiamos cámaras o sistemas de soporte de manera rutinaria a medida que cambian las necesidades de los clientes para eventos particulares. Todavía es temprano para las cámaras de estilo cinematográfico en los deportes, pero nuestro trabajo es mantenernos a la vanguardia de la demanda con amplias opciones».

Los expertos de CP Communications se preparan para una transmisión.

 

Progreso hacia adelante

Según Heitmann, mientras que la resolución y la capacidad de la cámara están evolucionando rápidamente, el ancho de banda es actualmente una limitación tecnológica. “Muchas de nuestras cámaras de transmisión tienen una clasificación de 8K, 6K y 4K, pero nuestra canalización actual [4K] nos restringe una salida [dual] 1080p 60, lo que nos permite transmitir HDR a 1080p”, dice. “Pero 5G está a la vuelta de la esquina y nos permitirá trabajar en 4K. Nuestro desafío es prepararnos para 5G, mientras satisfacemos las demandas que evolucionan rápidamente en la actualidad».

Dejando a un lado los problemas de ancho de banda, ¿las cámaras cinematográficas captarán una porción cada vez mayor de la cobertura general de cámaras de las principales transmisiones deportivas en los próximos años? Quizás en los márgenes, pero es poco probable que cambien el equilibrio de poder en el corto plazo en el mundo de las transmisiones de deportes de grandes ligas. «De hecho, hemos tenido discusiones sobre hacer un juego completo principalmente con cámaras de estilo cinematográfico, solo para ver cómo se vería un juego», dice Davies. “Pero hay compensaciones.

Aunque tenemos cierto control de la salida de las cámaras de cine, no es tan fácil ni tan fácil como lo es con nuestras cámaras de retransmisión de Sony y Grass Valley, y los superteleobjetivos que necesitamos para cubrir todos los campos de fútbol y béisbol. desde una posición fija. Son nuestra carne y patatas. Las cámaras de cine están al margen, pero nos ayudan a expandir la historia al capturar más drama y espíritu en todos estos juegos con imágenes que te emocionan y que, con suerte, recordarás mucho después de que termine el juego».

 

Rotolight App

Cinematographer World
Mayo del 2022

 

Rotolight presenta el primer SmartSoft Box electrónico del mundo y una aplicación nativa

El fabricante británico de iluminación LED, Rotolight, ha presentado la primera ‘SmartSoft Box’ electrónica del mundo, para sus luces galardonadas AEOS 2, junto con una nueva aplicación nativa para iOS y Android.

 Rotolight SmartSoft Caja

Desde que se anunció durante la campaña de Kickstarter de Rotolight que batió récords para los ganadores NEO 3 y AEOS 2, Rotolight SmartSoft Box ha demostrado ser uno de los productos más esperados del año. Ahora, la espera finalmente ha terminado para la primera softbox electronica inteligente del mundo.

Al ofrecer una verdadera revolución en el control de la iluminación, Rotolight SmartSoft Box se ha desarrollado para ahorrar tiempo y dinero a los fotógrafos y cineastas, lo que permite a los usuarios ajustar electrónicamente la difusión, el enfoque y la dispersión sin necesidad de geles o modificadores adicionales. Al igual que un LEE 216 en un dial ajustable, SmartSoft proporciona 1,5 pasos de difusión variable electrónicamente gracias a la tecnología patentada de Rotolight, lo que brinda la flexibilidad de una suave y una fuente de luz de salida más dura, todo en uno.

SmartSoft debutó por primera vez en la galardonada gama Titan Cinematic de Rotolight, integrada de forma nativa en sus accesorios Titan X2 y X1, que se han utilizado en innumerables películas y programas de televisión de Netflix, Amazon Studios y SKY, incluidos The Color Room y Greys Anatomy, incluidos en la lista larga de BAFTA. . Por primera vez, esta tecnología ahora se ha adaptado a una caja de luz electrónica extraíble para sus dispositivos AEOS 2 lanzados recientemente, que pesan solo 1,4 kg (3 libras), lo que los convierte en las luces de estilo 1×1 más delgadas y livianas del mercado.

“El nuevo SmartSoft Box ha revolucionado la forma en que puedo controlar la luz. Simplemente me permite crear imágenes con un solo modificador que nunca antes había sido posible. Es un cambio de juego en la forma en que controlo la luz tanto para mi fotografía comercial y me ha ahorrado mucho tiempo. La facilidad de uso es fenomenal” Sam Nash, galardonado fotógrafo comercial y de moda.

La caja SmartSoft se monta en solo unos segundos en el AEOS 2 y se puede ajustar mediante la pantalla táctil intuitiva o mediante la aplicación Rotolight.

“Rotolight se complace en anunciar la primera caja electrónica SmartSoft del mundo; una revolución en el control de iluminación que ahorra tiempo y dinero a fotógrafos y cineastas. Rotolight ha demostrado que está, una vez más, a la vanguardia de las primeras tecnologías de la industria protegidas por patentes en la industria de la iluminación, brindando a nuestros clientes herramientas únicas de última generación que mejoran las posibilidades creativas en el set” Rod Aaron Gammons, director general, Rotolight.

Aplicación nativa de Rotolight para iOS y Android

Con la nueva aplicación nativa Rotolight para iOS y Android, siempre tiene el control. Nunca ha sido más sencillo cambiar entre los modos de iluminación, ajustar de forma remota el color, la potencia, SFX y mucho más. La nueva aplicación permite al usuario crear grupos y proyectos personalizados en hasta 20 luces simultáneamente; directamente desde la palma de tu mano.

Precios y disponibilidad

Rotolight SmartSoft Box está disponible para pre-pedido ahora en www.rotolight.com, a partir de agosto de 2022 junto con todos los revendedores oficiales de Rotolight a un precio de $499, £439 con IVA incluido La versión 1.0 de la aplicación Rotolight Native para iOS y Android estará disponible para todos los usuarios de Rotolight el 1 de junio y se podrá descargar gratis desde Apple Store y Google Play Store.

 

DIT (Técnico en Imagen Digital)

Publicado por Comunicación AMC – Octubre del 2019
Por Juan Diego Almanza, Chief Technology Offi

 

Cuando entré al mundo de la producción audiovisual, la mayoría de los cineastas ya habían firmado los papeles de divorcio del celuloide. Sin embargo, esa transacción de lo análogo a lo digital (que para los más conservadores levantó un muro mata pasiones), amplió el abanico de técnicas innovadoras en la industria.

Sin ese cambio es probable que mis nueve años en el medio y la firma en mi correo electrónico de Chief Technology Officer (CTO) de Labo Colombia, empresa en la que trabajo actualmente, y que se ha dedicado a impulsar a través de la marca Labonset los servicios de DIT (Técnico en Imagen Digita), data management y dailies en set, no existirían. Como en mi caso, la digitalización benefició el desarrollo de oficios intermediarios que aumentan la calidad de una película.

Con la experiencia laboral aprendí que con más frecuencia las productoras demandan profesionales altamente calificados y su conocimiento para administrar recursos, eficientar tiempos, y concretar resultados por encima de las expectativas.

Con este diagnóstico detecté la necesidad de cubrir estas demandas y en 2013 fundé con Juan Diego Almanza, Chief Technology Officer de Labo Colombia DIT, Data Management y Dailies: El metódico sistema de servicios on set un par de amigos la empresa Onset Labs, la cual se posicionó como la compañía referente del sector audiovisual colombiano. Ello gracias a los diferentes servicios que se brindaron a MGM, Universal Studios, MTV y Netflix, entre otros.

Más tarde, en 2016 Onset Labs y Labodigital México iniciaron un joint venture, el cual generó en 2017 la apertura de la oficina de Labo Colombia en Bogotá. Desde entonces se inició mi camino como líder de tecnología en dicha empresa. Sin embargo, lo que más me emociona es la acción en vivo y con ello me refiero a los eventos extraordinarios que suceden durante el rodaje.

Mis ejes de especialidad son el Digital Imaging Technician (DIT), Data Danagement, y la creación de dailies. Además, me encargo de reforzar nuestros servicios on-set mediante la proveeduría de herramientas tecnológicas, así como del entrenamiento del talento para fortalecer a nuestro equipo de trabajo y brindar la mejor calidad y eficiencia en los servicios de DIT, data management y dailies en Colombia y México.

¿Qué es lo primero que aprenden los nuevos integrantes? Que en Labo somos un equipo y cooperamos como una colonia de hormigas en verano. La segunda lección es que para tener una filmación exitosa deben prestar atención a la etapa más importante: la preproducción. En esa etapa se define cómo será el rodaje, qué ritmo de trabajo tendrá y cuáles serán las decisiones creativas. Es un diálogo con el cliente, prestar atención a sus necesidades y considerar los dispositivos adecuados para su proyecto.

En una entrevista para el puesto del DIT procuro seleccionar a un profesional con sentido de la composición fotográfica, experto en imagen digital y que entienda perfectamente el funcionamiento mecánico de las cámaras. Ello debido a que su ‘ojo de halcón’ ayudará a mantener la consistencia visual desde el inicio de un show hasta su postproducción al supervisar cuadro por cuadro la imagen de lo que se graba. En caso de encontrar algún error en las tomas lo notificará de inmediato. Por otra parte, nuestro DIT llevará una relación estrecha con el director de fotografía y entenderá la concepción de su propuesta estética para resguardarla durante el rodaje. Éste ayuda al cinefotógrafo en aspectos creativos como puntualizar el look de la película, estructurar la ambientación, y optimizar las condiciones en locaciones.

Una gran parte de las películas no se graba conforme al orden cronológico del guión, ya que la filmación se ejecuta de la manera más conveniente de acuerdo con el plan de rodaje. El hecho de contar con la figura DIT apoya al objetivo de anticipar percances en la continuidad de las escenas. El bonus de este flujo de trabajo es que permitirá la corrección de color al instante para emparejar escenas y obtener una aproximación cercana al producto final.

La filosofía de Labo, ya sea en Colombia, México o en algún otro territorio de los 14 países donde tenemos presencia, es el compromiso con la preservación y la seguridad de los materiales de nuestros clientes. Por ese motivo es que proveemos la figura de data manager que, a pesar de ostentar una función exclusivamente técnica, es imprescindible para rentabilizar la inversión de cada show.

Durante un rodaje es imposible predecir lo que pasará: robos, catástrofes naturales, o descuidos humanos. A través de nuestro estricto procedimiento se garantiza que la información producida contará con respaldos en distintos formatos.

Al mismo tiempo que el DIT revisa la imagen con el director de fotografía, el data manager respalda el material a discos duros en estado sólido configurados en Raid 5, que operan a una velocidad 1200Mb/s y luego en dispositivos linear tape open (LTO).

En Labo, cada proyecto es único para nosotros, pero también es una oportunidad para entender las solicitudes de las producciones y diseñar flujos de trabajo cada vez más eficientes y especializados. Con la expansión estratégica de Labo en América Latina descubrí que cada país implica desafíos diferentes y nuevas oportunidades para brindar el mejor servicio. Sin embargo, una práctica que no cambia es que la mayoría de las producciones revisan lo que se rodó de manera constante, todos los días. Ante esta necesidad, proporcionamos dailies para vigilar el material de grabación y que estén de acuerdo con lo establecido.

Para hacer el tema de dailies más fácil adaptamos unos vehículos con tecnología específica que personalizan la aventura de un rodaje. Confiamos en estos todoterrenos para obtener la asistencia técnica y generar el trabajo en menos de 12 horas. Así que no importa el lugar que la producción decida para filmar, estamos preparados para sortear cualquier reto logístico.

Los dailies son la prueba de fuego que analizan las cabezas de los departamentos de la producción con la intención de conocer el estatus de su largometraje. De esa forma deciden si cambiarán la trayectoria de un elemento en específico o en su totalidad.

En Labo somos minuciosos y sabemos que el balance entre imagen, detalles artísticos y visión creativa es clave para dimensionar la efectividad de nuestros servicios. Para nosotros no hay nada más satisfactorio que cuando los clientes llegan a las salas de edición o corrección de color y nos dan el veredicto de que ven la misma cinta que imaginaron desde un inicio.

Esta es una profesión de cambios, adaptación, creatividad y paciencia. Con mi experiencia descifré que si en un largometraje se omite la aplicación de la asistencia on-set, el daño financiero puede ser irreversible. Hablamos de falta de coherencia en la dirección visual y del riesgo de perder información valiosa.

Muchos de los productores con los que pactamos aún se encuentran en un adoctrinamiento para aceptar los esquemas on-set. Algunos señalan que ahorrar significa adquirir equipo comercial común y hacerlo por ellos mismos. Sin embargo, no hay nada más valioso que el trabajo y el talento de profesionales de una compañía o firma especializada.

Sonará muy atrevido, pero la naturaleza evolutiva de la cinematografía latinoamericana apunta a la de Estados Unidos. Las cintas latinas se están igualando no sólo en narrativa, sino también en calidad técnica. Este hecho implica una generación más capacitada de directores, fotógrafos, guionistas, artistas plásticos, ingenieros y técnicos, entre otros. Aquí es donde las empresas como Labo Colombia, a través de su marca LABONSET, y las figuras del DIT y data management, así como los dailies hacen una diferencia para perfeccionar los procesos existentes en una industria regional que, con el arribo de titanes como HBO, Netflix y Amazon, se inclina a las más estrictas exigencias en producción.