Vū Studio y Motion Impossible lanzan “Agito Magtrax” en EE. UU.

American Cinematographer
Personal del CSA , mayo del 2022

 

Magtrax, un sistema guiado por banda magnética para aplicaciones con seguimiento discreto, y otras soluciones de Agito están disponibles en América del Norte a través de AbelCine.

La red de estudios de producción virtual VU se asoció con Motion Impossible, un fabricante inglés de sistemas modulares de plataformas rodantes remotas y estabilizadores de cámara, en el lanzamiento en EE. UU. de  Agito Magtrax, un sistema guiado por banda magnética para aplicaciones de seguimiento discretas.

Magtrax y otras soluciones de Agito están disponibles a través de Abel Cine, el socio norteamericano exclusivo de Motion Impossible para ventas, capacitación y soporte técnico.

Como parte del lanzamiento, Vū y Motion Impossible están co-creando herramientas de producción de películas que combinan elementos físicos y virtuales utilizando la tecnología de movimiento de cámara de Motion Impossible y las capacidades de VP de Vū.

Magtrax mejora los extremos de transmisión existentes al permitir que los clientes sigan una banda magnética colocada sobre una superficie, debajo de una alfombra o incrustada en un aparato. La franja se puede organizar de maneras que van más allá de lo que se puede hacer con una pista normal, incluidas las curvas y la capacidad de moverse sin problemas de una franja a otra. El Agito seguirá cada camino de forma autónoma mientras libera el control del movimiento de la cámara.

Magtrax permite la misma maniobrabilidad que el roaming libre, con movimiento repetible garantizado y control de velocidad automático en vías rectas o curvas. La velocidad se ajusta automáticamente según el arco de la banda magnética, y los marcadores magnéticos ofrecen detección de colisión y parada de emergencia automática. Además, Magtrax ofrece un sistema de iluminación delantera y trasera configurable que es fácil de configurar y modificar para una sola persona.

 

Color nítido: comunicar la cromaticidad en la producción de imágenes en movimiento

Las ricas y sugerentes mezclas de color que encontramos en la naturaleza, y que a menudo buscamos en el diseño de nuestra imagen, son más matizadas y variadas de lo que se puede representar con un simple eje naranja/azul, un fundido cruzado bicolor o unidimensional escala de temperatura de color.

 

American Cinematographer
Por Jaron Presentt, ASC – Marzo del 2022

 

Actualmente, la iluminación de cine está experimentando interesantes innovaciones en una ola de tecnologías mejoradas para el ajuste del color de la luz bajo demanda. Pero a medida que las herramientas se vuelven más complejas, intrincadas y variadas, necesitamos nuevas soluciones para lidiar con las variables en expansión, variables que tienen el potencial de brindarnos un control creativo rico, pero que con demasiada frecuencia nos dejan en un despilfarro técnico.

Imagina que estás filmando una escena en California, con una puesta de sol de septiembre que brilla en un paisaje marino costero de Santa Bárbara. Después de filmar los amplios planos de barrido en el lugar en el momento perfecto, debe suspender esa puesta de sol indefinidamente para una porción larga de diálogo de la escena que se filmará en un estudio de sonido. Para evocar la hora y el lugar en el escenario, busca el mismo color único del atardecer que ya capturó en el lugar. Para crear este tipo de matiz, no es suficiente simplemente poner un gel naranja estándar sobre una lámpara incandescente o configurar el menú de una unidad LED en una opción genérica de «puesta de sol».

En los días previos a los LED, recrear un color único con tanta precisión habría sido prácticamente impensable. Pero hoy, podemos buscar la respuesta en la amplia gama de modos, diales, botones, opciones y controles deslizantes que se ofrecen en muchas luminarias LED contemporáneas; sin embargo, el objetivo no es jugar con una pila inminente de perillas opacas y no estandarizadas. Nuestro objetivo es iluminar la escena con nuestro amado color del atardecer y no empantanarnos en minucias técnicas. Queremos pasar nuestro precioso tiempo en el set creando bellas imágenes, no navegando tediosamente por menús de usuario y configuraciones específicas del fabricante que no tienen una correlación coherente con nuestra intención artística.

La solución no radica en apilar aún más vendajes agregando diales y perillas adicionales, sino en aclarar el problema y solucionarlo de raíz. Y en el centro de este problema, de hecho, hay un problema que debe resolverse antes que cualquier otro: la falta de una norma industrial viable para identificar el color sin ambigüedades. Necesitamos una forma de cuantificar de manera única el color singular del atardecer que fotografiamos en el lugar y luego medir si nuestro equipo de iluminación en el escenario realmente está creando el mismo color.

“¿Podríamos estar al borde de un cambio de paradigma en la iluminación del cine?”

Puede parecer que nuestras prácticas comunes tienen esto cubierto, pero no es así. La temperatura de color se emplea habitualmente, pero este método es problemático, ya que solo describe un pequeño subconjunto de colores perceptibles. Además, a diferencia de su implementación en la ciencia dura, donde la temperatura del color se define rígidamente, los ajustes de temperatura del color que suenan numéricos en nuestra industria se han convertido en nombres descriptivos que no tienen definiciones fijas. Por ejemplo, “3200K” puede significar el color de una lámpara incandescente de cine tradicional o la definición científica de un punto en el lugar geométrico de Planck en 3200K, pero estos son colores diferentes. Además de eso, «temperatura de color» y «temperatura de color correlacionada» (CCT) a menudo se usan indistintamente, pero no son lo mismo. Con tantas capas de ambigüedad, el sistema se derrumba, dejándonos con una forma poco fiable de identificar los colores. Y si eso no fuera suficiente, debido a que la temperatura de color usa una escala deslizante (logarítmica), los cambios numéricos iguales a diferentes temperaturas Kelvin no son perceptualmente uniformes, lo que hace que todo el sistema sea difícil de conceptualizar, implementar o usar con un sentido de significado seguro.

Otro sistema de color de uso común es RGB, pero ese método es aún menos confiable. No solo hay innumerables espacios de color RGB (sin mencionar el propio RGB nativo de cada LED individual), sino que todos los espacios de color RGB entrelazan el brillo con el color, por lo que es imposible identificar un color de luz sin un brillo asociado. Además, la mayoría de los dispositivos de iluminación LED tienen iluminantes R, G y B (rojo, verde y azul) en su interior, pero no hay dos modelos que tengan los mismos colores de emisores rojo, verde o azul. Agregue a esto que la mayoría tiene uno o varios iluminantes además del rojo, verde y azul, y nos quedamos con una conversión desordenada y ambigua a RGB.

«La cromaticidad coordina con éxito, precisión y nombres únicos los colores de una manera que ninguno de los otros métodos puede».

Suena a caos, ¿verdad? Bueno, aquí están las buenas noticias: aunque no existe un sistema viable y ampliamente adoptado en el uso diario dentro de la industria cinematográfica, dicho sistema ya existe en el ámbito de las ciencias duras. Y se implementa en la industria del cine, aunque no es una metodología de uso común. Por lo tanto, la solución, al menos para el problema en la base de la pila, no necesita desarrollarse desde cero, sino simplemente adoptarse como práctica común. La solución es esta: coordenadas de cromaticidad. Y, de hecho, la cromaticidad coordina con éxito, de manera precisa y única los colores de una manera que ninguno de los otros métodos puede hacerlo.

El estudio del color en la academia y las ciencias duras tiene métodos establecidos desde hace mucho tiempo para evaluar un flujo de luz en el mundo físico y correlacionarlo con la forma en que un observador, ya sea una persona, un sensor de imagen o una emulsión de película, percibirá ese aluvión de fotones. como color Los resultados de esta correlación se pueden representar utilizando un sistema de coordenadas bidimensional, es decir, representando cada color percibido distinto como una ubicación (una coordenada) en un gráfico plano.

Hay varias métricas (interconvertibles) para este método de identificar y distinguir todos los colores percibidos usando coordenadas de cromaticidad. El más apto para nuestros propósitos es un espacio de color llamado «CIE 1931 xyY» o «x,y» para abreviar. Tal vez haya visto este gráfico, pero no lo haya escuchado descrito de esta manera. Esta es la clave: necesitamos cambiar el paradigma de nuestra industria para identificar los colores de la luz, de métodos que simplemente se hacen pasar por rigurosos a un método que en realidad sea numérico, inequívoco y completo. Ese método son las coordenadas de cromaticidad.

Una vez que hemos sentado esta base, surgen amplias posibilidades creativas, mientras que los atolladeros técnicos desaparecen. Y podemos construir sobre estos fundamentos para ir más allá de simplemente combinar y recrear colores. Ahora es posible encontrar varias mezclas y equivalentes que permiten mucha más funcionalidad. Podemos controlar de manera significativa los dispositivos que no tienen modos x, y incorporados, o encontrar nuevas combinaciones de colores creativas sin una referencia física. Más allá de igualar nuestra puesta de sol de Santa Bárbara, podemos recrearla a la mitad de su saturación, o averiguar en qué color configurar nuestra luz si queremos ese mismo color con un balance de blancos diferente. Incluso podemos determinar si un resultado inesperado se debe a un problema de sensibilidad espectral. Las posibilidades siguen y siguen.

¿Podríamos estar al borde de un cambio de paradigma en la iluminación del cine? 

Lo que propongo es un primer paso modesto, pero una vez que la pelota se pone en marcha, los cineastas y los fabricantes pueden comenzar a inspirarse mutuamente con ideas, creando ciclos de retroalimentación positiva que producirán oportunidades emocionantes. Imagina lo que podría deparar el futuro. A medida que x,y se vuelve más común, obtendríamos un punto de referencia común: un lenguaje compartido para comunicar con precisión los colores exactos. Y con un lenguaje preciso viene un control preciso que conduce al objetivo final: una mayor autoría de nuestras imágenes.

Este breve vistazo es solo el comienzo de las posibilidades. Si nosotros, como comunidad, estamos dispuestos a ampliar nuestros conjuntos de herramientas, los beneficios pueden ser extraordinarios.

 

Un juego totalmente nuevo

Fujinon está probando su lente de caja 8K SK35-700 con montura PL con una variedad de cámaras, incluidas Sony Venice y Arri Amira, para lograr un aspecto cinematográfico sin sacrificar la necesidad de capacidad de zoom.

 

AMERICAN CINEMATOGRAPHER
Setiembre del 2021
Por Carl Mrozek

 

Los organismos de radiodifusión adoptan las herramientas y el lenguaje visual del cine, uniendo películas y los principales deportes de forma dinámica.

Fox Sports hizo historia el 12 de agosto de 2021 al transmitir el primer juego moderno de Grandes Ligas de Iowa, específicamente, desde cierto campo de maíz famoso con un diamante incorporado. Este también fue el primer juego de temporada regular que se filmó con las nuevas plataformas de cámara estilo cine montadas en cardán de la división de programación para una transmisión en vivo. Un objetivo clave del juego era conmemorar la película clásica de 1989 Field of Dreams, y hacer de este campo de maíz un paraíso de hardball nuevamente, al menos por una noche.

Si lo construye

Tras su lanzamiento, Field of Dreams, dirigida por Phil Alden Robinson y filmada por John Lindley ASC, volvió a involucrar a millones de fanáticos estadounidenses con su pasatiempo nacional. La transmisión de Fox Sports «Field of Dreams» tenía como objetivo reforzar esa misma conexión con el béisbol durante la era UHD actual, que ahora puede estar en la cúspide de incorporar el «aspecto cinematográfico» en otros deportes televisados ​​de las grandes ligas también, incluido el fútbol, baloncesto, golf y hockey. La transmisión de “Field of Dreams” fue la culminación de dos años de planificación y preparación, retrasados ​​más de un año debido a la aparicion de la pandemia de Covid-19.

Fox Sports ha estado a la vanguardia del matrimonio en ciernes entre la transmisión deportiva y la realización de películas desde al menos fines de 2020. “Hemos estado hablando bastante sobre el uso de herramientas de cine para inyectar elementos cinematográficos en nuestra transmisión que conmemora una de las mejores películas de béisbol de la historia” dice Mike Davies, vicepresidente senior de operaciones técnicas y de campo en Fox Sports.

El equipo de Fox Sports se prepara para rodar el juego «Field of Dreams» en Iowa.

 

Para lograr este objetivo, además de desplegar su complemento normal de cámaras 4K de 3 chips Sony HDC-4300L ⅔» y otros modelos de transmisión, Fox alistó estratégicamente varias unidades especializadas, incluidos varios drones, con al menos dos en el aire en todo momento . Uno de los drones estaba equipado con un Komodo rojo, que capturaba imágenes de los campos de maíz y la comunidad local de Iowa, en particular, tomas del mítico diamante de las grandes ligas ubicado en el corazón de este paisaje bucólico.

Para lograr aún más el «aspecto cinematográfico», con su profundidad de campo claramente reducida, Fox empleó un par de paquetes de cámaras de cine diseñado para la cobertura de juegos en vivo por Jarrod Ligrani, director técnico de FOX NFL. Apodado el «Megalodon», el equipo consta de una cámara Sony a7R IV, de la línea Alpha de la compañía, montada en un cardán DJI Ronn-S, con un monitor de campo de 6″, además de una mochila para baterías externas y un transmisor inalámbrico de 1080p.

El director técnico de Fox Sports, Jarrod Ligrani, con su unidad móvil “Megalodon”.

 

El a7R IV cuenta con un sensor CMOS de fotograma completo de 61.0 MP, con un ISO de 100 a 32,000. Lo más importante para el uso deportivo es la matriz de enfoque automático de 567 puntos del sensor y la capacidad de grabar 1080p a hasta 240 fps.

Para el béisbol y el fútbol, ​​Fox Sports combina principalmente el a7R IV con una lente Sony FE 24-70 mm f / 2.8 GM, lo que ofrece flexibilidad al hacer posible llenar el encuadre con un jugador desde 20 ‘de distancia y desde 6’. 

 

«En los deportes, la acción puede escalar repentinamente, lo que dificulta la coordinación con un foquista», dice Davies. “Con un DOF de menos de 2 pies, no hay mucho margen de error, pero el enfoque automático de la Alpha ha demostrado ser confiable y se ha convertido en nuestra cámara cinematográfica preferida. Tuvimos a dos de ellos en acción en el juego ‘Field of Dreams'».

Ligrani demuestra su unidad móvil “Megalodon” para el corredor de los Dallas Cowboys, Ezekiel Elliott.

 

Durante el evento único, Fox Sports también utilizó una cámara compacta Sony HDC-P50 de 3 chips de ⅔»emparejada con el Movil de Freestyle .cardán como una cámara de mano. Las tres cámaras móviles estaban en acción durante los programas previos y posteriores al juego, y durante la mayor parte del juego. «Usamos Megalodons para los [tomas] de ambos equipos [caminando] desde el campo de maíz al campo de béisbol, y para las presentaciones de los jugadores», describe Davies.

“Durante el juego, los usamos dentro de los dugouts, para [tomas de jugadores que salían del campo] después de las carreras, y para correr desde la tercera hasta el home, incluido el trote de carreras cuando finaliza el juego y la celebración justo después del juego». Agrega que esta fue la primera vez que Fox Sports desplegó a los Megalodons en un juego de béisbol de temporada regular, después de los previamente en el juego All-Star de 2021, así como durante los juegos de final de temporada de la NFL, el torneo de baloncesto Big East Conference. Carreras de Nascar, los partidos de Premier Boxing Champions, e incluso el Westminster Kennel Club Dog Show.

Entendiendo

Otros locutores deportivos también han adoptado el Megalodon, en particular la Marquesina Roja de los Cachorros de Chicago. Mike Fox, el director de la cadena, dice: “Nos encantó el Megalodon tan pronto como Jarrod lo demostró. Me ofrecí a alquilarlo por la temporada. Con el DOF poco profundo de Megalodon, la imagen central es clara como el cristal y realmente te llama la atención. La televisión es principalmente un mundo en 2D, y me emociono mucho cada vez que podemos hacer que parezca más tridimensional».

Un operador de Marquee Network captura imágenes fuera de Wrigley Field.

 

Al igual que en el juego «Field of Dreams», donde los Megalodons jugaron un papel clave en hacer del campo de béisbol en un campo de maíz la estrella del espectáculo, Fox usa la configuración para hacer del Wrigley Field de los Cachorros un personaje principal en cada juego de pelota. «Usaré tomas amplias del estadio de béisbol, que a menudo incluyen la espesa hiedra en las paredes de los jardines y los enormes pilares detrás del plato», dice. “Me encanta incorporar el enorme marcador manual, rematado con un gran reloj antiguo, con ventiladores en primer plano. A veces están jugando a atrapar, o tomando selfies, o haciendo fila para entrar al parque, pero con el clásico marcador de Wrigley detrás de ellos».

Fox también despliega el Megalodon específicamente para entretejer a los fanáticos en la transmisión del juego. “Nos encanta registrar a los fanáticos que cantan el himno nacional, durante el tramo de la séptima entrada, comemos y bebimos en el patio de comidas y en las gradas, o hablamos con los jugadores alrededor del dugout, atrapando bolas de foul y todo tipo de B-roll», él dice. «La fuerte señal de RF nos permite flmar en cualquier lugar dentro y alrededor del estadio. Sobre todo, me encanta lo fácil que [el Megalodon] hace destacar a los jugadores aislándolos de todo lo demás, convirtiéndolos en estrellas por al menos un momento».

Ligrani estuvo a la vanguardia en reconocer el potencial del a7R IV sin espejo para transmisiones deportivas en vivo. «Habíamos estado usando Alphas en una capacidad limitada para la cobertura de juegos de la NFL, pero no en vivo», dice. “Los tiradores tenían que seguir corriendo hacia el camión para descargar tomas seleccionados durante todo el juego. Eso cambió cuando encontramos una empresa belga que fabricaba un transmisor de RF compacto y eficiente que cabía fácilmente en una mochila pequeña».

Ligrani también resolvió otros desafíos, incluido un problema de alimentación y un problema de sobrecalentamiento, al crear una fuente de alimentación externa utilizando baterías Anton / Bauer Gold Mount o V-Mount intercambiables en caliente. «El sobrecalentamiento puede ser un problema con Alpha, especialmente a velocidades de cuadro más altas», dice. «Sacar las pilas de la cámara ayudó». Agrega que «un Sunbrella también ayuda cuando se  registra al sol durante horas».

Expandiendo el campo

Las cámaras de cine más grandes también se han abierto camino en el campo de juego. CBS probó varios a multas de 2020 durante la temporada de la NFL. «Nos apoyamos en [CineAlta] Venice [de Sony] [en una Steadicam] durante los juegos finales de la temporada 2020 de la NFL, y continuamos durante los playoffs», dice Josh Cohen, consultor editorial de CBS Sports, quien le da crédito a Mike Arnold, director principal de juegos de la NFL en CBS Sports, por el esfuerzo. Los comentarios de los fanáticos fueron intensos en las redes sociales, durante y después de los juegos. “Los fanáticos notaron la diferencia de inmediato, inundándonos con comentarios como, ‘Parecía una película’”, dice Arnold. «Eso nos impulsó a seguir experimentando con estas cámaras DOF ​​poco profundas».

En los juegos de la NFL, las cámaras de cine ya han llenado nichos clave, como destacar las celebraciones de touchdown, que se han vuelto cada vez más llamativas y creativas, así como las tomas de jugadores que entran y salen del campo en el medio tiempo y después del juego. Inevitablemente, el DOF poco profundo creó desafíos en un entorno acelerado. Arnold explica: «A veces, el DOF superficial era problemático en el modo de enfoque automático al centrarse en la multitud en el fondo en el lugar del jugador en el primer plano, si no en el cuadro completo, o al enfocarse en el jugador equivocado en un scrum».

Arnold señala que CBS en realidad no probó el paquete Alpha más pequeño hasta el juego más importante de la temporada. “Para el Super Bowl, decidimos agregar un segundo paquete de cámara de cine, una Alpha IV [Sony] en una plataforma de cardán Movi, para nuestro paquete complementario Venice / Steadicam”, dice. “Rápidamente quedamos impresionados con lo bien que se desempeñó el enfoque automático del Alpha y con su excelente calidad de imagen. Tuvimos que pasarlo por un corrector de color, pero ayudó [que fuera] una cámara Sony para empezar, en términos de igualar el color con la Venecia y con nuestras cámaras de transmisión Sony”.

CBS también implementó el paquete Alpha para torneos de golf profesionales y las principales carreras de autos. “Reemplazamos una cámara ENG con el paquete Alpha en un Movi para el PGA [Tour] y durante las carreras SRX [extreme auto]. También nos complació el rendimiento de la EOS-C300 de Canon en las carreras. Cada una de las cámaras de cine digital que hemos probado ha tenido sus puntos fuertes que la opción en una mejor opción para algunas aplicaciones deportivas que otro modelo, y viceversa”, dice Jason Cohen, vicepresidente de operaciones técnicas remotas de CBS Sports.

Después de probar en la carretera diferentes modelos de cámaras de cine en varios deportes, dice Cohen, CBS aún planea mantener abiertas sus opciones, entrando en la temporada 2021-22 de la NFL. «Lo que sabemos con certeza es que vamos a mantener la relevancia del DOF superficial en nuestro mejor juego de la NFL cada semana», dice. “Sin embargo, todavía estamos en el proceso de determinar cuál será el sistema y qué modelos usaremos de una semana a otra. Sigue siendo una conversación fluida».

Jeff Silverman, fundador y presidente de la compañía de cámaras especializadas Inertia Unlimited, ha estado con locutores deportivos, incluida CBS, sobre una variedad de desafíos de cámaras durante casi una década. Últimamente, muchos de ellos están relacionados con cámaras estilo cine. “Para el Super Bowl, un desafío clave fue cómo integrar el aspecto de algunas cámaras estilo cine con otras 122 cámaras [que cubren el evento], especialmente con el caballo de batalla Sony(HDC) 4300s, que dominan las transmisiones deportivas en los EE. UU.”. Silverman agrega que siente que la colorimetría nativa de las cámaras Venice y Alpha de Sony pudo igualar el «aspecto Sony» de las HDC-4300s con relativa facilidad, y las prefirió para esta aplicación.

“Para grandes producciones como el Super Bowl, no tienes tiempo para una meticulosa combinación de colores [con] diferentes marcas [de] cámaras que no operan orgánicamente en el mismo espacio de color. Además, los Alpha tienen el mejor sistema de enfoque automático disponible, que es fundamental en deportes de acción como el fútbol. Los deportes más lentos, como el golf, tienen menos necesidad de depender del enfoque automático cuando se trata de empujar. El golf es muy predecible: los jugadores suelen caminar a un ritmo mesurado y en líneas más o menos rectas. Eso simplifica el enfoque manual con o sin CA».

Los camiones de transmisión están respondiendo a la demanda de cámaras estilo cine por parte de los presentadores deportivos. Comunicaciones CP, con sede en Nueva York y Florida, colaboró ​​con Ligrani en el Megalodon a partir de 2018. «Nuestro objetivo es proporcionar a nuestros clientes el último equipo que puede desear», explica el director ejecutivo Kurt Heitmann. “Si no lo tenemos, lo compramos o lo construimos. Creamos varios paquetes de cámaras Megalodon para Fox Sports, según sus especificaciones. Intercambiamos cámaras o sistemas de soporte de manera rutinaria a medida que cambian las necesidades de los clientes para eventos particulares. Todavía es temprano para las cámaras de estilo cinematográfico en los deportes, pero nuestro trabajo es mantenernos a la vanguardia de la demanda con amplias opciones».

Los expertos de CP Communications se preparan para una transmisión.

 

Progreso hacia adelante

Según Heitmann, mientras que la resolución y la capacidad de la cámara están evolucionando rápidamente, el ancho de banda es actualmente una limitación tecnológica. “Muchas de nuestras cámaras de transmisión tienen una clasificación de 8K, 6K y 4K, pero nuestra canalización actual [4K] nos restringe una salida [dual] 1080p 60, lo que nos permite transmitir HDR a 1080p”, dice. “Pero 5G está a la vuelta de la esquina y nos permitirá trabajar en 4K. Nuestro desafío es prepararnos para 5G, mientras satisfacemos las demandas que evolucionan rápidamente en la actualidad».

Dejando a un lado los problemas de ancho de banda, ¿las cámaras cinematográficas captarán una porción cada vez mayor de la cobertura general de cámaras de las principales transmisiones deportivas en los próximos años? Quizás en los márgenes, pero es poco probable que cambien el equilibrio de poder en el corto plazo en el mundo de las transmisiones de deportes de grandes ligas. «De hecho, hemos tenido discusiones sobre hacer un juego completo principalmente con cámaras de estilo cinematográfico, solo para ver cómo se vería un juego», dice Davies. “Pero hay compensaciones.

Aunque tenemos cierto control de la salida de las cámaras de cine, no es tan fácil ni tan fácil como lo es con nuestras cámaras de retransmisión de Sony y Grass Valley, y los superteleobjetivos que necesitamos para cubrir todos los campos de fútbol y béisbol. desde una posición fija. Son nuestra carne y patatas. Las cámaras de cine están al margen, pero nos ayudan a expandir la historia al capturar más drama y espíritu en todos estos juegos con imágenes que te emocionan y que, con suerte, recordarás mucho después de que termine el juego».

 

Rotolight App

Cinematographer World
Mayo del 2022

 

Rotolight presenta el primer SmartSoft Box electrónico del mundo y una aplicación nativa

El fabricante británico de iluminación LED, Rotolight, ha presentado la primera ‘SmartSoft Box’ electrónica del mundo, para sus luces galardonadas AEOS 2, junto con una nueva aplicación nativa para iOS y Android.

 Rotolight SmartSoft Caja

Desde que se anunció durante la campaña de Kickstarter de Rotolight que batió récords para los ganadores NEO 3 y AEOS 2, Rotolight SmartSoft Box ha demostrado ser uno de los productos más esperados del año. Ahora, la espera finalmente ha terminado para la primera softbox electronica inteligente del mundo.

Al ofrecer una verdadera revolución en el control de la iluminación, Rotolight SmartSoft Box se ha desarrollado para ahorrar tiempo y dinero a los fotógrafos y cineastas, lo que permite a los usuarios ajustar electrónicamente la difusión, el enfoque y la dispersión sin necesidad de geles o modificadores adicionales. Al igual que un LEE 216 en un dial ajustable, SmartSoft proporciona 1,5 pasos de difusión variable electrónicamente gracias a la tecnología patentada de Rotolight, lo que brinda la flexibilidad de una suave y una fuente de luz de salida más dura, todo en uno.

SmartSoft debutó por primera vez en la galardonada gama Titan Cinematic de Rotolight, integrada de forma nativa en sus accesorios Titan X2 y X1, que se han utilizado en innumerables películas y programas de televisión de Netflix, Amazon Studios y SKY, incluidos The Color Room y Greys Anatomy, incluidos en la lista larga de BAFTA. . Por primera vez, esta tecnología ahora se ha adaptado a una caja de luz electrónica extraíble para sus dispositivos AEOS 2 lanzados recientemente, que pesan solo 1,4 kg (3 libras), lo que los convierte en las luces de estilo 1×1 más delgadas y livianas del mercado.

“El nuevo SmartSoft Box ha revolucionado la forma en que puedo controlar la luz. Simplemente me permite crear imágenes con un solo modificador que nunca antes había sido posible. Es un cambio de juego en la forma en que controlo la luz tanto para mi fotografía comercial y me ha ahorrado mucho tiempo. La facilidad de uso es fenomenal” Sam Nash, galardonado fotógrafo comercial y de moda.

La caja SmartSoft se monta en solo unos segundos en el AEOS 2 y se puede ajustar mediante la pantalla táctil intuitiva o mediante la aplicación Rotolight.

“Rotolight se complace en anunciar la primera caja electrónica SmartSoft del mundo; una revolución en el control de iluminación que ahorra tiempo y dinero a fotógrafos y cineastas. Rotolight ha demostrado que está, una vez más, a la vanguardia de las primeras tecnologías de la industria protegidas por patentes en la industria de la iluminación, brindando a nuestros clientes herramientas únicas de última generación que mejoran las posibilidades creativas en el set” Rod Aaron Gammons, director general, Rotolight.

Aplicación nativa de Rotolight para iOS y Android

Con la nueva aplicación nativa Rotolight para iOS y Android, siempre tiene el control. Nunca ha sido más sencillo cambiar entre los modos de iluminación, ajustar de forma remota el color, la potencia, SFX y mucho más. La nueva aplicación permite al usuario crear grupos y proyectos personalizados en hasta 20 luces simultáneamente; directamente desde la palma de tu mano.

Precios y disponibilidad

Rotolight SmartSoft Box está disponible para pre-pedido ahora en www.rotolight.com, a partir de agosto de 2022 junto con todos los revendedores oficiales de Rotolight a un precio de $499, £439 con IVA incluido La versión 1.0 de la aplicación Rotolight Native para iOS y Android estará disponible para todos los usuarios de Rotolight el 1 de junio y se podrá descargar gratis desde Apple Store y Google Play Store.

 

DIT (Técnico en Imagen Digital)

Publicado por Comunicación AMC – Octubre del 2019
Por Juan Diego Almanza, Chief Technology Offi

 

Cuando entré al mundo de la producción audiovisual, la mayoría de los cineastas ya habían firmado los papeles de divorcio del celuloide. Sin embargo, esa transacción de lo análogo a lo digital (que para los más conservadores levantó un muro mata pasiones), amplió el abanico de técnicas innovadoras en la industria.

Sin ese cambio es probable que mis nueve años en el medio y la firma en mi correo electrónico de Chief Technology Officer (CTO) de Labo Colombia, empresa en la que trabajo actualmente, y que se ha dedicado a impulsar a través de la marca Labonset los servicios de DIT (Técnico en Imagen Digita), data management y dailies en set, no existirían. Como en mi caso, la digitalización benefició el desarrollo de oficios intermediarios que aumentan la calidad de una película.

Con la experiencia laboral aprendí que con más frecuencia las productoras demandan profesionales altamente calificados y su conocimiento para administrar recursos, eficientar tiempos, y concretar resultados por encima de las expectativas.

Con este diagnóstico detecté la necesidad de cubrir estas demandas y en 2013 fundé con Juan Diego Almanza, Chief Technology Officer de Labo Colombia DIT, Data Management y Dailies: El metódico sistema de servicios on set un par de amigos la empresa Onset Labs, la cual se posicionó como la compañía referente del sector audiovisual colombiano. Ello gracias a los diferentes servicios que se brindaron a MGM, Universal Studios, MTV y Netflix, entre otros.

Más tarde, en 2016 Onset Labs y Labodigital México iniciaron un joint venture, el cual generó en 2017 la apertura de la oficina de Labo Colombia en Bogotá. Desde entonces se inició mi camino como líder de tecnología en dicha empresa. Sin embargo, lo que más me emociona es la acción en vivo y con ello me refiero a los eventos extraordinarios que suceden durante el rodaje.

Mis ejes de especialidad son el Digital Imaging Technician (DIT), Data Danagement, y la creación de dailies. Además, me encargo de reforzar nuestros servicios on-set mediante la proveeduría de herramientas tecnológicas, así como del entrenamiento del talento para fortalecer a nuestro equipo de trabajo y brindar la mejor calidad y eficiencia en los servicios de DIT, data management y dailies en Colombia y México.

¿Qué es lo primero que aprenden los nuevos integrantes? Que en Labo somos un equipo y cooperamos como una colonia de hormigas en verano. La segunda lección es que para tener una filmación exitosa deben prestar atención a la etapa más importante: la preproducción. En esa etapa se define cómo será el rodaje, qué ritmo de trabajo tendrá y cuáles serán las decisiones creativas. Es un diálogo con el cliente, prestar atención a sus necesidades y considerar los dispositivos adecuados para su proyecto.

En una entrevista para el puesto del DIT procuro seleccionar a un profesional con sentido de la composición fotográfica, experto en imagen digital y que entienda perfectamente el funcionamiento mecánico de las cámaras. Ello debido a que su ‘ojo de halcón’ ayudará a mantener la consistencia visual desde el inicio de un show hasta su postproducción al supervisar cuadro por cuadro la imagen de lo que se graba. En caso de encontrar algún error en las tomas lo notificará de inmediato. Por otra parte, nuestro DIT llevará una relación estrecha con el director de fotografía y entenderá la concepción de su propuesta estética para resguardarla durante el rodaje. Éste ayuda al cinefotógrafo en aspectos creativos como puntualizar el look de la película, estructurar la ambientación, y optimizar las condiciones en locaciones.

Una gran parte de las películas no se graba conforme al orden cronológico del guión, ya que la filmación se ejecuta de la manera más conveniente de acuerdo con el plan de rodaje. El hecho de contar con la figura DIT apoya al objetivo de anticipar percances en la continuidad de las escenas. El bonus de este flujo de trabajo es que permitirá la corrección de color al instante para emparejar escenas y obtener una aproximación cercana al producto final.

La filosofía de Labo, ya sea en Colombia, México o en algún otro territorio de los 14 países donde tenemos presencia, es el compromiso con la preservación y la seguridad de los materiales de nuestros clientes. Por ese motivo es que proveemos la figura de data manager que, a pesar de ostentar una función exclusivamente técnica, es imprescindible para rentabilizar la inversión de cada show.

Durante un rodaje es imposible predecir lo que pasará: robos, catástrofes naturales, o descuidos humanos. A través de nuestro estricto procedimiento se garantiza que la información producida contará con respaldos en distintos formatos.

Al mismo tiempo que el DIT revisa la imagen con el director de fotografía, el data manager respalda el material a discos duros en estado sólido configurados en Raid 5, que operan a una velocidad 1200Mb/s y luego en dispositivos linear tape open (LTO).

En Labo, cada proyecto es único para nosotros, pero también es una oportunidad para entender las solicitudes de las producciones y diseñar flujos de trabajo cada vez más eficientes y especializados. Con la expansión estratégica de Labo en América Latina descubrí que cada país implica desafíos diferentes y nuevas oportunidades para brindar el mejor servicio. Sin embargo, una práctica que no cambia es que la mayoría de las producciones revisan lo que se rodó de manera constante, todos los días. Ante esta necesidad, proporcionamos dailies para vigilar el material de grabación y que estén de acuerdo con lo establecido.

Para hacer el tema de dailies más fácil adaptamos unos vehículos con tecnología específica que personalizan la aventura de un rodaje. Confiamos en estos todoterrenos para obtener la asistencia técnica y generar el trabajo en menos de 12 horas. Así que no importa el lugar que la producción decida para filmar, estamos preparados para sortear cualquier reto logístico.

Los dailies son la prueba de fuego que analizan las cabezas de los departamentos de la producción con la intención de conocer el estatus de su largometraje. De esa forma deciden si cambiarán la trayectoria de un elemento en específico o en su totalidad.

En Labo somos minuciosos y sabemos que el balance entre imagen, detalles artísticos y visión creativa es clave para dimensionar la efectividad de nuestros servicios. Para nosotros no hay nada más satisfactorio que cuando los clientes llegan a las salas de edición o corrección de color y nos dan el veredicto de que ven la misma cinta que imaginaron desde un inicio.

Esta es una profesión de cambios, adaptación, creatividad y paciencia. Con mi experiencia descifré que si en un largometraje se omite la aplicación de la asistencia on-set, el daño financiero puede ser irreversible. Hablamos de falta de coherencia en la dirección visual y del riesgo de perder información valiosa.

Muchos de los productores con los que pactamos aún se encuentran en un adoctrinamiento para aceptar los esquemas on-set. Algunos señalan que ahorrar significa adquirir equipo comercial común y hacerlo por ellos mismos. Sin embargo, no hay nada más valioso que el trabajo y el talento de profesionales de una compañía o firma especializada.

Sonará muy atrevido, pero la naturaleza evolutiva de la cinematografía latinoamericana apunta a la de Estados Unidos. Las cintas latinas se están igualando no sólo en narrativa, sino también en calidad técnica. Este hecho implica una generación más capacitada de directores, fotógrafos, guionistas, artistas plásticos, ingenieros y técnicos, entre otros. Aquí es donde las empresas como Labo Colombia, a través de su marca LABONSET, y las figuras del DIT y data management, así como los dailies hacen una diferencia para perfeccionar los procesos existentes en una industria regional que, con el arribo de titanes como HBO, Netflix y Amazon, se inclina a las más estrictas exigencias en producción.

 

El cine y la pandemia

Publicado por Comunicación AMC – Marzo del 2021 
Por Ximena Ortúzar

 

A los innumerables estragos causados por la pandemia del Covid-19, se suma el fuerte impacto negativo que ha causado a la industria del cine. El cierre masivo de salas ocasionó que el stock de los cines descenciera dramáticamente ocasionando pérdidas de taquilla global de miles de millones de dólares.

El cierre de las salas y la correspondiente suspensión de decenas de estrenos han paralizado a la vez centenas de rodajes. Algunas producciones se  reanudaron meses después adaptándose a la “nueva normalidad” y aplicando los  protocolos sanitarios. Bajo este nuevo esquema la filmación de cintas  como  Jurassic World: Dominion;  The Batman; Misión Imposible 7  y Avatar se reanudó  en sus respectivas locaciones. Sin embargo,  los protocolos no evitaron contagios dentro de los sets de The Batman y Jurassic Word: Dominion, obligando a detener la filmación por segunda vez.

La esperanza de una “nueva normalidad” se desvanece ante la aparición de la segunda ola de contagios ocasionada por una o más nuevas cepas del virus,  lo que arrastra a la industria cinematográfica a su peor crisis.

A su vez, la pérdida de las salas de cine a nivel mundial supera los 30 mil millones de dólares, según un estudio realizado por Omdia (consultora de medios y tecnología), equivalentes a un déficit mayor al 70 por ciento de sus ganancias respecto de años anteriores.

A grandes males. . .

Cuando los cines fueron obligados a cerrar,   la mayoría de las distribuidoras  informaron del retraso de sus estrenos. Pero pronto debieron optar por hacer  cambios.   En Estados Unidos, varias películas que se acababan de lanzar  y  no habían conseguido por falta de tiempo  recuperar siquiera el presupuesto invertido,  anunciaron su exhibición por diferentes medios. Por ejemplo: Frozen 2 (Disney, estrenada en noviembre de 2019)  o  Bloodshot (Sony, estrenada en febrero de 2020), podían verse  en plataformas pocos días después de estrenarse en cines con la menor recaudación desde 1998. Esta nueva modalidad de exhibición de películas produjo un aumento considerable en el número de abonados a las plataformas audiovisuales.

Ante la nueva realidad,  Universal quiso evitar la pérdida de varios millones de dólares invertidos en promover   Trolls 2  y mantuvo la fecha de estreno para el 10 de abril de 2020. . . pero en streaming.  Según un informe de The Wall Street Journal,  Trolls 2  –en streaming- lanzada a un precio de 19,99 dólares por 48 horas de alquiler,  recaudó más de lo que habría obtenido por la exhibición de la película original en  salas,  en cinco meses.

Para Universal el cambio de exhibición en salas a la distribución por streaming ha resultado un  negocio redondo al ganar mucho más que si la hubiera estrenado en cines. El distribuir sus filmes por  streaming, el productor recibe el 70 por ciento  de las ventas; al hacerlo a través de salas obtiene, en el mejor de los casos,  un 50 por ciento.  La web Indiewire calcula que para ser rentable, Trolls 2 necesitaría vender 32 millones de entradas,  en tanto al comercializarla a online  bastarían  diez millones de clientes premium.

Lo anterior ha incentivado a  varios realizadores de cine a presentar  sus películas  directamente en las plataformas de streaming, conscientes de la muy cuantiosa  audiencia obligada a permanecer  cautiva en sus casas. Los resultados son impactantes:  El Hoyo, película española y  Milagro en la celda 7, película turca  –ambas realizadas lejos de Hollywood-, ambas difundidas a través de la plataforma Netflix- han registrado un récord de consumo.

Fotograma: “Milagro en la celda 7”

 

El cine en casa

A falta de salas de cine y la extensión en tiempo de la cuarentena,   el público ha optado por acompañar sus largas horas de confinamiento con películas, documentales y series  difundidas a través  del streaming, por lo que consideran a esta modalidad una ventaja. Conscientes de esta realidad algunas distribuidoras se abocaron rápidamente a encontrar cauces para sus estrenos. Algunas de las fórmulas ya ensayadas podrían sugerir cómo será la distribución  futura del cine. En contraste, los creadores de cine  consideran que con ellas se ha perdido la cercanía en la grabación como así también con el público. Esta diferencia de apreciación entre unos y otros  no es nueva.  La pandemia ha reavivado antiguas controversias acerca, por ejemplo, entre el teletrabajo o la necesidad de digitalización, un debate antiguo que la pandemia ha vuelto a poner de actualidad. Por su parte,   muchas  empresas propietarias de salas  de cine han acordado rechazar la exhibición de películas de Universal cuando reabran. Y así lo han hecho saber a través de una carta que terminó diciendo: “No es una amenaza falsa ni poco meditada”.

En México . . .

La pandemia ha ocasionado que las cadenas de cine en México hayan dejado de vender 251 millones de boletos, equivalentes a  13 mil 631 millones de pesos. Según datos de la Cámara Nacional de la Industria Cinematográfica, Canacine,  los cines del país cerraron el año 2020 con una pérdida superior a 15 mil millones de pesos. “El impacto fue brutal, superior a 80 por ciento, se vendieron solo 62 millones de boletos”, informó  Tábata Vilar, directora de la entidad.

Acorde a informes entregados por Canacine,  del 25 marzo al 15 noviembre de 2020 se vendieron en el país solo 10.5 millones de boletos de cine, en tanto que igual periodo de 2019 la cifra fue de 261.5 millones de boletos, afectando no sólo a las grandes empresas exhibidoras como o Cinépolis o Cinemex, sino a toda la cadena productiva cinematográfica del país. Señala además, que alrededor de 50 mil familias dependen de manera directa de la industria cinematográfica y hay otros 150 mil empleos indirectos.

Los exhibidores mexicanos enfrentan además otros retos: las condiciones de reapertura han sido diferentes en cada ciudad,  dados los  diferentes porcentajes de aforos que van del 25 al 50 por ciento a diferentes salas,  además de diferentes casos de restricción de días de la semana, de horarios o La mayoría de los premios cinematográficos han modificado sus requisitos para aceptar películas que, por esta alerta, se hayan estrenado en streaming. El caso más llamativo es el de los Óscar. La Academia de Hollywood emitió un comunicado en el que, después de defender que “no hay mejor manera de experimentar la magia de las películas que verlas en un cine”, permitía a las estrenadas online optar a los famosos premios. “Reconocemos la importancia de que su trabajo se vea y se aplauda, especialmente ahora, cuando las audiencias aprecian las películas más que nunca”, declaraba la Academia en este comunicado sin duda histórico… como los tiempos que corren. Estudios realizados por Canacine  señalan que el 95 por ciento de los espectadores que asisten a una sala de cine consideran que los protocolos implementados por las cadenas les parecen seguros.

Eduardo Vertty AMC 

Daniel Jacobs AMC

 

Cambios en el Oscar

También los premios  cinematográficos en su mayoría  han modificado sus requisitos para aceptar películas que, debido a la pandemia, han sido estrenados en streaming. Tal es el caso de los Óscar. Así lo anunció {La Academia de Artes y Ciencias Cinematográficas en un comunicado publicado  en su página de internet,  en el que  reconoce “no hay mejor manera de experimentar la magia de las-películas que verlas en un cine”,  pero –dadas las circunstancias– este año se aceptarán películas estrenadas online para optar a la estatuilla 2021, aunque no hayan sido exhibidas previamente en salas, dado que  el cierre de los salas de cine ha obligado a modificar el reglamento vigente, señalando que dicha modificación no tiene necesariamente  carácter permanente. En esta ocasión y por primera vez, las películas candidatas a mejor largometraje extranjero estarán disponibles en la plataforma de transmisión Academy Screening Room. A través de ella los miembros de la Academia  votarán para a elegir la ganadora.

Para postular a una nominación, la película  debe ser proyectada en una sala de cine comercial en los condados de Los Ángeles por al menos siete días consecutivos y con un mínimo de tres veces al día. En esta ocasión los  organizadores  de la premiación decidieron ampliar la cantidad de cines que pueden calificar e incluyeron a áreas metropolitanas en la ciudad de Nueva York; Chicago, Illinois; Miami, Florida; y Atlanta, Georgia. La Academia anunció también que se aceptará la condensación de dos categorías de sonido en una sola. La transmisión de la 93ª entrega de los Oscar está programada para emitirse el 28 de febrero de 2021 por la cadena estadounidense ABC.

David Rubin,  presidente de la Academia, emitió un comunicado con el siguiente texto: “La Academia apoya a nuestros miembros y colegas durante este tiempo de incertidumbre. Reconocemos la importancia de que su trabajo sea visto y celebrado, especialmente ahora, cuando el público aprecia las películas más que nunca”.

 

Fernando Medellín; Un mundo a colores

 Publicado por Comunicación AMC
Por Gerardo Barroso AMC, 9 de enero de 2020 
Fotos cortesía Fernando Medellín

 

Estudié foto fija en la Escuela Activa de Fotografía. Hice foto comercial un tiempo, foto de autor otro rato y, por cosas del destino, terminé trabajando para Ollin Estudio, Casa de Postproducción. Al principio les hacía fotos de referencia para lo que modelaban en 3D. Un día Charly Iturriaga, que era el director de Animación, me invitó a trabajar con él haciendo iluminación digitalmente en 3D. Yo no conocía el software con el que trabajaba pero él me dijo: “Necesito a alguien que sepa cómo trabajar la luz, el software lo aprendes”. Fue así que empecé a practicar esto y comencé a hacer la iluminación en 3D. El estudio comenzó a crecer y, además de animación, comenzaron con On Line con Smoke, Flame e Inferno.

Aproximadamente un año después, el estudio instaló la primera sala de Telecine. En ese momento yo me la pasaba de sala en sala para atender más y más. Entonces fue cuando Charly me propuso quedarme en esa área y acepté. Comencé asistiendo al primer colorista que trabajó en Ollin, un español que hizo carrera en Londres. Con él aprendí todo sobre las máquinas. Después asistí a otros coloristas como Victor Bautista y José Luis Regalado “el Joe”, con quienes aprendí el oficio.

Gerardo Barroso: ¿Qué es lo que más disfrutas de tu oficio como colorista?

Fernando Medellín: Buscar el look junto al fotógrafo; llegar a un acuerdo sobre qué quiere ver y plasmarlo con el material con el que se cuenta. Ese reto es el más satisfactorio, obtener el mejor resultado lo más apegado a su visión.

GB: ¿En qué sistema te gusta trabajar más?

FM: Tengo mucho tiempo sentado en un Base Light; me tocó estrenar el primero que hubo en México. Siempre he estado de una u otra manera, ligado al software y hardware de la marca. Puedo corregir en varios sistemas, sin embargo, el Base Light es mi favorito. Siempre he pensado que la mejor herramienta es a la que más acostumbrado estás. El Resolve es muy buen software; hay muchas máquinas buenas para corregir, el Nu coda es muy poderoso, sin embargo, tengo tanto tiempo en el Base Light que es mi preferido.

GB: ¿Qué le recomiendas a un cinefotógrafo que está iniciando un proyecto?

FM: Que prueben todo, cámaras y lentes. Que busquen su look y las texturas que les gustan o buscan para el proyecto. Trabajo mucho con Guillermo Granillo AMC, AEC y siempre trae pruebas de look y las corregimos. Entonces ya tiene una plancha para el set, ya tiene una idea de lo que va a ocurrir después con ciertos colores y ciertos contrastes. Cuando llega aquí, ya no hay sorpresas. Recomiendo que prueben, prueben todo lo que puedan, todo.

GB: Descríbenos el procedimiento ideal para lograr el look de una película.

FM: En mi experiencia las pruebas de look son muy importantes. Hacerlas con las diferentes iluminaciones que se proponen, porque muchas veces en esas pruebas se toman decisiones de óptica, de qué tan dura o suave será la luz, qué tanto color, y probar texturas, maquillajes, cómo le funciona la luz a los actores. Creo que es el mejor comienzo para que la imagen llegue a buen fin. Cuando ya está conversado, la búsqueda es más corta cuando comienza la corrección de la película. Corrijo esas pruebas de cámara, desde ahí genero archivos que se llaman BLG’s. Puedes cargar estos archivos en cualquier software de Filmlight y estos contienen la corrección de color que realizaste. Estando en locación se cargan en el Daylight en nuestras unidades móviles de Data y Dailies y se van ajustando en las diferentes condiciones de luz. Después esos BLG’s regresan a mi para la corrección de color. Digamos que funcionan en un 25 o 30 por ciento, pero ese porcentaje me sirve para ir dirigiendo la corrección de color de la película a cierto lugar. En lugar de invertir tiempo buscando un look, se invierte en mejorar lo que ya tenemos. Los BLG’s son como el DRX que es el archivo de color que importas para llevar la corrección de un Resolve a otro. Este archivo que se hace cuando grabas el still guarda la información de la corrección.

GB: ¿Cómo es la colaboración ideal con un cinefotógrafo?

FM: Definitivamente es involucrándome con él desde la propuesta, una vez que haya decidido hacia dónde quiere ir, hacer pruebas y ver de qué manera llegamos a lo que se busca. Al final mi trabajo es complementario y colaborativo, me gusta proponer para enriquecer la idea del cinefotógrafo.

GB: Danos un ejemplo de cuál sería el flujo perfecto para ti.

FM: Voy a poner un ejemplo que tal vez no es representativo dentro del mercado en México, pero es la manera más precisa con la que he trabajado, ‘Roma’. Con ‘Roma’ se generaban Dailies para editorial, tenía un DIT, un Data y un Video Assist. El Data se encargaba de guardar todas las imágenes, que nada se perdiera, y generaba los archivos para Dailies. De esos archivos nos separaba los clip’s que el director quería ver en su revisión nocturna. Esos clip’s se cargaban en el BaseLight y por las noches venían a revisarlos. De todo lo demás se hacía un back up en LTO’s y se mandaba al estudio para que empezaran la corrección de los Dailies editoriales que tenían un colorista que los emparejaba para que editorial lo viera uniforme y no hubiera saltos. Eso es el ideal. Mientras tanto lo que hacíamos con Alfonso Cuarón era tocar el material; veía cosas que le gustaban y otras que no e iba calificando y guardando referencias. Cuando los looks o LUT’s van y vienen del set al centro de postproducción y viceversa, es muy importante que todos trabajemos en el mismo espacio de color; si movemos cualquier cosa ya no funciona. Parece muy básico, pero es un error muy común.

GB: ¿Algún dato técnico que quisieras compartir con el cinefotógrafo?

FM: Podríamos hablar un poco de que es lo que pasa con el HDR. Hay gente que aun piensa que es como el de la foto fija. En foto fija se hacían dos o tres exposiciones, a veces cinco. Después, de todo hacías un Mix en el HDR SHOP o algún software. Entonces mezclarlas las imágenes y obteniendo los negros y blancos que deseabas. Había una técnica de ampliación en blanco y negro a la que llamaban ampliación por zonas y entonces usabas un papel multigrado; utilizabas un filtro para los negros, un filtro para los highlights y un filtro para los tonos medios. Esa era la manera análoga de hacer HDR en blanco y negro. La técnica es muy interesante. Sacabas exposiciones con cada uno de los filtros, después con la regla de tres sacabas los porcentajes por filtro para después sacar esos porcentajes en tiempo. Quedaban cosas espectaculares.
Seguimos pensando que de esa manera se hace el HDR en video. Algún tiempo la RED lo hizo así, capturaba dos cuadros de lo mismo, uno para las bajas y otro para las altas y después lo mezclaba. Corregí así una película chilena, ‘Hermanitos’, y dio muy buen resultado. Cuando se movían mucho las cosas tenían una especie de Motion Blur que no era realmente eso, sino un blending de las dos exposiciones, pero era muy aceptable y lo podíamos modular con un control en el corrector de color.

Lo que ocurre ahora con el HDR es que cambió el estándar de monitoreo. Cualquier imagen que esté capturada en 10 BIT o más es HDR. Cambió el monitoreo. Los monitores en estándar están calibrados a 100 NITS que es la unidad con la que se mide la luminancia de los monitores. El monitor X300 de Sony, ve hasta 1000 NITS y hay monitores más grandes que ven 3000 NITS y existe un Pulsar de Dolby que ve 5000 NITS. El cambio fue que ahora tenemos 10 veces más luz para ver la imagen y eso nos da imágenes más brillantes, con mayor profundidad de color y por supuesto con negros más profundos. Cuando se habla de las cámaras profesionales digitales de cine, siempre se habla de 14 pasos de rango dinámico; cuando lo veías en el momento te preguntabas ¿Dónde están?, tal vez veías 8. Con el HDR no vemos los 14 pasos, pero si vemos 12 o 13. Eso asusta a muchos porque no desean tener toda esa información. Lo interesante es que tenemos todo ese rango para discriminar y utilizar el que queramos. Puedes tener negros muy ricos con medios tonos increíbles y la imagen no tiene que ser muy contrastada. Lo que cambió fue la forma de ver.

GB: ¿Debes tener ciertas consideraciones para fotografiar el HDR?

FM:  Sí. Estas imágenes hermosas que hacíamos a contraluz, en las que el fondo se volaba y eras capaz de lograr buen detalle al frente y no te importaba el fondo, resulta que, si ahora haces lo mismo, el fondo te deslumbra y tienes todo el detalle: se ven los cables, los pajaritos, los arbolitos. No es como lo que veíamos antes, esto sigue teniendo información y los highlights deslumbran. Hay que buscar la manera de suavizar la escena, hacer un key más bajito para lograr una imagen más apegada a lo que queremos ver porque al final esas imágenes pueden quedar muy crispis y te remiten al ‘video’. Debemos entender el HDR para lograr un look cinematográfico. Se puede obtener una imagen cinematográfica muy bonita en HDR. En resumen, hay que suavizar el contraste.

Respecto a los NITS de los monitores ADR, a partir de 300 NITS se considera HDR. Hay de 300, 400, 600, 1000, 2000, 3000 y de 5,000 NITS que es un pulsar de Dolby que trabaja con tanta potencia que no lo mueven de lugar; si quieres trabajar con él debes ir a Los Ángeles. Fue un prototipo y se decidió no fabricarlo, es muy complicado. Creo que el estándar, más allá de lo que estamos viendo ahora, va a quedar en no más de 600 NITS. Hay un problema de consumo de energía. Los monitores HDR tienen el doble o triple de consumo de energía porque aumentó muchas veces la luz que emiten. Las teles HDR comerciales ven 580, 550 NITS y las HDR 100 NITS.

GB: Describe la diferencia entre trabajar en un largometraje y una serie. ¿Cómo cambia la relación con el cinefotógrafo?

FM: Una de las diferencias, además de la duración, es el tiempo que te dan para corregir. Corregí una película en 50 horas para 75 minutos de duración, fue la película en la que menos tiempo he tenido minutos y hacen un capítulo a la semana. Por supuesto una película se detalla mucho más. La manera en la que me gusta trabajar es la siguiente: trabajo los primero 4 o 5 días con el fotógrafo en jornadas de no más de 6 horas haciendo ‘setup’ que es: pongo abierto, más plano y contraplano y las otras las ‘matcho’ en mi tiempo y así vamos secuencia por secuencia para ir marcando toda la película. Una vez que tengo eso me siento a hacer el ‘match’ fino. Después reviso con el fotógrafo nuevamente, ajustamos cosas, detallamos y una vez terminado esto, presentamos. Este proceso toma tres o cuatro semanas dependiendo de lo complejo de la película y las horas con las que se cuenta.

Cuando hago la corrección de una serie tengo que plantear muy bien el look con el fotógrafo desde el principio. Muchas veces revisamos el primer capítulo y después puedo trabajar prácticamente solo. A veces hay revisiones eventuales con el director o alguien más. En la última serie que corregí –‘Monarca’-, el director Fernando Rovzar, quien además era el show runner, venía a revisar todas las correcciones de color. Era un capítulo por semana por lo que había que corregir, revisar, ajustar y pasar a SDR porque esta serie se corrigió en HDR. Eso nos dejaba tres días de color porque además debíamos presentarla. Las series son menos detalladas, pero debes ser más eficiente y ver la manera de lograrlo, de no meterte el pie. Tengo muchos años en esto y ya no me conflictúa el tiempo, lo puedo lograr. Hay que ir midiendo ‘qué tanto es tantito’ y hasta dónde trabajas o sobre trabajas la imagen. En las películas te puedes dar lujos que, en las series no.

GB: ¿Cómo manejas la calibración?

FM: Decidimos no hacerlo internamente, son muchas salas, son varios monitores y no nos daba el tiempo de calibrar. Decidimos contratar un servicio externo que está a cargo del Ingeniero Carlos González quien calibra nuestras salas. Por ejemplo, uno de los procedimientos que seguimos, cuando la lámpara del proyector es nueva la voy calibrando cada mes; al tercero o cuarto la lámpara ya se estabilizó. Eso me da más rango y puedo calibrar cada dos meses, la lámpara es muy estable a partir de ahí. Los monitores son mucho más estables, entonces aprovecho los días de calibración del proyector para revisarlos.

La calibración se hace con un ‘chupón’ a D65 (6,500 grados Kelvin), con las diferentes especificaciones que necesitamos. Para el proyector se hace la calibración para P3 (Espacio de color) y para REC709 porque me gusta tener una referencia de REC709. El monitor X300 lo hacemos en REC709, en SDR y en PQ para HDR. En ÓXIDO tenemos otra sala con un plasma que es únicamente REC709, entonces hacemos REC709 1886 y con eso tenemos. De la mano va la calibración de los monitores que salen al set en las camionetas de DATA. Estos se calibran de la misma manera, con el mismo Ingeniero y sobre los mismos parámetros para tener el estándar de la casa; de igual manera se hace con los On Line.

GB: Si voy a subexponer, ¿Cómo debería dejar mis niveles?

FM: Creo que en esta época del Intermedia Digital nos conviene estar un poco más arriba de luz cuidando que los High Lights no se vuelen. Estas noches sobreiluminadas a las que tememos tanto, con el Intermedia es muy fácil bajarlas y ponerlas donde quiera en lugar de sacrificar el detalle en el set porque la noche tiene que ser más oscura. Aquí entra la explicación de la visión auditiva que tenemos los seres humanos, es decir, no es que veamos todo el rango, sino que nuestra memoria es increíble y registra lo que hay en las sombras y lo que hay en las luces y tu cerebro lo compone. Eso no ocurre con los sensores por lo que debemos ‘truquear’. Entonces, claro, si sobreiluminas una noche o la mandas un poquito más arriba, nos va a permitir tener mejores rangos y observar mejor, aunque no sea una noche real sino una noche cinematográfica. No tienen que ser las noches como las de la película ‘La máscara’ que parecen medio día pintadas de azul. Hay cosas más elegantes. Es un poco como cuando exponías el negativo; exponías a las sombras, revelabas a las luces. ¿Por qué exponías las sombras?, porque lo que no habías capturado en el negativo no había manera de rescatarlo. Voy a poner un ejemplo: En ‘Desierto adentro’, el maestro Serguei Saldívar Tanaka AMC, iluminaba el desierto de noche con una super luna y toda la idea partió porque sabía que se haría con Intermedia Digital y le podríamos bajar. Habíamos hecho unas pruebas en el Telecine y el problema que teníamos para hacer ‘Day for Night’ – que también se había planteado -, era que las piedras en el desierto brillaban mucho y había blancos que no lográbamos bajar y habría que entrar a VFX. Entonces el maestro Serguei decidió iluminar más sus noches y en la corrección de color las llevamos al punto en el que funcionaban perfectamente. Algo increíble de esa película es que, además de que las noches se ven muy bien al igual que el resto, es que fue filmada en Super 16mm y solo lo notas en ciertos High Ligths en los que el grano tiene alguna actividad.

GB: ¿Cómo manejas los VFX?

FM: Hay que tener muy claro que debes mandar un archivo correcto y lo debes recibir de vuelta de la misma manera en la que lo mandaste. Si hay algún cambio, como colorista eres responsable de decir ‘Esto no sirve’, devolverlo y que se haga de manera correcta. Deberán devolverlo en el espacio de color y en el formato que tú enviaste, eso es lo primer que debe ocurrir o tendrás muchos problemas. Si se cambia el balance de color o el espacio del mismo, es muy complicado llegar a ‘matchar’ las texturas y colores contra las imágenes que no fueron a VFX. Normalmente la corrección de color va paralela a la generación de los VFX, entonces, si ya pusiste un ‘look’ y te devuelven otro espacio de color o alguna modificación de color, tendrás que rehacer las cosas e implicará tiempo extra con el que, generalmente, no se cuenta.

Lo más importante es el manejo de los espacios de color. Muchas veces, conviene estandarizar en algún archivo que sea más amable para la ida y venidas. Cuando hablamos de un DPX resulta que tiene alrededor de 6 maneras de interpretarse, entonces al final no sabes cómo lo está viendo quien lo está viendo y cómo se va a ver cuándo tú lo abras y dónde lo hagas. Definitivamente también el camino de los TIFFS está errado, pero puedes trabajar en EXR’s que es el archivo profesional para hacer estas cosas y buscar que lo que entregas sea transparente.

Cuando hay cosas que tienes que acabar de entregar en la corrección de color como contrastes o pantallas, o por ejemplo de un green screen en el que cambian un paisaje, en esos casos siempre pido el Matte. Con el Matte trabajo aparte del compuesto que hayan hecho, lo mismo de las pantallas. Me parece que esa es la manera correcta de trabajar. En Óxido trabajamos con NUKE y entonces mando logarítmico, ellos lo monitorean en REC709 y lo regresan logarítmico, de esta manera garantizas el resultado correcto.

GB: ¿Hoy en día se le da el reconocimiento adecuado al colorista?

FM: No. Aquí hay ciertas posiciones encontradas. Hay fotógrafos que están de acuerdo en que el colorista tenga un crédito más importante, sin embargo, hay quienes no; es un tema delicado. Al final es un trabajo colaborativo. Yo digo ‘El colorista es al fotógrafo, lo que el editor al director’. Aunque el director dirigió, el que termina contando la historia es el editor. Cuando hablamos del fotógrafo y el colorista, aunque el fotógrafo obtuvo las imágenes, el colorista termina logrando la intención, esa es la importancia del colorista. Entonces me parece que este oficio está menospreciado. Estamos creando ‘Coloristas Asociados de México’ y lo que buscamos es tener mayor reconocimiento. Buscaremos apoyo de La Academia, por supuesto de los cinefotógrafos vía la AMC para llegar a los productores de una manera suave y no impositiva, buscando más el reconocimiento colaborativo y laboral que meramente por ego. Con La Asociación buscamos dignificar la profesión. Históricamente para la industria, del tamaño que sea en México, el colorista ha sido un personaje importante. Es el encargado de atraer clientes a las casas de postproducción. Sin un colorista reconocido es poco probable que crezcas como casa de post.

Es un personaje tan importante como el supervisor de VFX o el postproductor. Son roles que pesan. Si revisamos una película de los cincuenta o sesenta, no existía el colorista como tal, pero existía el ‘color timer’. En muchas de
esas películas el cartón principal al inicio dice ‘Color by Technicolor’ y debajo de eso el nombre del Color Timer, ‘Color by Deluxe’ y debajo el nombre del responsable del color timer. ¡Era un personaje importante! En algún momento dejó de pesar por algo, tal vez por falta de interés del gremio, tal vez desertaron de algún sindicato que los obligaba a poner el crédito, no sé. Era un personaje reconocido y de pronto se vino a menos.

GB: ¿Consideras que en este país se proyecta con los estándares adecuados en las salas de cine? 

FM: No, no se proyecta correctamente. La experiencia que hemos tenido cuando vamos a una sala a revisar porque habrá una premiere o el director o cinefotógrafo tienen la inquietud de cómo se va a ver en sala, normalmente la lámpara no está al 100%, nunca está donde debe; es decir que en lugar de tener los 14 Foot Lamberts, estás viendo 10 u 11. Definitivamente no ves lo que debieras ver hablando de luz; de color no quiero ni mencionarlo. La lámpara siempre está castigada, por decirlo de alguna manera. La luminosidad del proyector y la calibración también son cosas para tomarse en cuenta.

Muchas veces entras a una sala a ver una película normal pero la sala está preparada para 3D y la película no lo es; resulta que la pantalla es Silver y le roba dos pasos, entonces la ves opaca. No vemos lo que tenemos que ver. Sin duda la vida de las películas es el BluRay y el streaming; es un ambiente más calibrado o más controlado. Podemos hablar un poco del Dolby Visión que ahora conocemos por requisito de Netflix para el HDR. El Dolby Vision es con lo que se hace la conversión de HDR a SDR casi automáticamente; ajusta la curva al monitoreo que tienes y tienes un Layer para hacer un Trim para que las cosas se vean mejor y todo eso viaja en Metadata, no en imagen. Entregas una vez la imagen en HDR y lo demás es un XML que modifica las curvas dependiendo de la pantalla que tengas en casa. Esta información se lee y decide qué señal manda a tu tele.

El primer acercamiento de Netflix con Dolby no fue por el HDR – que todavía no existía, sino que tenían una preocupación por hacer que sus productos se vieran como se tenían que ver en cualquier lugar. Lo que buscaban con el Dolby Visión era que cuando bajaras cualquier contenido de Netflix, llegara una señal a tu tele y le ‘dijera’ como la tenía que reproducir para de esta manera cuidar la calidad de sus contenidos hasta la reproducción final.

GB: ¿Cómo puede mejorar la industria de la imagen en movimiento en México?

FM: Creo que tenemos que pensar en los contenidos, definitivamente tienen que ser mejores. En México tenemos grandes fotógrafos y grandes realizadores sin duda alguna, pero nos estamos quedando cortos en contenidos. Esta ola de remakes de comedias, más allá del beneficio económico que tengan, han dementado mucho el contenido. Creo que es importante seguir contando historias originales, no solo formulas probadas. La imagen en México es muy buena, podría decir que es excelente, pero sería bueno contar con mejores historias.

 

Filmar un video con un iPhone al estilo de Steven Soderbergh

Foto via Bleecker Street.

 

Inverse – Abril de 2018
Por Jourdan Aldredge

 

Aprenda cómo puede dominar la realización de películas con teléfonos inteligentes con algunos consejos y trucos de uno de los cineastas más innovadores del juego.

Hacer películas con teléfonos inteligentes ya no es un truco. De hecho, está ingresando al mundo del cine serio ahora que Steven Soderbergh, aclamado cineasta y director de Logan Lucky, Traffic, y Magic Mike, ha adoptado la tecnología en ciernes.

En un articulo recienre en Inverse, Soderbergh ofreció los siguientes puntos de vista sobre la realización de películas con teléfonos inteligentes en función de su experiencia al filmar Unsane (Perturbada), un thriller de terror psicológico protagonizado por Claire Foy, que filmó íntegramente con un Iphone 7 Plus.

Obtenga un guion y un iPhone y comience a grabar

Quizás la conclusión más importante del artículo es que la grabación con teléfonos inteligentes es una opción a la que cualquier cineasta puede acceder en cualquier momento. La industria cinematográfica es igual para todos cuando todo lo que necesitas es un guion, un teléfono inteligente y algunos amigos que te ayuden. Aquí hay algunos excelentes recursos para saltar a un guion de inmediato.

Resolución 4K

Imagen de Inverse

 

Para Unsane, el equipo de Soderbergh usó tres teléfonos iPhone 7 Plus. El iPhone 7 Plus se destaca por sus cámaras integradas de gran angular y teleobjetivo de 12 megapíxeles mientras que también graba video en 4K real a 30 fps (1080p HD a 30 fps y 60 fps). Con 4.000 píxeles finalmente como opción, la transición a la pantalla grande se vuelve mucho más viable.

Lentes acoplables

Imagen de Inverse 

 

Junto con las cámaras del iPhone 7 Plus del equipo, la producción de Unsane también usó lentes acoplables para una mayor variedad de tomas que las opciones estándar de lentes incorporados (aunque, según se informa, también las usaron). Unsane usó específicamente tres lentes Moment para una variedad de opciones de gran angular a macro: una lente de 18 mm, una lente de 60 mm y un verdadero ojo de pez.

Aplicaciones de terceros

Soderbergh también encontró algunas buenas aplicaciones de iPhone de terceros para algunas apariencias y distorsiones únicas, la más notable es FILMIC Pro (que también estaba detrás de la funcion de captura de IPhone de 2015, Tangerine). Además de ayudar a los cineastas a filmar en formatos LOG y de curva gamma plana para obtener un contenido de datos más rico usando el iPhone, FiLMiCPro ayudó específicamente al equipo de Soderbergh a crear algunas distorsiones estilizadas únicas para escenas clave de la película.

Según los informes, el equipo también usó la aplicación FILMIC Remote (que ofrece control remoto de grabación desde otro teléfono o dispositivo) para capturar algunas tomas únicas que implicaban colocar la cámara boca abajo en varios lugares creativos.

Mira al futuro.

Con Unsane ya teniendo un buen comienzo en la taquilla (después de las excelentes críticas de Tangerine), la realización de películas con teléfonos inteligentes claramente ya no es un concepto lejanoEs el aquí y ahora. Soderbergh, para su crédito, ha estado predicando durante años que hacer películas con teléfonos inteligentes es una «mirada hacia el futuro», pero con su configuración de iPhone 7 Plus sorprendentemente barata y fácil, parece que ese futuro es ahora.

Pantalla azul vs. Pantalla verde: ¿Cuál necesitas?

Por Charles Yeager
Enero de 2020

 

Vamos a aprender sobre las diferencias entre utilizar una pantalla azul y una pantalla verde para la composición de la clave de croma.

Así como el cine y las cámaras han avanzado a lo largo de los años, también lo ha hecho el uso de pantallas azules y pantallas verdes. Pero, ¿hay alguna diferencia real entre usar una pantalla azul y una pantalla verde? La respuesta es sí, y descubrirás por qué en este artículo. Si está buscando implementar una pantalla verde (o una pantalla azul) en su próximo proyecto, consulte nuestra guia de pantalla verde para conocer todos los detalles que necesita saber.

Comencemos definiendo la composición de clave cromática y viendo por qué usamos azul o verde en primer lugar. Luego, veremos los factores a considerar antes de elegir un color de pantalla para su próximo proyecto.

Definición de clave de croma

La composición Chroma Key es la técnica real de superponer dos imágenes juntas en función de los tonos de color. Cada color tiene un rango de croma, que es de donde proviene el término clave de croma. El fondo de color sólido actúa en gran medida como un mate para su material de archivo. Más tarde, en la posproducción, puede eliminar el fondo de color sólido para hacerlo transparente, lo que permite la composición.

Orígenes del color

¿Por qué usamos pantallas de color azul y verde? Porque son los colores que más se alejan de los tonos de la piel humana. Si observa una rueda de colores, observe que el azul y el verde se encuentran en el lado opuesto de donde suelen estar los tonos de piel.

El azul y el verde son los que más se alejan de los tonos de la piel humana, lo que los convierte en los más lógicos para usar como fondo.

 

Con la película, las pantallas azules se utilizan por varias razones. En primer lugar, el canal azul de la película tiene el grano más pequeño, lo que da como resultado un mate más limpio en los bordes y una imagen de mejor calidad. En segundo lugar, cuando el color azul se expone en una película en blanco y negro usando una luz azul, el color azul aparece como blanco brillante, que se puede usar con una impresora óptica para comenzar el proceso de composición. Para obtener más información sobre las pantallas azules y el proceso de impresión óptica, consulte el fantástico artículo de Mark Vargo sobre cómo trabajar en las películas originales de Star Wars y su cortometraje Blue Screen 1980.

Cuando las películas comenzaron a pasar a un proceso de posproducción digital, se produjo el surgimiento de la pantalla verde. Varios factores contribuyeron a esto, incluida la creciente popularidad de las cámaras digitales. Por un lado, la mayoría de las cámaras digitales capturan el doble de información verde que la capturan con los colores rojo o azul. Esto se debe a que el canal verde también se usa para la luminancia, lo que, a su vez, hace que el verde sea más fácil de eliminar en la posproducción. Las pantallas verdes también requieren menos luz que las pantallas azules porque el verde refleja más luz, nuevamente, porque tiene una luminancia más brillante. Requerir menos luz significa que es más barato de usar. El verde brillante también es un color mucho menos común en el vestuario y el guardarropa,

¿Cuál usar: azul o verde?

Así que la respuesta es clara, ¿verdad? Las pantallas verdes son superiores a las pantallas azules. Bueno, la realidad es que todo depende del proyecto. En la mayoría de los casos, una pantalla verde le servirá mejor. Pero, esto no es cierto en todos los casos. Exploremos los pros y los contras de las pantallas verdes frente a las pantallas azules.

Pantalla verde: pros y contras

Comencemos con las ventajas de usar una pantalla verde. Como se mencionó anteriormente, la mayoría de las cámaras digitales capturan más información en el canal verde. Esto da como resultado una clave más limpia alrededor de su sujeto, con menos artefactos de ruido. Las pantallas verdes también requieren menos luz, por lo que son geniales si tienes un presupuesto limitado. El derrame de las pantallas verdes también puede facilitar la composición de sujetos en una escena diurna, ya que el verde es más brillante. Esto le da al compuesto una apariencia más natural. Por último, una gran cantidad de efectos y herramientas de codificación digital están configurados para eliminar el verde de forma predeterminada. Esto puede acelerar su flujo de trabajo de posproducción, requiriendo menos ajustes para una clave limpia.

Las pantallas verdes requieren menos luz y capturan más información en el canal verde.

 

La mayor desventaja de las pantallas verdes es la cantidad de color derramado. Debido a que el color verde es más brillante que el azul, naturalmente rebota más luz. Esta luz tendrá un tono verde. (Actúa como una luz verde gigante y suave detrás del sujeto). Esto significa que los sujetos tendrán más color derramado sobre ellos, y puede resultar más complicado eliminar ese color derramado en la posproducción, especialmente cuando se trata de elementos como cabello, malla, reflejos metálicos o detalles finos de vestuario. Las pantallas verdes tampoco son ideales si está componiendo su sujeto en una escena nocturna u oscura. Una vez más, esto se debe a que el sujeto aparecerá anormalmente brillante debido a la luz reflejada de la pantalla verde.

Pantalla azul: pros y contras

El principal beneficio de las pantallas azules es que hay una pérdida de color considerablemente menor. Esto se debe a que el color azul tiene un valor de luminancia más bajo, por lo que no refleja tanta luz. Esto es de gran ayuda cuando tiene que filmar sujetos con pequeños detalles, ya que podrá retener ese detalle una vez que se complete la incrustación. Del mismo modo, puede ser muy difícil resaltar sujetos con cabello rubio en una pantalla verde. La clave de croma a menudo recortará demasiado el cabello. Los sujetos con cabello rubio son mucho más fáciles de capturar en una pantalla azul. Las pantallas azules también funcionan mejor para las composiciones nocturnas, ya que reflejan menos luz sobre el sujeto.

El color azul tiene un valor de luminancia más bajo, lo que permite que se derrame menos color sobre el sujeto. Imagen vía Mark Vargo.

 

La mayor desventaja de las pantallas azules es que requiere más luz para exponerse correctamente que las pantallas verdes. Esto puede ser problemático si no tiene una iluminación potente disponible o un presupuesto lo suficientemente grande para suministrar ese tipo de iluminación. Otra desventaja de las pantallas azules es que el color azul es mucho más común en la ropa y los disfraces. La ropa como jeans azules o un traje de negocios teñido de azul puede ser problemático, ya que requiere mucho más trabajo para teclear en la posproducción.

Conclusiones: pantalla verde frente a pantalla azul

Entonces, ¿Qué color de pantalla debería elegir? Como mencioné anteriormente, siempre va a depender del proyecto. Pero, aquí hay algunos factores a considerar cuando estás sopesando tus opciones.

Ventajas de las pantallas verdes:

  • Da como resultado una clave más limpia porque las cámaras digitales recogen más información
  • Requiere menos iluminación
  • La alta luminancia es buena para las escenas diurnas
  • Color poco común en la ropa.

Contras de la pantalla verde:

  • El derrame de color puede ser demasiado intenso, especialmente en detalles finos y bordes (o cabello rubio)
  • La alta luminancia no es ideal para escenas oscuras o nocturnas.

Ventajas de la pantalla azul:

  • Menos derrame de color es ideal para sujetos con detalles finos y bordes.
  • Una luminancia más baja es buena para escenas oscuras o nocturnas

Contras de la pantalla azul:

  • Requiere más iluminación, lo que puede ser costoso
  • Color de ropa común, lo que dificulta teclear en la edición

Mas allá de azul y verde

Incluso puede explorar el uso de otros colores para su pantalla de fondo. De hecho, tener un fondo totalmente negro o blanco es una opción, dependiendo de lo que esté filmando. Siéntase libre de ser creativo con él: se han utilizado muchas técnicas de pantalla diferentes a lo largo de las décadas. John Hess tiene un video sobre la evolución de la composición de pantalla verde que, recomiendo mucho, si desea saber más sobre la historia de la técnica.

Jin-mo Yang y sus técnicas de edición en ”Parasite” de Bong Joon-ho (2019)

Por Robbie Janney

Febrero de 2020

 

El editor Jin-mo Yang, nominado al Oscar, explica por qué todavía usa Final Cut Pro 7 y comparte su enfoque para editar Parasite, ganador del Premio de la Academia 2020 a la Mejor Película.

 Es difícil explicar la experiencia teatral que obtienes al ver Parasite. Es una auténtica montaña rusa de géneros, que pasa de un drama enérgico a una versión satírica de la estructura de clases, y luego te lanza por una colina empinada de la nada hacia un terrorífico territorio de suspenso. Cambia, se mueve, se tuerce y teje a través de estructuras de géneros cinematográficos tradicionales, dejando a la audiencia con un final deslumbrante pero confuso. Pero, ¿qué más podemos esperar del maestro cineasta Bong Joon-ho?

 Parásitos ha deslumbrado a las audiencias de todo el mundo, actualmente recauda 133 millones de dólares en todo el mundo, y ha obtenido tanto el premio Globo de Oro a la Mejor Película como el Premio de la Academia a la Mejor Película. También obtuvo un barrido histórico en los Oscar de este año, asegurando los premios a Mejor Película, Mejor Director, Mejor Largometraje Internacional y Mejor Guión Original.

Jin-mo Yang recibiendo un premio por Parasite. Imagen vía CJ Entertainment.

 

Si abrimos el telón detrás de la realización de esta increíble pieza cinematográfica, hay mucho arte que acompañó a la visión de Bong Joon-ho formada en la sección de edición. Eso es todo gracias al editor nominado al Premio de la Academia de Parasite, Jin-mo Yang. Jin-mo ha colaborado con Joon-ho en algunas de sus otras obras famosas, como Okja y Showpercer.

Pudimos sentarnos con Jin-mo Yang para hablar sobre su flujo de trabajo para la película y su proceso durante la posproducción para lograr el fantástico resultado final.

Con un poco de ayuda de la edición en el set

 

Bong Joon-ho filmando una escena de Parasite. Imagen vía CJ Entertainment.

 

 Uno de los trucos de bolsillo de Jin-mo para capturar la energía durante la filmación es utilizar un editor en el set. Su asistente tomó las tomas directamente de la cámara y luego realizó una edición rápida sobre la marcha, de modo que el director y los actores tuvieron una referencia sólida para observar mientras interpretaban las escenas.

Jin-mo Yang: Tuve a mi editor asistente en el set, que ha hecho ediciones en el set para Okja, en Corea, también. Recibí las ediciones en el set en mi sala de edición y di retroalimentación directa, preparándome para la edición final. Entonces, esas ediciones en el set fueron en realidad las ediciones de montaje. Lo que aprendí de la edición en el set es que pude sentir más energía viral en el set, lo cual es inimaginable en la sala de edición. Tal energía, de hecho, no es esencial cuando se monta, pero es una experiencia crucial que un cineasta y un editor deben adquirir. En el set, el personal de producción y los actores luchan mucho para realizar una escena, y el editor en el set debe refinar esas escenas visualmente justo después del rodaje y mostrárselas al director para pasar a la siguiente escena con confianza. Con dicho proceso, puede encontrar fácilmente el ritmo de la secuencia y finalizarla con la versión preeditada con una estructura básica.

La técnica de edición de Yang crea un ritmo para cada escena. Imagen vía CJ Entertainment.

 

Este truco de edición en el set es extremadamente útil para evitar perder una toma. Y, dado que Bong Joon-ho no graba cobertura ni tomas maestras, es una excelente manera de preparar al editor cuando comienza sus primeros pases en la bahía de edición.

Uso de Final Cut Pro 7 en 2019

 

Yang utilizo Final Cut Pro 7 al editar Parasite. Imagen vía CJ Entertainment.

 

 Una de las partes más interesantes para aprender sobre Jin-mo (pero que no sorprende a los editores experimentados desde hace mucho tiempo) es su preferencia por Final Cut 7. Muchos editores de la vieja escuela saben que la actualización de Final Cut 7 a Final Cut X fue un cambio drástico y apagó muchos editores del NLE insignia de Apple.

 

Jin-mo Yang: Uso Final Cut Pro 7. He estado usando este programa durante más de veinte años y creo que es el programa más conveniente y estable. Pero, dado que Apple ya no es compatible con el programa, necesita mantener el sistema operativo en la versión Mac OS Yosemite. Siempre empiezo a editar desde la primera escena. Sobre todo, empiezo con cortes ásperos. Para “Parasite”, las ediciones en el set fueron las ediciones de montaje. Entonces, primero veo las ediciones completas en el set y las perfecciono desde la escena número uno..

Las ediciones en el set ayudaron tanto a los actores como al equipo con referencia a las líneas de tiempo. Imagen vía CJ Entertainment.

 

Jin-mo Yang: Cuando termino de afinar las escenas, reafirmo todo el flujo y el tempo de la película, y luego vuelvo a las escenas que tienen problemas, para editarlas plano a plano. Repito este ciclo una y otra vez hasta finalizar hasta los detalles más minuciosos. Después de obtener las tomas de música, ADR y VFX, las puse en cortes para que puedan mantener el flujo. Como sucede con la mayoría de los editores, una vez que haya encontrado su software de edición preferida, es difícil desconectarlo. Ahora, solo necesitamos que Apple lance una edición heredada de Final Cut Pro 7, por lo que no tenemos que mantener nuestras computadoras en Yosemite para acceder al programa.

Uso de la experiencia VFX en Edit Bay

 

Las tomas y transiciones orientadas a los detalles de Parasite ayudaron con el ritmo de la película. Imagen vía CJ Entertainment.

 

Una de las partes más fascinantes de Parasite fue su ritmo estelar, todo gracias a las tomas de montaje extremadamente orientadas a los detalles y las transiciones magistrales de un género a otro. Pero, a primera vista, no parece que se haya usado ningún VFX para crear estas secuencias. Dado que Jin-mo Yang tiene una gran cantidad de experiencia con VFX, como ser el supervisor de VFX para Snowpiercer de Joon-ho, pudo unir tomas para obtener ese aspecto específico que quería de la toma, que no fue capturado en el set.

Jin-mo Yang: Me encanta la secuencia caótica de «Ram-Don». Pero, una vez más, uno de los problemas que enfrentamos durante la edición fue que el ritmo de ciertas tomas se estaba retrasando. Esto iba en contra de la energía caótica que buscábamos.

Imagen vía CJ Entertainment.

 

Jin-mo Yang: Una solución que se me ocurrió fue «unir» varias tomas que tuvieron buenos ritmos, para que parecieran una sola toma. Por ejemplo, hay un plano cenital de las manos de Chung-sook preparando el ram-don. El problema era que los movimientos de Chung-sook eran demasiado lentos, lo que hacía que la toma fuera demasiado monótona. Entonces, sugerí que usáramos diferentes tomas para cada una de sus manos, para que pareciera que las está moviendo simultáneamente. Al ver la toma final, no notará que se creó uniendo varios componentes de dos tomas diferentes.

Imagen vía CJ Entertainment.

 

Jin-mo Yang: Otro ejemplo sería la toma de Ki-taek y Ki-woo, cada uno arrastrando a Geun-se y Moon-gwang hacia el búnker subterráneo. Esta también fue una composición de dos tomas diferentes porque después de que Ki-taek y Geun-se aparecieran en la toma, pasó mucho tiempo antes de que aparecieran Ki-woo y Moon-gwang. Entonces, una vez más, cosí las figuras para que estuvieran muchas más juntas y pudiéramos crear mucha acción en una sola toma. A través de esta técnica, pudimos crear los ritmos y ritmos exactos que queríamos. Aunque sutiles, estos ajustes fomentaron la energía caótica que perseguimos. Como ya puede adivinar, unir dos tomas como si resultase una tarea frecuente para mí. Uno de mis puntos fuertes es que mis habilidades de VFX son lo suficientemente competentes como para crear tomas de «simulacro» convincentes en el acto. Por lo tanto, podemos experimentar libremente, sin tener que esperar a que los proveedores de VFX creen las tomas.

La experimentación de Yang en el set facilitó el logro del éxito general de la película. Imagen vía CJ Entertainment.

 

Los editores saben que puede ser un proceso tedioso esperar a que un artista de VFX se comunique con usted con maquetas, por lo que tener la capacidad de obtener el aspecto que desea sobre la marcha, con su propia experiencia, es una excelente manera de obtener un corte preliminar con el aspecto que desea antes de enviarlo para recibir el tratamiento de VFX.

Pintar el ritmo del ritmo

 

La adaptación de una escena fue de gran importancia en el rodaje de Parásitos. Imagen vía CJ Entertainment.

 

Dado que Parasite se formó principalmente en los guiones gráficos, con poco espacio para la improvisación, el trabajo completo de edición no fue tan intenso para Jin-mo como en otros proyectos que ha encontrado. Pero una de las partes más difíciles del proceso de edición fue conseguir el ritmo adecuado en algunas escenas. En la escena final absolutamente loca de la película, hubo algunos momentos que tenían un significado extremo que necesitaban ser examinados y adaptados por expertos hasta el último cuadro.

Jin-mo Yang: De hecho, Parasite tuvo el proceso más fluido de lo que he editado hasta ahora. La edición en si no fue difícil. Más que la estructura de la película, creo que lo más importante para editar Parasite fueron los detalles y el ritmo de algunas escenas específicas. Si realmente necesito señalar uno, me gustaría decir que fue la «escena de la fiesta de cumpleaños». Hay una escena en la que Ki-taek y el Sr. Park hablan entre ellos vestidos con trajes de nativos americanos. Puse mucho esfuerzo en esa escena, ya que la esencia de la escena era maximizar la tensión entre los dos y capturar el estado emocional de Ki-taek con un toque delicado. Repetir este montón de tiempo para acortar y aflojar los cuadros con el fin de establecer un momento perfecto incluso para el momento de parpadeo de Ki-taek y el Sr. Park.

Los detalles y el ritmo de escenas específicas fueron de gran preocupación para Yang. Imagen vía CJ Entertainment.

 

En el clímax de la película, el patriarca de la familia Kim, Ki-taek, da un giro dramático —de una manera escalofriante— y apuñala a su jefe, el Sr. Park. Esta escena fue la culminación de todos los eventos de la película que se unieron de una manera extremadamente caótica. Dado que la revelación no se cuenta a través del diálogo, la edición de las tomas anteriores al apuñalamiento requirió un buen ojo para observar las expresiones que mostraron los actores para transmitir el mensaje.

Jin-mo Yang: La secuencia más difícil de editar fue transmitir completamente el cambio en las expresiones faciales de Ki-taek justo antes de apuñalar al Sr. Park. Desde que recibió el guión de Parasite, le preguntaron al director Bong por qué Ki-taek asesinó al Sr. Park. En ese momento, se sintió algo fuera de lugar. Al final, creí en la destreza actoral de Kang-hoSong (quien interpreta a Ki-taek). En cada momento esta secuencia, trabajé para descubrir las emociones y expresiones faciales más sinceras de Ki-taek. Cuando el Sr. Park lo “regaña” por no seguirle la corriente a la fiesta temática de los nativos americanos, su expresión facial comienza a cambiar de tal manera que la audiencia se convence de que Ki-taek está “cambiando” internamente.