El cine y la pandemia

Publicado por Comunicación AMC – Marzo del 2021 
Por Ximena Ortúzar

 

A los innumerables estragos causados por la pandemia del Covid-19, se suma el fuerte impacto negativo que ha causado a la industria del cine. El cierre masivo de salas ocasionó que el stock de los cines descenciera dramáticamente ocasionando pérdidas de taquilla global de miles de millones de dólares.

El cierre de las salas y la correspondiente suspensión de decenas de estrenos han paralizado a la vez centenas de rodajes. Algunas producciones se  reanudaron meses después adaptándose a la “nueva normalidad” y aplicando los  protocolos sanitarios. Bajo este nuevo esquema la filmación de cintas  como  Jurassic World: Dominion;  The Batman; Misión Imposible 7  y Avatar se reanudó  en sus respectivas locaciones. Sin embargo,  los protocolos no evitaron contagios dentro de los sets de The Batman y Jurassic Word: Dominion, obligando a detener la filmación por segunda vez.

La esperanza de una “nueva normalidad” se desvanece ante la aparición de la segunda ola de contagios ocasionada por una o más nuevas cepas del virus,  lo que arrastra a la industria cinematográfica a su peor crisis.

A su vez, la pérdida de las salas de cine a nivel mundial supera los 30 mil millones de dólares, según un estudio realizado por Omdia (consultora de medios y tecnología), equivalentes a un déficit mayor al 70 por ciento de sus ganancias respecto de años anteriores.

A grandes males. . .

Cuando los cines fueron obligados a cerrar,   la mayoría de las distribuidoras  informaron del retraso de sus estrenos. Pero pronto debieron optar por hacer  cambios.   En Estados Unidos, varias películas que se acababan de lanzar  y  no habían conseguido por falta de tiempo  recuperar siquiera el presupuesto invertido,  anunciaron su exhibición por diferentes medios. Por ejemplo: Frozen 2 (Disney, estrenada en noviembre de 2019)  o  Bloodshot (Sony, estrenada en febrero de 2020), podían verse  en plataformas pocos días después de estrenarse en cines con la menor recaudación desde 1998. Esta nueva modalidad de exhibición de películas produjo un aumento considerable en el número de abonados a las plataformas audiovisuales.

Ante la nueva realidad,  Universal quiso evitar la pérdida de varios millones de dólares invertidos en promover   Trolls 2  y mantuvo la fecha de estreno para el 10 de abril de 2020. . . pero en streaming.  Según un informe de The Wall Street Journal,  Trolls 2  –en streaming- lanzada a un precio de 19,99 dólares por 48 horas de alquiler,  recaudó más de lo que habría obtenido por la exhibición de la película original en  salas,  en cinco meses.

Para Universal el cambio de exhibición en salas a la distribución por streaming ha resultado un  negocio redondo al ganar mucho más que si la hubiera estrenado en cines. El distribuir sus filmes por  streaming, el productor recibe el 70 por ciento  de las ventas; al hacerlo a través de salas obtiene, en el mejor de los casos,  un 50 por ciento.  La web Indiewire calcula que para ser rentable, Trolls 2 necesitaría vender 32 millones de entradas,  en tanto al comercializarla a online  bastarían  diez millones de clientes premium.

Lo anterior ha incentivado a  varios realizadores de cine a presentar  sus películas  directamente en las plataformas de streaming, conscientes de la muy cuantiosa  audiencia obligada a permanecer  cautiva en sus casas. Los resultados son impactantes:  El Hoyo, película española y  Milagro en la celda 7, película turca  –ambas realizadas lejos de Hollywood-, ambas difundidas a través de la plataforma Netflix- han registrado un récord de consumo.

Fotograma: “Milagro en la celda 7”

 

El cine en casa

A falta de salas de cine y la extensión en tiempo de la cuarentena,   el público ha optado por acompañar sus largas horas de confinamiento con películas, documentales y series  difundidas a través  del streaming, por lo que consideran a esta modalidad una ventaja. Conscientes de esta realidad algunas distribuidoras se abocaron rápidamente a encontrar cauces para sus estrenos. Algunas de las fórmulas ya ensayadas podrían sugerir cómo será la distribución  futura del cine. En contraste, los creadores de cine  consideran que con ellas se ha perdido la cercanía en la grabación como así también con el público. Esta diferencia de apreciación entre unos y otros  no es nueva.  La pandemia ha reavivado antiguas controversias acerca, por ejemplo, entre el teletrabajo o la necesidad de digitalización, un debate antiguo que la pandemia ha vuelto a poner de actualidad. Por su parte,   muchas  empresas propietarias de salas  de cine han acordado rechazar la exhibición de películas de Universal cuando reabran. Y así lo han hecho saber a través de una carta que terminó diciendo: “No es una amenaza falsa ni poco meditada”.

En México . . .

La pandemia ha ocasionado que las cadenas de cine en México hayan dejado de vender 251 millones de boletos, equivalentes a  13 mil 631 millones de pesos. Según datos de la Cámara Nacional de la Industria Cinematográfica, Canacine,  los cines del país cerraron el año 2020 con una pérdida superior a 15 mil millones de pesos. “El impacto fue brutal, superior a 80 por ciento, se vendieron solo 62 millones de boletos”, informó  Tábata Vilar, directora de la entidad.

Acorde a informes entregados por Canacine,  del 25 marzo al 15 noviembre de 2020 se vendieron en el país solo 10.5 millones de boletos de cine, en tanto que igual periodo de 2019 la cifra fue de 261.5 millones de boletos, afectando no sólo a las grandes empresas exhibidoras como o Cinépolis o Cinemex, sino a toda la cadena productiva cinematográfica del país. Señala además, que alrededor de 50 mil familias dependen de manera directa de la industria cinematográfica y hay otros 150 mil empleos indirectos.

Los exhibidores mexicanos enfrentan además otros retos: las condiciones de reapertura han sido diferentes en cada ciudad,  dados los  diferentes porcentajes de aforos que van del 25 al 50 por ciento a diferentes salas,  además de diferentes casos de restricción de días de la semana, de horarios o La mayoría de los premios cinematográficos han modificado sus requisitos para aceptar películas que, por esta alerta, se hayan estrenado en streaming. El caso más llamativo es el de los Óscar. La Academia de Hollywood emitió un comunicado en el que, después de defender que “no hay mejor manera de experimentar la magia de las películas que verlas en un cine”, permitía a las estrenadas online optar a los famosos premios. “Reconocemos la importancia de que su trabajo se vea y se aplauda, especialmente ahora, cuando las audiencias aprecian las películas más que nunca”, declaraba la Academia en este comunicado sin duda histórico… como los tiempos que corren. Estudios realizados por Canacine  señalan que el 95 por ciento de los espectadores que asisten a una sala de cine consideran que los protocolos implementados por las cadenas les parecen seguros.

Eduardo Vertty AMC 

Daniel Jacobs AMC

 

Cambios en el Oscar

También los premios  cinematográficos en su mayoría  han modificado sus requisitos para aceptar películas que, debido a la pandemia, han sido estrenados en streaming. Tal es el caso de los Óscar. Así lo anunció {La Academia de Artes y Ciencias Cinematográficas en un comunicado publicado  en su página de internet,  en el que  reconoce “no hay mejor manera de experimentar la magia de las-películas que verlas en un cine”,  pero –dadas las circunstancias– este año se aceptarán películas estrenadas online para optar a la estatuilla 2021, aunque no hayan sido exhibidas previamente en salas, dado que  el cierre de los salas de cine ha obligado a modificar el reglamento vigente, señalando que dicha modificación no tiene necesariamente  carácter permanente. En esta ocasión y por primera vez, las películas candidatas a mejor largometraje extranjero estarán disponibles en la plataforma de transmisión Academy Screening Room. A través de ella los miembros de la Academia  votarán para a elegir la ganadora.

Para postular a una nominación, la película  debe ser proyectada en una sala de cine comercial en los condados de Los Ángeles por al menos siete días consecutivos y con un mínimo de tres veces al día. En esta ocasión los  organizadores  de la premiación decidieron ampliar la cantidad de cines que pueden calificar e incluyeron a áreas metropolitanas en la ciudad de Nueva York; Chicago, Illinois; Miami, Florida; y Atlanta, Georgia. La Academia anunció también que se aceptará la condensación de dos categorías de sonido en una sola. La transmisión de la 93ª entrega de los Oscar está programada para emitirse el 28 de febrero de 2021 por la cadena estadounidense ABC.

David Rubin,  presidente de la Academia, emitió un comunicado con el siguiente texto: “La Academia apoya a nuestros miembros y colegas durante este tiempo de incertidumbre. Reconocemos la importancia de que su trabajo sea visto y celebrado, especialmente ahora, cuando el público aprecia las películas más que nunca”.

 

Fernando Medellín; Un mundo a colores

 Publicado por Comunicación AMC
Por Gerardo Barroso AMC, 9 de enero de 2020 
Fotos cortesía Fernando Medellín

 

Estudié foto fija en la Escuela Activa de Fotografía. Hice foto comercial un tiempo, foto de autor otro rato y, por cosas del destino, terminé trabajando para Ollin Estudio, Casa de Postproducción. Al principio les hacía fotos de referencia para lo que modelaban en 3D. Un día Charly Iturriaga, que era el director de Animación, me invitó a trabajar con él haciendo iluminación digitalmente en 3D. Yo no conocía el software con el que trabajaba pero él me dijo: “Necesito a alguien que sepa cómo trabajar la luz, el software lo aprendes”. Fue así que empecé a practicar esto y comencé a hacer la iluminación en 3D. El estudio comenzó a crecer y, además de animación, comenzaron con On Line con Smoke, Flame e Inferno.

Aproximadamente un año después, el estudio instaló la primera sala de Telecine. En ese momento yo me la pasaba de sala en sala para atender más y más. Entonces fue cuando Charly me propuso quedarme en esa área y acepté. Comencé asistiendo al primer colorista que trabajó en Ollin, un español que hizo carrera en Londres. Con él aprendí todo sobre las máquinas. Después asistí a otros coloristas como Victor Bautista y José Luis Regalado “el Joe”, con quienes aprendí el oficio.

Gerardo Barroso: ¿Qué es lo que más disfrutas de tu oficio como colorista?

Fernando Medellín: Buscar el look junto al fotógrafo; llegar a un acuerdo sobre qué quiere ver y plasmarlo con el material con el que se cuenta. Ese reto es el más satisfactorio, obtener el mejor resultado lo más apegado a su visión.

GB: ¿En qué sistema te gusta trabajar más?

FM: Tengo mucho tiempo sentado en un Base Light; me tocó estrenar el primero que hubo en México. Siempre he estado de una u otra manera, ligado al software y hardware de la marca. Puedo corregir en varios sistemas, sin embargo, el Base Light es mi favorito. Siempre he pensado que la mejor herramienta es a la que más acostumbrado estás. El Resolve es muy buen software; hay muchas máquinas buenas para corregir, el Nu coda es muy poderoso, sin embargo, tengo tanto tiempo en el Base Light que es mi preferido.

GB: ¿Qué le recomiendas a un cinefotógrafo que está iniciando un proyecto?

FM: Que prueben todo, cámaras y lentes. Que busquen su look y las texturas que les gustan o buscan para el proyecto. Trabajo mucho con Guillermo Granillo AMC, AEC y siempre trae pruebas de look y las corregimos. Entonces ya tiene una plancha para el set, ya tiene una idea de lo que va a ocurrir después con ciertos colores y ciertos contrastes. Cuando llega aquí, ya no hay sorpresas. Recomiendo que prueben, prueben todo lo que puedan, todo.

GB: Descríbenos el procedimiento ideal para lograr el look de una película.

FM: En mi experiencia las pruebas de look son muy importantes. Hacerlas con las diferentes iluminaciones que se proponen, porque muchas veces en esas pruebas se toman decisiones de óptica, de qué tan dura o suave será la luz, qué tanto color, y probar texturas, maquillajes, cómo le funciona la luz a los actores. Creo que es el mejor comienzo para que la imagen llegue a buen fin. Cuando ya está conversado, la búsqueda es más corta cuando comienza la corrección de la película. Corrijo esas pruebas de cámara, desde ahí genero archivos que se llaman BLG’s. Puedes cargar estos archivos en cualquier software de Filmlight y estos contienen la corrección de color que realizaste. Estando en locación se cargan en el Daylight en nuestras unidades móviles de Data y Dailies y se van ajustando en las diferentes condiciones de luz. Después esos BLG’s regresan a mi para la corrección de color. Digamos que funcionan en un 25 o 30 por ciento, pero ese porcentaje me sirve para ir dirigiendo la corrección de color de la película a cierto lugar. En lugar de invertir tiempo buscando un look, se invierte en mejorar lo que ya tenemos. Los BLG’s son como el DRX que es el archivo de color que importas para llevar la corrección de un Resolve a otro. Este archivo que se hace cuando grabas el still guarda la información de la corrección.

GB: ¿Cómo es la colaboración ideal con un cinefotógrafo?

FM: Definitivamente es involucrándome con él desde la propuesta, una vez que haya decidido hacia dónde quiere ir, hacer pruebas y ver de qué manera llegamos a lo que se busca. Al final mi trabajo es complementario y colaborativo, me gusta proponer para enriquecer la idea del cinefotógrafo.

GB: Danos un ejemplo de cuál sería el flujo perfecto para ti.

FM: Voy a poner un ejemplo que tal vez no es representativo dentro del mercado en México, pero es la manera más precisa con la que he trabajado, ‘Roma’. Con ‘Roma’ se generaban Dailies para editorial, tenía un DIT, un Data y un Video Assist. El Data se encargaba de guardar todas las imágenes, que nada se perdiera, y generaba los archivos para Dailies. De esos archivos nos separaba los clip’s que el director quería ver en su revisión nocturna. Esos clip’s se cargaban en el BaseLight y por las noches venían a revisarlos. De todo lo demás se hacía un back up en LTO’s y se mandaba al estudio para que empezaran la corrección de los Dailies editoriales que tenían un colorista que los emparejaba para que editorial lo viera uniforme y no hubiera saltos. Eso es el ideal. Mientras tanto lo que hacíamos con Alfonso Cuarón era tocar el material; veía cosas que le gustaban y otras que no e iba calificando y guardando referencias. Cuando los looks o LUT’s van y vienen del set al centro de postproducción y viceversa, es muy importante que todos trabajemos en el mismo espacio de color; si movemos cualquier cosa ya no funciona. Parece muy básico, pero es un error muy común.

GB: ¿Algún dato técnico que quisieras compartir con el cinefotógrafo?

FM: Podríamos hablar un poco de que es lo que pasa con el HDR. Hay gente que aun piensa que es como el de la foto fija. En foto fija se hacían dos o tres exposiciones, a veces cinco. Después, de todo hacías un Mix en el HDR SHOP o algún software. Entonces mezclarlas las imágenes y obteniendo los negros y blancos que deseabas. Había una técnica de ampliación en blanco y negro a la que llamaban ampliación por zonas y entonces usabas un papel multigrado; utilizabas un filtro para los negros, un filtro para los highlights y un filtro para los tonos medios. Esa era la manera análoga de hacer HDR en blanco y negro. La técnica es muy interesante. Sacabas exposiciones con cada uno de los filtros, después con la regla de tres sacabas los porcentajes por filtro para después sacar esos porcentajes en tiempo. Quedaban cosas espectaculares.
Seguimos pensando que de esa manera se hace el HDR en video. Algún tiempo la RED lo hizo así, capturaba dos cuadros de lo mismo, uno para las bajas y otro para las altas y después lo mezclaba. Corregí así una película chilena, ‘Hermanitos’, y dio muy buen resultado. Cuando se movían mucho las cosas tenían una especie de Motion Blur que no era realmente eso, sino un blending de las dos exposiciones, pero era muy aceptable y lo podíamos modular con un control en el corrector de color.

Lo que ocurre ahora con el HDR es que cambió el estándar de monitoreo. Cualquier imagen que esté capturada en 10 BIT o más es HDR. Cambió el monitoreo. Los monitores en estándar están calibrados a 100 NITS que es la unidad con la que se mide la luminancia de los monitores. El monitor X300 de Sony, ve hasta 1000 NITS y hay monitores más grandes que ven 3000 NITS y existe un Pulsar de Dolby que ve 5000 NITS. El cambio fue que ahora tenemos 10 veces más luz para ver la imagen y eso nos da imágenes más brillantes, con mayor profundidad de color y por supuesto con negros más profundos. Cuando se habla de las cámaras profesionales digitales de cine, siempre se habla de 14 pasos de rango dinámico; cuando lo veías en el momento te preguntabas ¿Dónde están?, tal vez veías 8. Con el HDR no vemos los 14 pasos, pero si vemos 12 o 13. Eso asusta a muchos porque no desean tener toda esa información. Lo interesante es que tenemos todo ese rango para discriminar y utilizar el que queramos. Puedes tener negros muy ricos con medios tonos increíbles y la imagen no tiene que ser muy contrastada. Lo que cambió fue la forma de ver.

GB: ¿Debes tener ciertas consideraciones para fotografiar el HDR?

FM:  Sí. Estas imágenes hermosas que hacíamos a contraluz, en las que el fondo se volaba y eras capaz de lograr buen detalle al frente y no te importaba el fondo, resulta que, si ahora haces lo mismo, el fondo te deslumbra y tienes todo el detalle: se ven los cables, los pajaritos, los arbolitos. No es como lo que veíamos antes, esto sigue teniendo información y los highlights deslumbran. Hay que buscar la manera de suavizar la escena, hacer un key más bajito para lograr una imagen más apegada a lo que queremos ver porque al final esas imágenes pueden quedar muy crispis y te remiten al ‘video’. Debemos entender el HDR para lograr un look cinematográfico. Se puede obtener una imagen cinematográfica muy bonita en HDR. En resumen, hay que suavizar el contraste.

Respecto a los NITS de los monitores ADR, a partir de 300 NITS se considera HDR. Hay de 300, 400, 600, 1000, 2000, 3000 y de 5,000 NITS que es un pulsar de Dolby que trabaja con tanta potencia que no lo mueven de lugar; si quieres trabajar con él debes ir a Los Ángeles. Fue un prototipo y se decidió no fabricarlo, es muy complicado. Creo que el estándar, más allá de lo que estamos viendo ahora, va a quedar en no más de 600 NITS. Hay un problema de consumo de energía. Los monitores HDR tienen el doble o triple de consumo de energía porque aumentó muchas veces la luz que emiten. Las teles HDR comerciales ven 580, 550 NITS y las HDR 100 NITS.

GB: Describe la diferencia entre trabajar en un largometraje y una serie. ¿Cómo cambia la relación con el cinefotógrafo?

FM: Una de las diferencias, además de la duración, es el tiempo que te dan para corregir. Corregí una película en 50 horas para 75 minutos de duración, fue la película en la que menos tiempo he tenido minutos y hacen un capítulo a la semana. Por supuesto una película se detalla mucho más. La manera en la que me gusta trabajar es la siguiente: trabajo los primero 4 o 5 días con el fotógrafo en jornadas de no más de 6 horas haciendo ‘setup’ que es: pongo abierto, más plano y contraplano y las otras las ‘matcho’ en mi tiempo y así vamos secuencia por secuencia para ir marcando toda la película. Una vez que tengo eso me siento a hacer el ‘match’ fino. Después reviso con el fotógrafo nuevamente, ajustamos cosas, detallamos y una vez terminado esto, presentamos. Este proceso toma tres o cuatro semanas dependiendo de lo complejo de la película y las horas con las que se cuenta.

Cuando hago la corrección de una serie tengo que plantear muy bien el look con el fotógrafo desde el principio. Muchas veces revisamos el primer capítulo y después puedo trabajar prácticamente solo. A veces hay revisiones eventuales con el director o alguien más. En la última serie que corregí –‘Monarca’-, el director Fernando Rovzar, quien además era el show runner, venía a revisar todas las correcciones de color. Era un capítulo por semana por lo que había que corregir, revisar, ajustar y pasar a SDR porque esta serie se corrigió en HDR. Eso nos dejaba tres días de color porque además debíamos presentarla. Las series son menos detalladas, pero debes ser más eficiente y ver la manera de lograrlo, de no meterte el pie. Tengo muchos años en esto y ya no me conflictúa el tiempo, lo puedo lograr. Hay que ir midiendo ‘qué tanto es tantito’ y hasta dónde trabajas o sobre trabajas la imagen. En las películas te puedes dar lujos que, en las series no.

GB: ¿Cómo manejas la calibración?

FM: Decidimos no hacerlo internamente, son muchas salas, son varios monitores y no nos daba el tiempo de calibrar. Decidimos contratar un servicio externo que está a cargo del Ingeniero Carlos González quien calibra nuestras salas. Por ejemplo, uno de los procedimientos que seguimos, cuando la lámpara del proyector es nueva la voy calibrando cada mes; al tercero o cuarto la lámpara ya se estabilizó. Eso me da más rango y puedo calibrar cada dos meses, la lámpara es muy estable a partir de ahí. Los monitores son mucho más estables, entonces aprovecho los días de calibración del proyector para revisarlos.

La calibración se hace con un ‘chupón’ a D65 (6,500 grados Kelvin), con las diferentes especificaciones que necesitamos. Para el proyector se hace la calibración para P3 (Espacio de color) y para REC709 porque me gusta tener una referencia de REC709. El monitor X300 lo hacemos en REC709, en SDR y en PQ para HDR. En ÓXIDO tenemos otra sala con un plasma que es únicamente REC709, entonces hacemos REC709 1886 y con eso tenemos. De la mano va la calibración de los monitores que salen al set en las camionetas de DATA. Estos se calibran de la misma manera, con el mismo Ingeniero y sobre los mismos parámetros para tener el estándar de la casa; de igual manera se hace con los On Line.

GB: Si voy a subexponer, ¿Cómo debería dejar mis niveles?

FM: Creo que en esta época del Intermedia Digital nos conviene estar un poco más arriba de luz cuidando que los High Lights no se vuelen. Estas noches sobreiluminadas a las que tememos tanto, con el Intermedia es muy fácil bajarlas y ponerlas donde quiera en lugar de sacrificar el detalle en el set porque la noche tiene que ser más oscura. Aquí entra la explicación de la visión auditiva que tenemos los seres humanos, es decir, no es que veamos todo el rango, sino que nuestra memoria es increíble y registra lo que hay en las sombras y lo que hay en las luces y tu cerebro lo compone. Eso no ocurre con los sensores por lo que debemos ‘truquear’. Entonces, claro, si sobreiluminas una noche o la mandas un poquito más arriba, nos va a permitir tener mejores rangos y observar mejor, aunque no sea una noche real sino una noche cinematográfica. No tienen que ser las noches como las de la película ‘La máscara’ que parecen medio día pintadas de azul. Hay cosas más elegantes. Es un poco como cuando exponías el negativo; exponías a las sombras, revelabas a las luces. ¿Por qué exponías las sombras?, porque lo que no habías capturado en el negativo no había manera de rescatarlo. Voy a poner un ejemplo: En ‘Desierto adentro’, el maestro Serguei Saldívar Tanaka AMC, iluminaba el desierto de noche con una super luna y toda la idea partió porque sabía que se haría con Intermedia Digital y le podríamos bajar. Habíamos hecho unas pruebas en el Telecine y el problema que teníamos para hacer ‘Day for Night’ – que también se había planteado -, era que las piedras en el desierto brillaban mucho y había blancos que no lográbamos bajar y habría que entrar a VFX. Entonces el maestro Serguei decidió iluminar más sus noches y en la corrección de color las llevamos al punto en el que funcionaban perfectamente. Algo increíble de esa película es que, además de que las noches se ven muy bien al igual que el resto, es que fue filmada en Super 16mm y solo lo notas en ciertos High Ligths en los que el grano tiene alguna actividad.

GB: ¿Cómo manejas los VFX?

FM: Hay que tener muy claro que debes mandar un archivo correcto y lo debes recibir de vuelta de la misma manera en la que lo mandaste. Si hay algún cambio, como colorista eres responsable de decir ‘Esto no sirve’, devolverlo y que se haga de manera correcta. Deberán devolverlo en el espacio de color y en el formato que tú enviaste, eso es lo primer que debe ocurrir o tendrás muchos problemas. Si se cambia el balance de color o el espacio del mismo, es muy complicado llegar a ‘matchar’ las texturas y colores contra las imágenes que no fueron a VFX. Normalmente la corrección de color va paralela a la generación de los VFX, entonces, si ya pusiste un ‘look’ y te devuelven otro espacio de color o alguna modificación de color, tendrás que rehacer las cosas e implicará tiempo extra con el que, generalmente, no se cuenta.

Lo más importante es el manejo de los espacios de color. Muchas veces, conviene estandarizar en algún archivo que sea más amable para la ida y venidas. Cuando hablamos de un DPX resulta que tiene alrededor de 6 maneras de interpretarse, entonces al final no sabes cómo lo está viendo quien lo está viendo y cómo se va a ver cuándo tú lo abras y dónde lo hagas. Definitivamente también el camino de los TIFFS está errado, pero puedes trabajar en EXR’s que es el archivo profesional para hacer estas cosas y buscar que lo que entregas sea transparente.

Cuando hay cosas que tienes que acabar de entregar en la corrección de color como contrastes o pantallas, o por ejemplo de un green screen en el que cambian un paisaje, en esos casos siempre pido el Matte. Con el Matte trabajo aparte del compuesto que hayan hecho, lo mismo de las pantallas. Me parece que esa es la manera correcta de trabajar. En Óxido trabajamos con NUKE y entonces mando logarítmico, ellos lo monitorean en REC709 y lo regresan logarítmico, de esta manera garantizas el resultado correcto.

GB: ¿Hoy en día se le da el reconocimiento adecuado al colorista?

FM: No. Aquí hay ciertas posiciones encontradas. Hay fotógrafos que están de acuerdo en que el colorista tenga un crédito más importante, sin embargo, hay quienes no; es un tema delicado. Al final es un trabajo colaborativo. Yo digo ‘El colorista es al fotógrafo, lo que el editor al director’. Aunque el director dirigió, el que termina contando la historia es el editor. Cuando hablamos del fotógrafo y el colorista, aunque el fotógrafo obtuvo las imágenes, el colorista termina logrando la intención, esa es la importancia del colorista. Entonces me parece que este oficio está menospreciado. Estamos creando ‘Coloristas Asociados de México’ y lo que buscamos es tener mayor reconocimiento. Buscaremos apoyo de La Academia, por supuesto de los cinefotógrafos vía la AMC para llegar a los productores de una manera suave y no impositiva, buscando más el reconocimiento colaborativo y laboral que meramente por ego. Con La Asociación buscamos dignificar la profesión. Históricamente para la industria, del tamaño que sea en México, el colorista ha sido un personaje importante. Es el encargado de atraer clientes a las casas de postproducción. Sin un colorista reconocido es poco probable que crezcas como casa de post.

Es un personaje tan importante como el supervisor de VFX o el postproductor. Son roles que pesan. Si revisamos una película de los cincuenta o sesenta, no existía el colorista como tal, pero existía el ‘color timer’. En muchas de
esas películas el cartón principal al inicio dice ‘Color by Technicolor’ y debajo de eso el nombre del Color Timer, ‘Color by Deluxe’ y debajo el nombre del responsable del color timer. ¡Era un personaje importante! En algún momento dejó de pesar por algo, tal vez por falta de interés del gremio, tal vez desertaron de algún sindicato que los obligaba a poner el crédito, no sé. Era un personaje reconocido y de pronto se vino a menos.

GB: ¿Consideras que en este país se proyecta con los estándares adecuados en las salas de cine? 

FM: No, no se proyecta correctamente. La experiencia que hemos tenido cuando vamos a una sala a revisar porque habrá una premiere o el director o cinefotógrafo tienen la inquietud de cómo se va a ver en sala, normalmente la lámpara no está al 100%, nunca está donde debe; es decir que en lugar de tener los 14 Foot Lamberts, estás viendo 10 u 11. Definitivamente no ves lo que debieras ver hablando de luz; de color no quiero ni mencionarlo. La lámpara siempre está castigada, por decirlo de alguna manera. La luminosidad del proyector y la calibración también son cosas para tomarse en cuenta.

Muchas veces entras a una sala a ver una película normal pero la sala está preparada para 3D y la película no lo es; resulta que la pantalla es Silver y le roba dos pasos, entonces la ves opaca. No vemos lo que tenemos que ver. Sin duda la vida de las películas es el BluRay y el streaming; es un ambiente más calibrado o más controlado. Podemos hablar un poco del Dolby Visión que ahora conocemos por requisito de Netflix para el HDR. El Dolby Vision es con lo que se hace la conversión de HDR a SDR casi automáticamente; ajusta la curva al monitoreo que tienes y tienes un Layer para hacer un Trim para que las cosas se vean mejor y todo eso viaja en Metadata, no en imagen. Entregas una vez la imagen en HDR y lo demás es un XML que modifica las curvas dependiendo de la pantalla que tengas en casa. Esta información se lee y decide qué señal manda a tu tele.

El primer acercamiento de Netflix con Dolby no fue por el HDR – que todavía no existía, sino que tenían una preocupación por hacer que sus productos se vieran como se tenían que ver en cualquier lugar. Lo que buscaban con el Dolby Visión era que cuando bajaras cualquier contenido de Netflix, llegara una señal a tu tele y le ‘dijera’ como la tenía que reproducir para de esta manera cuidar la calidad de sus contenidos hasta la reproducción final.

GB: ¿Cómo puede mejorar la industria de la imagen en movimiento en México?

FM: Creo que tenemos que pensar en los contenidos, definitivamente tienen que ser mejores. En México tenemos grandes fotógrafos y grandes realizadores sin duda alguna, pero nos estamos quedando cortos en contenidos. Esta ola de remakes de comedias, más allá del beneficio económico que tengan, han dementado mucho el contenido. Creo que es importante seguir contando historias originales, no solo formulas probadas. La imagen en México es muy buena, podría decir que es excelente, pero sería bueno contar con mejores historias.

 

Filmar un video con un iPhone al estilo de Steven Soderbergh

Foto via Bleecker Street.

 

Inverse – Abril de 2018
Por Jourdan Aldredge

 

Aprenda cómo puede dominar la realización de películas con teléfonos inteligentes con algunos consejos y trucos de uno de los cineastas más innovadores del juego.

Hacer películas con teléfonos inteligentes ya no es un truco. De hecho, está ingresando al mundo del cine serio ahora que Steven Soderbergh, aclamado cineasta y director de Logan Lucky, Traffic, y Magic Mike, ha adoptado la tecnología en ciernes.

En un articulo recienre en Inverse, Soderbergh ofreció los siguientes puntos de vista sobre la realización de películas con teléfonos inteligentes en función de su experiencia al filmar Unsane (Perturbada), un thriller de terror psicológico protagonizado por Claire Foy, que filmó íntegramente con un Iphone 7 Plus.

Obtenga un guion y un iPhone y comience a grabar

Quizás la conclusión más importante del artículo es que la grabación con teléfonos inteligentes es una opción a la que cualquier cineasta puede acceder en cualquier momento. La industria cinematográfica es igual para todos cuando todo lo que necesitas es un guion, un teléfono inteligente y algunos amigos que te ayuden. Aquí hay algunos excelentes recursos para saltar a un guion de inmediato.

Resolución 4K

Imagen de Inverse

 

Para Unsane, el equipo de Soderbergh usó tres teléfonos iPhone 7 Plus. El iPhone 7 Plus se destaca por sus cámaras integradas de gran angular y teleobjetivo de 12 megapíxeles mientras que también graba video en 4K real a 30 fps (1080p HD a 30 fps y 60 fps). Con 4.000 píxeles finalmente como opción, la transición a la pantalla grande se vuelve mucho más viable.

Lentes acoplables

Imagen de Inverse 

 

Junto con las cámaras del iPhone 7 Plus del equipo, la producción de Unsane también usó lentes acoplables para una mayor variedad de tomas que las opciones estándar de lentes incorporados (aunque, según se informa, también las usaron). Unsane usó específicamente tres lentes Moment para una variedad de opciones de gran angular a macro: una lente de 18 mm, una lente de 60 mm y un verdadero ojo de pez.

Aplicaciones de terceros

Soderbergh también encontró algunas buenas aplicaciones de iPhone de terceros para algunas apariencias y distorsiones únicas, la más notable es FILMIC Pro (que también estaba detrás de la funcion de captura de IPhone de 2015, Tangerine). Además de ayudar a los cineastas a filmar en formatos LOG y de curva gamma plana para obtener un contenido de datos más rico usando el iPhone, FiLMiCPro ayudó específicamente al equipo de Soderbergh a crear algunas distorsiones estilizadas únicas para escenas clave de la película.

Según los informes, el equipo también usó la aplicación FILMIC Remote (que ofrece control remoto de grabación desde otro teléfono o dispositivo) para capturar algunas tomas únicas que implicaban colocar la cámara boca abajo en varios lugares creativos.

Mira al futuro.

Con Unsane ya teniendo un buen comienzo en la taquilla (después de las excelentes críticas de Tangerine), la realización de películas con teléfonos inteligentes claramente ya no es un concepto lejanoEs el aquí y ahora. Soderbergh, para su crédito, ha estado predicando durante años que hacer películas con teléfonos inteligentes es una «mirada hacia el futuro», pero con su configuración de iPhone 7 Plus sorprendentemente barata y fácil, parece que ese futuro es ahora.

Pantalla azul vs. Pantalla verde: ¿Cuál necesitas?

Por Charles Yeager
Enero de 2020

 

Vamos a aprender sobre las diferencias entre utilizar una pantalla azul y una pantalla verde para la composición de la clave de croma.

Así como el cine y las cámaras han avanzado a lo largo de los años, también lo ha hecho el uso de pantallas azules y pantallas verdes. Pero, ¿hay alguna diferencia real entre usar una pantalla azul y una pantalla verde? La respuesta es sí, y descubrirás por qué en este artículo. Si está buscando implementar una pantalla verde (o una pantalla azul) en su próximo proyecto, consulte nuestra guia de pantalla verde para conocer todos los detalles que necesita saber.

Comencemos definiendo la composición de clave cromática y viendo por qué usamos azul o verde en primer lugar. Luego, veremos los factores a considerar antes de elegir un color de pantalla para su próximo proyecto.

Definición de clave de croma

La composición Chroma Key es la técnica real de superponer dos imágenes juntas en función de los tonos de color. Cada color tiene un rango de croma, que es de donde proviene el término clave de croma. El fondo de color sólido actúa en gran medida como un mate para su material de archivo. Más tarde, en la posproducción, puede eliminar el fondo de color sólido para hacerlo transparente, lo que permite la composición.

Orígenes del color

¿Por qué usamos pantallas de color azul y verde? Porque son los colores que más se alejan de los tonos de la piel humana. Si observa una rueda de colores, observe que el azul y el verde se encuentran en el lado opuesto de donde suelen estar los tonos de piel.

El azul y el verde son los que más se alejan de los tonos de la piel humana, lo que los convierte en los más lógicos para usar como fondo.

 

Con la película, las pantallas azules se utilizan por varias razones. En primer lugar, el canal azul de la película tiene el grano más pequeño, lo que da como resultado un mate más limpio en los bordes y una imagen de mejor calidad. En segundo lugar, cuando el color azul se expone en una película en blanco y negro usando una luz azul, el color azul aparece como blanco brillante, que se puede usar con una impresora óptica para comenzar el proceso de composición. Para obtener más información sobre las pantallas azules y el proceso de impresión óptica, consulte el fantástico artículo de Mark Vargo sobre cómo trabajar en las películas originales de Star Wars y su cortometraje Blue Screen 1980.

Cuando las películas comenzaron a pasar a un proceso de posproducción digital, se produjo el surgimiento de la pantalla verde. Varios factores contribuyeron a esto, incluida la creciente popularidad de las cámaras digitales. Por un lado, la mayoría de las cámaras digitales capturan el doble de información verde que la capturan con los colores rojo o azul. Esto se debe a que el canal verde también se usa para la luminancia, lo que, a su vez, hace que el verde sea más fácil de eliminar en la posproducción. Las pantallas verdes también requieren menos luz que las pantallas azules porque el verde refleja más luz, nuevamente, porque tiene una luminancia más brillante. Requerir menos luz significa que es más barato de usar. El verde brillante también es un color mucho menos común en el vestuario y el guardarropa,

¿Cuál usar: azul o verde?

Así que la respuesta es clara, ¿verdad? Las pantallas verdes son superiores a las pantallas azules. Bueno, la realidad es que todo depende del proyecto. En la mayoría de los casos, una pantalla verde le servirá mejor. Pero, esto no es cierto en todos los casos. Exploremos los pros y los contras de las pantallas verdes frente a las pantallas azules.

Pantalla verde: pros y contras

Comencemos con las ventajas de usar una pantalla verde. Como se mencionó anteriormente, la mayoría de las cámaras digitales capturan más información en el canal verde. Esto da como resultado una clave más limpia alrededor de su sujeto, con menos artefactos de ruido. Las pantallas verdes también requieren menos luz, por lo que son geniales si tienes un presupuesto limitado. El derrame de las pantallas verdes también puede facilitar la composición de sujetos en una escena diurna, ya que el verde es más brillante. Esto le da al compuesto una apariencia más natural. Por último, una gran cantidad de efectos y herramientas de codificación digital están configurados para eliminar el verde de forma predeterminada. Esto puede acelerar su flujo de trabajo de posproducción, requiriendo menos ajustes para una clave limpia.

Las pantallas verdes requieren menos luz y capturan más información en el canal verde.

 

La mayor desventaja de las pantallas verdes es la cantidad de color derramado. Debido a que el color verde es más brillante que el azul, naturalmente rebota más luz. Esta luz tendrá un tono verde. (Actúa como una luz verde gigante y suave detrás del sujeto). Esto significa que los sujetos tendrán más color derramado sobre ellos, y puede resultar más complicado eliminar ese color derramado en la posproducción, especialmente cuando se trata de elementos como cabello, malla, reflejos metálicos o detalles finos de vestuario. Las pantallas verdes tampoco son ideales si está componiendo su sujeto en una escena nocturna u oscura. Una vez más, esto se debe a que el sujeto aparecerá anormalmente brillante debido a la luz reflejada de la pantalla verde.

Pantalla azul: pros y contras

El principal beneficio de las pantallas azules es que hay una pérdida de color considerablemente menor. Esto se debe a que el color azul tiene un valor de luminancia más bajo, por lo que no refleja tanta luz. Esto es de gran ayuda cuando tiene que filmar sujetos con pequeños detalles, ya que podrá retener ese detalle una vez que se complete la incrustación. Del mismo modo, puede ser muy difícil resaltar sujetos con cabello rubio en una pantalla verde. La clave de croma a menudo recortará demasiado el cabello. Los sujetos con cabello rubio son mucho más fáciles de capturar en una pantalla azul. Las pantallas azules también funcionan mejor para las composiciones nocturnas, ya que reflejan menos luz sobre el sujeto.

El color azul tiene un valor de luminancia más bajo, lo que permite que se derrame menos color sobre el sujeto. Imagen vía Mark Vargo.

 

La mayor desventaja de las pantallas azules es que requiere más luz para exponerse correctamente que las pantallas verdes. Esto puede ser problemático si no tiene una iluminación potente disponible o un presupuesto lo suficientemente grande para suministrar ese tipo de iluminación. Otra desventaja de las pantallas azules es que el color azul es mucho más común en la ropa y los disfraces. La ropa como jeans azules o un traje de negocios teñido de azul puede ser problemático, ya que requiere mucho más trabajo para teclear en la posproducción.

Conclusiones: pantalla verde frente a pantalla azul

Entonces, ¿Qué color de pantalla debería elegir? Como mencioné anteriormente, siempre va a depender del proyecto. Pero, aquí hay algunos factores a considerar cuando estás sopesando tus opciones.

Ventajas de las pantallas verdes:

  • Da como resultado una clave más limpia porque las cámaras digitales recogen más información
  • Requiere menos iluminación
  • La alta luminancia es buena para las escenas diurnas
  • Color poco común en la ropa.

Contras de la pantalla verde:

  • El derrame de color puede ser demasiado intenso, especialmente en detalles finos y bordes (o cabello rubio)
  • La alta luminancia no es ideal para escenas oscuras o nocturnas.

Ventajas de la pantalla azul:

  • Menos derrame de color es ideal para sujetos con detalles finos y bordes.
  • Una luminancia más baja es buena para escenas oscuras o nocturnas

Contras de la pantalla azul:

  • Requiere más iluminación, lo que puede ser costoso
  • Color de ropa común, lo que dificulta teclear en la edición

Mas allá de azul y verde

Incluso puede explorar el uso de otros colores para su pantalla de fondo. De hecho, tener un fondo totalmente negro o blanco es una opción, dependiendo de lo que esté filmando. Siéntase libre de ser creativo con él: se han utilizado muchas técnicas de pantalla diferentes a lo largo de las décadas. John Hess tiene un video sobre la evolución de la composición de pantalla verde que, recomiendo mucho, si desea saber más sobre la historia de la técnica.

Jin-mo Yang y sus técnicas de edición en ”Parasite” de Bong Joon-ho (2019)

Por Robbie Janney

Febrero de 2020

 

El editor Jin-mo Yang, nominado al Oscar, explica por qué todavía usa Final Cut Pro 7 y comparte su enfoque para editar Parasite, ganador del Premio de la Academia 2020 a la Mejor Película.

 Es difícil explicar la experiencia teatral que obtienes al ver Parasite. Es una auténtica montaña rusa de géneros, que pasa de un drama enérgico a una versión satírica de la estructura de clases, y luego te lanza por una colina empinada de la nada hacia un terrorífico territorio de suspenso. Cambia, se mueve, se tuerce y teje a través de estructuras de géneros cinematográficos tradicionales, dejando a la audiencia con un final deslumbrante pero confuso. Pero, ¿qué más podemos esperar del maestro cineasta Bong Joon-ho?

 Parásitos ha deslumbrado a las audiencias de todo el mundo, actualmente recauda 133 millones de dólares en todo el mundo, y ha obtenido tanto el premio Globo de Oro a la Mejor Película como el Premio de la Academia a la Mejor Película. También obtuvo un barrido histórico en los Oscar de este año, asegurando los premios a Mejor Película, Mejor Director, Mejor Largometraje Internacional y Mejor Guión Original.

Jin-mo Yang recibiendo un premio por Parasite. Imagen vía CJ Entertainment.

 

Si abrimos el telón detrás de la realización de esta increíble pieza cinematográfica, hay mucho arte que acompañó a la visión de Bong Joon-ho formada en la sección de edición. Eso es todo gracias al editor nominado al Premio de la Academia de Parasite, Jin-mo Yang. Jin-mo ha colaborado con Joon-ho en algunas de sus otras obras famosas, como Okja y Showpercer.

Pudimos sentarnos con Jin-mo Yang para hablar sobre su flujo de trabajo para la película y su proceso durante la posproducción para lograr el fantástico resultado final.

Con un poco de ayuda de la edición en el set

 

Bong Joon-ho filmando una escena de Parasite. Imagen vía CJ Entertainment.

 

 Uno de los trucos de bolsillo de Jin-mo para capturar la energía durante la filmación es utilizar un editor en el set. Su asistente tomó las tomas directamente de la cámara y luego realizó una edición rápida sobre la marcha, de modo que el director y los actores tuvieron una referencia sólida para observar mientras interpretaban las escenas.

Jin-mo Yang: Tuve a mi editor asistente en el set, que ha hecho ediciones en el set para Okja, en Corea, también. Recibí las ediciones en el set en mi sala de edición y di retroalimentación directa, preparándome para la edición final. Entonces, esas ediciones en el set fueron en realidad las ediciones de montaje. Lo que aprendí de la edición en el set es que pude sentir más energía viral en el set, lo cual es inimaginable en la sala de edición. Tal energía, de hecho, no es esencial cuando se monta, pero es una experiencia crucial que un cineasta y un editor deben adquirir. En el set, el personal de producción y los actores luchan mucho para realizar una escena, y el editor en el set debe refinar esas escenas visualmente justo después del rodaje y mostrárselas al director para pasar a la siguiente escena con confianza. Con dicho proceso, puede encontrar fácilmente el ritmo de la secuencia y finalizarla con la versión preeditada con una estructura básica.

La técnica de edición de Yang crea un ritmo para cada escena. Imagen vía CJ Entertainment.

 

Este truco de edición en el set es extremadamente útil para evitar perder una toma. Y, dado que Bong Joon-ho no graba cobertura ni tomas maestras, es una excelente manera de preparar al editor cuando comienza sus primeros pases en la bahía de edición.

Uso de Final Cut Pro 7 en 2019

 

Yang utilizo Final Cut Pro 7 al editar Parasite. Imagen vía CJ Entertainment.

 

 Una de las partes más interesantes para aprender sobre Jin-mo (pero que no sorprende a los editores experimentados desde hace mucho tiempo) es su preferencia por Final Cut 7. Muchos editores de la vieja escuela saben que la actualización de Final Cut 7 a Final Cut X fue un cambio drástico y apagó muchos editores del NLE insignia de Apple.

 

Jin-mo Yang: Uso Final Cut Pro 7. He estado usando este programa durante más de veinte años y creo que es el programa más conveniente y estable. Pero, dado que Apple ya no es compatible con el programa, necesita mantener el sistema operativo en la versión Mac OS Yosemite. Siempre empiezo a editar desde la primera escena. Sobre todo, empiezo con cortes ásperos. Para “Parasite”, las ediciones en el set fueron las ediciones de montaje. Entonces, primero veo las ediciones completas en el set y las perfecciono desde la escena número uno..

Las ediciones en el set ayudaron tanto a los actores como al equipo con referencia a las líneas de tiempo. Imagen vía CJ Entertainment.

 

Jin-mo Yang: Cuando termino de afinar las escenas, reafirmo todo el flujo y el tempo de la película, y luego vuelvo a las escenas que tienen problemas, para editarlas plano a plano. Repito este ciclo una y otra vez hasta finalizar hasta los detalles más minuciosos. Después de obtener las tomas de música, ADR y VFX, las puse en cortes para que puedan mantener el flujo. Como sucede con la mayoría de los editores, una vez que haya encontrado su software de edición preferida, es difícil desconectarlo. Ahora, solo necesitamos que Apple lance una edición heredada de Final Cut Pro 7, por lo que no tenemos que mantener nuestras computadoras en Yosemite para acceder al programa.

Uso de la experiencia VFX en Edit Bay

 

Las tomas y transiciones orientadas a los detalles de Parasite ayudaron con el ritmo de la película. Imagen vía CJ Entertainment.

 

Una de las partes más fascinantes de Parasite fue su ritmo estelar, todo gracias a las tomas de montaje extremadamente orientadas a los detalles y las transiciones magistrales de un género a otro. Pero, a primera vista, no parece que se haya usado ningún VFX para crear estas secuencias. Dado que Jin-mo Yang tiene una gran cantidad de experiencia con VFX, como ser el supervisor de VFX para Snowpiercer de Joon-ho, pudo unir tomas para obtener ese aspecto específico que quería de la toma, que no fue capturado en el set.

Jin-mo Yang: Me encanta la secuencia caótica de «Ram-Don». Pero, una vez más, uno de los problemas que enfrentamos durante la edición fue que el ritmo de ciertas tomas se estaba retrasando. Esto iba en contra de la energía caótica que buscábamos.

Imagen vía CJ Entertainment.

 

Jin-mo Yang: Una solución que se me ocurrió fue «unir» varias tomas que tuvieron buenos ritmos, para que parecieran una sola toma. Por ejemplo, hay un plano cenital de las manos de Chung-sook preparando el ram-don. El problema era que los movimientos de Chung-sook eran demasiado lentos, lo que hacía que la toma fuera demasiado monótona. Entonces, sugerí que usáramos diferentes tomas para cada una de sus manos, para que pareciera que las está moviendo simultáneamente. Al ver la toma final, no notará que se creó uniendo varios componentes de dos tomas diferentes.

Imagen vía CJ Entertainment.

 

Jin-mo Yang: Otro ejemplo sería la toma de Ki-taek y Ki-woo, cada uno arrastrando a Geun-se y Moon-gwang hacia el búnker subterráneo. Esta también fue una composición de dos tomas diferentes porque después de que Ki-taek y Geun-se aparecieran en la toma, pasó mucho tiempo antes de que aparecieran Ki-woo y Moon-gwang. Entonces, una vez más, cosí las figuras para que estuvieran muchas más juntas y pudiéramos crear mucha acción en una sola toma. A través de esta técnica, pudimos crear los ritmos y ritmos exactos que queríamos. Aunque sutiles, estos ajustes fomentaron la energía caótica que perseguimos. Como ya puede adivinar, unir dos tomas como si resultase una tarea frecuente para mí. Uno de mis puntos fuertes es que mis habilidades de VFX son lo suficientemente competentes como para crear tomas de «simulacro» convincentes en el acto. Por lo tanto, podemos experimentar libremente, sin tener que esperar a que los proveedores de VFX creen las tomas.

La experimentación de Yang en el set facilitó el logro del éxito general de la película. Imagen vía CJ Entertainment.

 

Los editores saben que puede ser un proceso tedioso esperar a que un artista de VFX se comunique con usted con maquetas, por lo que tener la capacidad de obtener el aspecto que desea sobre la marcha, con su propia experiencia, es una excelente manera de obtener un corte preliminar con el aspecto que desea antes de enviarlo para recibir el tratamiento de VFX.

Pintar el ritmo del ritmo

 

La adaptación de una escena fue de gran importancia en el rodaje de Parásitos. Imagen vía CJ Entertainment.

 

Dado que Parasite se formó principalmente en los guiones gráficos, con poco espacio para la improvisación, el trabajo completo de edición no fue tan intenso para Jin-mo como en otros proyectos que ha encontrado. Pero una de las partes más difíciles del proceso de edición fue conseguir el ritmo adecuado en algunas escenas. En la escena final absolutamente loca de la película, hubo algunos momentos que tenían un significado extremo que necesitaban ser examinados y adaptados por expertos hasta el último cuadro.

Jin-mo Yang: De hecho, Parasite tuvo el proceso más fluido de lo que he editado hasta ahora. La edición en si no fue difícil. Más que la estructura de la película, creo que lo más importante para editar Parasite fueron los detalles y el ritmo de algunas escenas específicas. Si realmente necesito señalar uno, me gustaría decir que fue la «escena de la fiesta de cumpleaños». Hay una escena en la que Ki-taek y el Sr. Park hablan entre ellos vestidos con trajes de nativos americanos. Puse mucho esfuerzo en esa escena, ya que la esencia de la escena era maximizar la tensión entre los dos y capturar el estado emocional de Ki-taek con un toque delicado. Repetir este montón de tiempo para acortar y aflojar los cuadros con el fin de establecer un momento perfecto incluso para el momento de parpadeo de Ki-taek y el Sr. Park.

Los detalles y el ritmo de escenas específicas fueron de gran preocupación para Yang. Imagen vía CJ Entertainment.

 

En el clímax de la película, el patriarca de la familia Kim, Ki-taek, da un giro dramático —de una manera escalofriante— y apuñala a su jefe, el Sr. Park. Esta escena fue la culminación de todos los eventos de la película que se unieron de una manera extremadamente caótica. Dado que la revelación no se cuenta a través del diálogo, la edición de las tomas anteriores al apuñalamiento requirió un buen ojo para observar las expresiones que mostraron los actores para transmitir el mensaje.

Jin-mo Yang: La secuencia más difícil de editar fue transmitir completamente el cambio en las expresiones faciales de Ki-taek justo antes de apuñalar al Sr. Park. Desde que recibió el guión de Parasite, le preguntaron al director Bong por qué Ki-taek asesinó al Sr. Park. En ese momento, se sintió algo fuera de lugar. Al final, creí en la destreza actoral de Kang-hoSong (quien interpreta a Ki-taek). En cada momento esta secuencia, trabajé para descubrir las emociones y expresiones faciales más sinceras de Ki-taek. Cuando el Sr. Park lo “regaña” por no seguirle la corriente a la fiesta temática de los nativos americanos, su expresión facial comienza a cambiar de tal manera que la audiencia se convence de que Ki-taek está “cambiando” internamente.

Aspecto estético/técnico de «Parasite» de Kyung-pyo Hong (2019)

Por Logan Baker

Febrero de 2020

 

Echemos un vistazo a la cinematografía, el encuadre, y el guión gráfico de la última obra maestra de Bong-Joon Ho.

Parasite ha roto registros y cerebros en todo el mundo, y con razón. La película es una clase magistral de escritura, dirección, actuación, edición y cinematografía. En el canal de You Tube de la Acamedia Hurlbut, el equipo de Shane Hurlbut se sumergió recientemente en cómo el equipo de Parasite reemplazó el tono visual y la estética de la película ganadora del Oscar.

Enmarcando las tomas

Imagen via Academia Hurlbut.

Mientras escribía el guión, Bong dibujó maquetas de las casas de la película. Esto permitió que el equipo de diseño de producción tuviera una ventaja inicial en su trabajo. Cada casa fue diseñada con ventanas frontales que bastante reflejaban las ventanas de la otra casa. Para la familia pobre, la ventana es pequeña y su vista es la de un borracho haciendo sus necesidades. Para la familia rica, se creó una ventana más grande y expansiva (descrita con una relación de aspecto de 2,39:1), que da a un hermoso jardín. Además, la familia pobre vive bajo tierra, mientras que la familia rica vive en una colina.

Inspirado por Hign and Low de Kurosawa (|1963), Bong inicialmente filmo hacia la pobre familia Kim. Cuando el hijo se convierte en el tutor, la perspectiva cambia y lo miramos.

Habiendo trabajado primero con Bong en su película anterior, Snowpiercer, el director de fotografía Kyung-pro Hong filmó Parasite en Alexa65 para permitir tomas más amplias y abarcadoras sin necesidad de usar una lente súper ancha. Además, solo quiero decir que pienso en Snowpierce (2013)r al menos una vez a la semana, y creo que podría ser una de mis películas favoritas de todos los tiempos.

Iluminando

Si bien el estilo de encuadre y filmación de Bong ayudó a transmitir el tono de la película, la iluminación de Kyung-Pyo también tuvo un gran impacto en la forma en que se ven a los personajes y los escenarios. Por ejemplo, para distinguir aún más las diferencias entre ricos y pobres, Kyung-Pyo jugó con la luz del sol y la falta de ella. En la mansión de la familia rica, la mayor parte del interior de la casa se baña con luz natural de tonos cálidos durante todo el día. En el sótano de la familia pobre, la luz del sol solo entra por una pequeña ventana.

Kyung-Pyo también instaló lámparas de gama baja en el sótano: fluorescentes verdosas e incandescentes de tungsteno del tipo que encontrarías en un hogar coreano. Además, el tono de las farolas del exterior es de un rojo apagado.

Escaleras e Influencia

Imagen vía Paramount Pctures.

Las escaleras juegan un papel destacado en Parasite, lo que significa promoción y degradación en el mundo de la película. Se ve a la madre de la familia Kim subiendo las escaleras mientras la criada recién despedida camina hacia abajo y se aleja de la casa rica. Cuando Ki-jung comienza su lección de terapia artística, probablemente degradará a Yeon-kyo al indicarle que espere abajo. Y una vez que los Kim salen de la mansión, los vemos corriendo por varios tramos de escaleras, lo suficientemente lejos en la distancia que parecen pequeños insectos. Bong está citando el uso de escaleras por parte de Hitchcock en Pyscho como una gran influencia en la película. También se inspiró en The Housemaid de Ki-young Kim de 1960, que trató sobre una familia burguesa que se enfrenta a un intruso.

La importancia de la simetría

El trabajo anterior de Bong está lleno de tomas hipersimétricas, no realmente en el estilo caprichoso de Wes Anderson, sino más bien en el sentido de perspectiva de un punto de Kubrick. Sin embargo, Parasite hace algo diferente. Con Parasite, Bong nos regala tomas casi simétricas. Estas tomas fueron intencionales; Bong quería que sintiéramos que casi estábamos llegando a alguna parte y que nunca llegaríamos por completo.

llenando el marco

Al comienzo de la película, la familia Kim rodea a su jefe en el callejón cerca de su casa. La toma mantiene a la jefa enmarcada en el centro mientras cada miembro de la familia básicamente se mete en el marco para rodearla lentamente. Están cerca, y se mantienen unidos. Esta técnica presagia lo que está por venir. Los Kim también están presentes en algunas tomas del sótano. Mientras tanto, la familia Park a menudo se enmarca por separado, no junta ni unificada.

Este enfoque es genial en su sencillez. Como espectador, es posible que ni siquiera se dé cuenta de lo que sucede en las tomas cuidadosamente enmarcadas, pero lo siente. La historia en sí solo te ayuda a sentirlo más a medida que avanza la película.

dividiendo el marco

En otro ejemplo perfecto de «puede que no lo veas, pero definitivamente lo sientes», Bong usa elementos clave de ubicación física para dividir tomas entre ricos y pobres. En muchas escenas, hay ventanas, muebles de fondo o texturas en el vidrio que dividen el marco.

La casa y los lugares son personajes en sí mismos, y dudo que tengamos otra película tan meticulosamente elaborada en el corto plazo. Afortunadamente, el mundo ahora conoce la grandeza del director Bong Joon Ho.

Kai Stänicke, realizador cortometraje de animación “Pace” (Ritmo, 2019)

Pace (Ritmo).

BRITISCH CINEMATOGRAPHER: Directors Notes

Julio de 2021  

Kai Stänicke

Kai Stanicke examina nuestra relacion destructiva con el tiempo en un corto animado reflexivo Pace (Ritmo).

Un pequeño vestigio de esperanza obtenido tras la pandemia mundial tiene que ser la desaceleración forzada de nuestras vidas. Durante esos períodos de bloqueo, ya no pudimos empacar nuestros días con la avalancha de innumerables compromisos en un esfuerzo por vivir cada segundo de la vida al máximo, ya sea en el trabajo o en el hogar. Si bien hay pocas dudas de que el péndulo inevitablemente volverá a su posición anterior, tal vez la pausa forzada nos haga más conscientes de las formas dañinas en que quemamos la vela en ambos extremos y los beneficios de reducir la velocidad. Estas son las consideraciones en el corazón del cortometraje animado Pace del director berlinés Kai Stanicke, que explora nuestra relación moderna con el tiempo y el sentimiento constante actual de no tener suficiente. En un cambio de su trabajo habitual de acción en vivo, le pedimos a Stänicke que discutiera el viaje de aprendizaje en el trabajo que experimentó durante el transcurso de cuatro años para completar su cuento con moraleja.

DN: ¿Cuál fue la inspiración para el concepto de carrera contra el tiempo de Pace?

KS: La idea central detrás de Pace era hacer una historia sobre el tiempo y cómo es el motor de nuestra existencia. Estaba fascinado con algo que experimenté yo mismo, pero con lo que no estaba solo: me sentí muy apurado. Sentía que apenas había tiempo suficiente. Cuando esperaba en la fila del supermercado, me estaba poniendo ansioso. Y me estaba molestando cuando las otras líneas iban más rápido y la mía era la más lenta. Sentí que perdía el tiempo y estaba tratando de hacer las cosas simultáneamente: escribir correos electrónicos mientras iba a una reunión, hablar por teléfono mientras cocinaba, tratar de combinar tareas para ser más rápido y más eficiente. La primera idea para la película fue un hombre que vivía en un reloj y la manecilla del reloj marca el ritmo de su vida. Me inspiré en los cortos de animación alemanes de los años 80 y 90, que contaban historias abstractas sobre la sociedad y los fenómenos sociales, especialmente Balance de Wolfgang y Christoph Lauenstein y Quest de Thomas Stellmach.

La producción de Pace fue descubrir, aprender y dominar una técnica de realización cinematográfica completamente nueva para mí. Kai Stänicke

DN: ¿Cómo le pareció el proceso de animación dado que normalmente trabaja en acción en vivo?

KS: Al no ser un animador, fue mucho aprender y rodearme de profesionales para contar esta historia. Solo he hecho un corto animado antes, que era una animación de marionetas en stop motion, que es un proceso de trabajo completamente diferente a la animación digital utilizada en Pace. Aparte de eso, solo he trabajado en la realización de películas de acción en vivo, por lo que la producción de Pace fue descubrir, aprender y dominar una técnica de realización de películas completamente nueva para mí. Para mí, como director, siempre se trata primero de la historia. Me veo a mí mismo como un narrador y cuando tengo una historia en mi mente, busco la forma correcta de contarla.

DN: ¿Cómo le dio forma a su idea inicial en una historia completamente formada?

KS: Mi investigación me ayudó a dar forma a la historia. Las razones de la sensación de no tener suficiente tiempo, o de sentirse siempre apurado, básicamente se reducen a dos cosas:

  1. Competencia: compararse con los demás, sentir que son más rápidos y eficientes y querer ser mejor que ellos. Querer ser el primero y el mejor.
  2. Progreso técnico: Nos permite ser más rápidos y eficientes de formas desconocidas antes. Además, la tecnología y las máquinas son ahora más rápidas que los humanos, lo que nos prepara para una tarea imposible: competir con las máquinas y la tecnología.

Ambos aspectos encontraron su camino en la historia. La razón por la que nuestro protagonista pierde el equilibrio con el tiempo es porque siente competencia de los dos hombres que aparecen de repente y quiere ser más rápido que ellos. Y al final, puede ver lo que realmente se esconde debajo de todo su mundo: el corazón técnico del reloj, que mantiene todo funcionando.

DN: ¿En qué medida influyó su elección de procesos / herramientas de animación en el estilo general de la película?

KS: Quería optar por un estilo de animación 2D de la vieja escuela para la película que, por varias razones, fue un poco más difícil de lograr. Primero tuvimos las escenas del ejército, donde teníamos muchos personajes moviéndose al mismo tiempo en el mismo lugar. Luego teníamos las partículas para cada personaje, lo que significa que los personajes se disuelven y pierden partículas todo el tiempo, incluso en las escenas del ejército. Y finalmente, teníamos las escenas en el corazón de la máquina del reloj al final de la película. Es por eso que nos decidimos por una combinación de animación 2D y 3D. Llegar allí fue un poco de aprendizaje haciendo y acercándome poco a poco al estilo que quería al probar diferentes enfoques.

Me veo a mí mismo como un narrador y cuando tengo una historia en mi mente, busco la forma correcta de contarla. Kai Stänicke

Al final, el flujo de trabajo para una toma podía pasar por 3 o 4 programas diferentes, dependiendo de la toma, lo que significaba mucho renderizado (que a su vez significaba mucha espera). Una toma del ejército, por ejemplo, podría significar el siguiente flujo de trabajo: los personajes se animaron como una animación vectorial en un programa de animación 2D, luego pasamos a After Effects para el efecto de disolución de partículas, luego combinamos personajes, fondos y otros elementos en un 3D programa de animación, y luego volvimos a After Effects una vez más para poner otra capa de textura animada sobre todo el cuadro que lo hizo parecer más áspero y menos elegante.

Solo estábamos nuestro animador Roman Wuckert y yo trabajando en esto, así que puedes imaginar cuánto tiempo tomó. La única animación real dibujada a mano en la película es el cabello y la bufanda de las mujeres moviéndose en el viento, para lo cual tuve dos animadores extra muy talentosos: Jessica Boldt y Markus Kempken.

DN: Las escenas con la mujer brindan breves respiros de la incesante rutina de Pace. ¿Podrías contarnos más sobre lo que querías que simbolizara su personaje?

KS: Quería diferenciar a la mujer y el entorno en el que se encuentra del resto del mundo. Es un espíritu libre, no afectado por la presión que sienten el resto de habitantes, hombres o mujeres. El entorno en el que se encuentra contrasta con el resto del mundo seco y algo hostil. Es hermoso y floreciente. Es un lugar de felicidad. El resto del mundo es sombrío y está definido por la presión. La mujer es una promesa de que es posible un mundo diferente y mejor. Un mundo sin presión constante. Esa promesa, de alguna manera, es la última gota a la que se aferra, cuando alcanza su bufanda, mientras el mundo entero se desmorona. Es lo último que le queda de ella y la promesa de una vida juntos.

DN: Aunque no tiene diálogos, esta es una película que utiliza mucho el sonido y la música como poderosas herramientas narrativas, ¿con quién trabajaste en esos elementos?

KS: Después de completar la animación y la edición (que hice con mi compañera de edición en Crime Susanne Ocklitz), pasamos a trabajar en el sonido y la música. Tuve la suerte de tener un equipo increíble en ese frente también: el diseñador de sonido Nils Vogel-Bartling y el compositor Phillip Feneberg hicieron un gran trabajo al crear el paisaje sonoro de la película. No había diálogos en la película, pero aún queríamos que los personajes fueran animados, así que grabamos a los actores respirando en la película, como doblando solo con sonidos de respiración. Hizo maravillas con el sentimiento de los personajes.

DN: ¿Qué sigue?

KS: Estoy escribiendo el guión de mi primer largometraje en este momento. Es un drama de acción en vivo. Después de pasar casi 4 años terminando Pace, necesito tomarme un descanso de la animación por un tiempo.

Ópticas. Cinematografía de gran formato: un primer plano

La diferencia en el ángulo de visión entre una lente de 45 mm en Alexa 65 y una lente de 45 mm en Alexa Mini.

AMERICAN CINEMATOGRAPHER

30 de agosto de 2021

Imágenes de prueba de cámara cortesía de Manuel Lübbers

Por Jay Holben

 

El gran formato es una de las tendencias actuales más populares en cinematografía. Es una buena opción para los cineastas, pero existen bastantes conceptos erróneos sobre el formato y su uso. Si bien el objetivo de esta entrega es aclarar tantos de estos como podamos, nada mejor que comprender un concepto mejor que ver los resultados.

Demostrar los conceptos erróneos sobre los formatos más grandes es un ejercicio complejo y costoso de configurar, pero afortunadamente, el director de fotografía de Múnich Manuel Lübbers ya lo ha hecho por nosotros. Inicialmente me enteré de la prueba de Lübbers a través de una publicación en Facebook de M. David Mullen, ASC, quien elogió el trabajo de Lübbers, y me sentí extremadamente feliz de encontrar los ejemplos a los que hemos hecho referencia en las siguientes páginas. Lübbers realizó esta prueba como su trabajo de tesis en la Universidad de Cine y Televisión (HHF) de Múnich, utilizando un equipo divisor de haz estereoscópico con una Alexa Mini y una Alexa 65.

El director de fotografía Manuel Lübbers emplea un equipo 3D de divisor de haz para la prueba de la cámara.

Estas pruebas prueban, sin lugar a dudas, los verdaderos hechos que rodean al «gran formato». Lübbers fue lo suficientemente generoso como para compartir sus resultados con AC para ilustrar claramente los conceptos erróneos y los beneficios de la cinematografía de gran formato, y los resultados hablan por sí mismos.

El siguiente es un desglose de los problemas:

1. “Gran formato”

Comencemos con algo importante: “Gran formato” no es un gran formato. En términos fotográficos, “gran formato” es en realidad un retrónimo que se remonta a los orígenes mismos de la fotografía. Las primeras fotografías se capturaron en placas de metal fotosensibles, papel y negativos en tamaños muy grandes de 6 «-8» en promedio.

La cámara fija Kodak Brownie, introducida en 1901, presentaba 120 películas (supuestamente llamada así porque fue el vigésimo intento de hacer película en rollo), a la que ahora nos referimos como «formato medio». ¡Este formato de variación de 56 mm x 41,5 mm a 56 mm x 224 mm!

A principios de la década de 1920, Oskar Barnack de Leica inventó el formato de cámara fija 135, tomando una película de cine de 35 mm y girándola 90 grados para pasar horizontalmente a través de la cámara a 8 perforaciones por imagen y creando el marco de 24 mm x 36 mm. Esta se convirtió en la opción estándar de “formato completo” (también un retrónimo acuñado después de que se introdujeran las cámaras económicas de formato de recorte), que todavía existe como estándar en la actualidad. Las placas fotográficas más grandes más allá de este tamaño se conocieron como formato mediano o grande.

Esto significa que tenemos cine Super 35 mm a 18 mm x 24 mm, aproximadamente; «Formato completo» a 24 mm x 36 mm; 70 mm a 52,5 mm x 23 mm; y el formato de cine más grande jamás producido comercialmente, Imax, con 51,638 mm x 70,739 mm, ninguno de los cuales ni siquiera se acerca a la película fija de formato medio más grande, y mucho menos al gran formato.

La cinematografía de “gran formato” se refiere a cualquier cosa más grande que Súper 35 mm, incluidos los formatos “gigantes” de 70 mm e Imax, pero es un nombre poco afortunado y, simplemente, incorrecto.

Las cámaras más utilizadas en la actualidad incluyen Arri Alexa 65, Alexa LF y Alexa LF Mini; Canon C500 MKII y C700 FF; Panavision DLX2; Sony Venecia; y Red Monstro VV.

No obstante, «gran formato» se ha convertido en un término popular para las cámaras de imágenes en movimiento digitales que cuentan con un generador de imágenes más grande que Super 35 mm.

«La experimentación con negativos de cine de mayor formato es tan antigua como la industria propia cinematográfica».

La diferencia de profundidad de campo cuando se compara el campo de visión con dos lentes diferentes: una de 35 mm en la Mini y una de 70 mm en la 65, ambas en una T2.8.

2. Nuevo de nuevo

La noción de que los lectores de imágenes de más de 35 mm son nuevos para la cinematografía es empíricamente errónea. La experimentación con negativos de cine en formato más grande es tan antigua como la industria propia cinematográfica. Ya en 1897, Enoch J. Rector exhibió Veriscope, una película de 63 mm de ancho que capturó un famoso combate de boxeo. Hemos tenido varias oleadas de experimentación con tamaños de película más grandes, incluidos más de una docena de formatos que debutaron durante las décadas de 1920 y 1930 y, por supuesto, los que aparecieron durante las guerras de la pantalla panorámica de la década de 1950.

Lo que ahora llamamos «formato completo» (basado en el formato de cámara fija de 24 mm x 36 mm 135) se llamó VistaVision cuando se introdujo en 1954 como la respuesta de pantalla ancha de Paramount al formato CinemaScope de Fox (basado en una patente de 1921 y una conversión de una Cámara “Color natural”).

VistaVision se utilizó por primera vez en la película navideña de 1954 White Christmas (fotografiada por Loyal Griggs, ASC) y luego fue adoptada por Alfred Hitchcock en cinco películas:  To Catch a Thief, The Trouble With Harry, The Man Who Knew Too Much, Vertigo y North by Northwest (todo fotografiado por Robert Burks, ASC).

3. Factor de recorte inverso

Otro concepto erróneo es que los formatos superiores a Súper 35 mm cambian la distancia focal de todos sus objetivos a distancias focales más amplias. Esto es, enfáticamente, falso. La distancia focal de un objetivo determinado nunca cambia, independientemente del formato en el que se utilice. Hay una frase que se repite con frecuencia en óptica: «Un 50 es un 50».  Ahora bien, es cierto que el ángulo de visión de un objetivo de distancia focal determinado cambia según el formato con el que se utiliza. Una lente de 50 mm en una cámara de 65 mm es una lente ancha. Una lente de 50 mm en una cámara Super 8 mm es una lente muy larga. Esto significa que, para un campo de visión determinado, o una composición y tamaño de sujeto determinado, es probable que esté utilizando una lente de longitud focal más larga en una cámara de formato más grande que la que usaría en una cámara Super 35 mm, porque las lentes de distancia focal al que está acostumbrado en Super 35 mm tendrán un ángulo de visión más amplio en la cámara de formato más grande. Sin embargo, la distancia focal de la lente sigue siendo la misma. Esto es cierto independientemente del formato para el que se diseñó el objetivo. Entonces, independientemente de si toma una lente de 50 mm diseñado para una cámara de 65 mm y la coloca en una cámara Super 8 mm (si puede), o toma una lente de 50 mm diseñado para esa cámara Super 8 mm, sus ángulos de visión seguirán siendo idénticos.

Una comparación de tamaños de sensores. (Imagen cortesía de Jay Holben)

4. Compresión de imagen

Como está escrito en muchos libros de texto y se cree ampliamente, los lentes más largos conducen a una mayor compresión del sujeto al fondo en la imagen, y los lentes más anchos conducen a menos compresión y más exageración de la separación entre el sujeto y el fondo. Y dado que los sensores de formato más grande requieren lentes de distancia focal más larga, la captura de formato más grande brinda una mejor separación del sujeto y el fondo, porque está usando lentes más largos e introduciendo más compresión. Nuevamente, esto es incorrecto. La compresión de la imagen no es el resultado de la distancia focal del objetivo; es el resultado de la distancia relativa de la cámara al sujeto y del sujeto al fondo. Eso es todo.

Supongamos que tiene una cámara Super 35 mm con una lente de 50 mm, colocada a 10 ‘de un sujeto que está a 20’ del fondo, y coloca una cámara de formato completo justo al lado de la primera, a la misma distancia del tema y antecedentes. Para igualar el ángulo de visión, utilizará una lente de 100 mm en la cámara de formato completo. Ambas tomas imagen tendrá exactamente la misma compresión de porque la distancia al sujeto y la distancia al fondo es exactamente.

El simple hecho de cambiar a una lente de mayor distancia focal no induce una mayor compresión de la imagen. Sin embargo, si quisiera igualar el ángulo de visión mientras usa la misma lente de distancia focal que la cámara Super 35 mm, entonces debería acercar la cámara de formato completo al sujeto. Este cambio en la posición física de la cámara provocaría un cambio en la compresión de la imagen y, en este caso, exageraría la distancia en el lugar de comprimirla.

Una mirada al ruido del Mini y el 65, ambos a 3200 ISO. El 65 tiene un ruido menos perceptible.

5. Profundidad de campo

En realidad, es exacto decir que el «formato grande» tiene menos profundidad de campo que el Super 35 mm. Como se mencionó anteriormente, cuando esté filmando formatos más grandes que Super 35 mm, necesitará lentes de mayor distancia focal para lograr los mismos ángulos de visión a la misma distancia del sujeto. Como está utilizando lentes más largos desde la misma distancia y, aparentemente, con la misma apertura, su profundidad de campo es ¼ de la distancia que se encuentra en Super 35 mm. Esto sucede con una duplicación de la distancia focal: su profundidad de campo en realidad se convierte en un 25% de lo que era, en lugar de solo la mitad. Entonces sí, la profundidad de campo se reduce considerablemente en formatos más grandes que Super 35 mm.

6. Distorsión geométrica de la lente

Esto es algo cierto, porque las cámaras de formato más grande usan lentes de distancia focal más larga para un ángulo de visión determinado, y las distancias focales más largas generalmente tienen menos distorsión geométrica (es decir, distorsión de barril o alfiletero) que las lentes  con distancias focales más cortas. Sin embargo, recuerde que el diseño óptico de la lente debe presentar un círculo de imagen más grande para cubrir el generador de imágenes de mayor formato, por lo que crear un círculo de imagen más grande puede inducir cierta distorsión geométrica, especialmente para cámaras con la limitación de una montura de lente PL. La montura LPL, que tiene un diámetro de garganta más grande, puede permitir ángulos de visión más amplios, círculos de imagen más grandes y menos distorsión. Entonces, si bien esta creencia puede ser cierta, depende en gran medida de la lente en sí, y no es una regla estricta.

7. Ruido

La relación señal-ruido de los generadores de imágenes más grandes es a menudo mejor que la de los generadores de imágenes más pequeños. Esto es una cuestión de física, ya que los generadores de imágenes más grandes tendrán más fotositos para capturar más muestras, o fotositas más grandes que capturan más fotones de luz. Sin embargo, estas variables dependen en gran medida del diseño del fabricante de su tecnología de sensores, la ISO base y la metodología de exposición. Pero dentro de la línea de cámaras de un solo fabricante, en igualdad de condiciones, el generador de imágenes más grande a menudo tendrá menos ruido que uno más pequeño.

 8. Capacidad de cultivo

Debido a que está trabajando con un área de imagen más grande y, en general, un recuento de fotosito más alto, también es posible que tenga un área de imagen más grande para estabilizar, reencuadrar, «mirar alrededor» o incluso recortar el sensor para obtener un campo de visión diferente de una lente determinada.

9. Opciones de lentes

A medida que el sensor se hace más grande, también debe hacerlo el círculo de la imagen proyectada desde la lente para que cubra el área de la imagen más grande. Esto impone una limitación a las lentes disponibles. Sin embargo, a medida que aumenta la distancia focal de una lente en una serie determinada, el círculo de la imagen también aumenta, por lo que es posible que incluso las lentes diseñadas para Super 35 mm o Academy 35 mm cubran los lectores de imágenes de formato más grande con las distancias focales más largas de la serie o las distancias focales más largas en un zoom. A continuación, sin embargo, se muestran algunos de los objetivos disponibles diseñados específicamente para cámaras de formato más grande.

Primas esféricas:
Angénieux Optimo Prime
Arri DNA LF
Arri Prime 65 S
Arri Prime DNA
Arri Prime 65
Arri Signature Prime
Arriflex 765
Canon CN-E
Canon K-35
Canon Sumire Prime
Cooke S7 / i
Cooke Doble velocidad Panchro
Cooke Duopanchro
DZOFilm Vespid Prime
IB / E Raptor
Irix Cine
Kinefinity Mavo
Laowa Zero-D
Leitz M 0.8
Leitz Primes
Leitz Thalia
Meike FF-Prime Cine
Nitecore Superior Prime Full
Frame Cinema
Panavision Panaspeed
Panavision Primo 70
Panavision Primo Artiste
Panavision Sphero 65
Panavision Super Panavision 70
Sistema Panavision 65
Rokinon-Samyang Cine DS
Rokinon-Samyang Xeen
Schneider-Kreuznach Xenon FF
Servicevision UltraScorpio 70 Super FF
Sigma Cine FF Classic
Sigma Cine FF High Speed ​​PrimeÆ
Spirit Lab Prime Al
Spirit Lab Prime Ti
Todd -AO CineSpace 70
Tokina Cinema ATX
Tokina Cinema Vista One
Tokina Cinema Vista Prime
Tribe7 Blackwing7
Vantage One4
Zeiss Compact CP.2
Zeiss Compact CP.3
Zeiss Supreme Prime

Zooms esféricos Angenieux EZ
Firma Arri
Fujifilm Premista
Laowa Ooom
marco Leitz completa Cine
Panavision Primo 70
Sigma FF
Todd-AO
Tokina Cine ATX
Tokina Cine Vista
Zeiss cz.2

Anamorphic Primes
Caldwell Photographic Chameleon
Cooke Anamorphic / i Full Frame Plus
Glaswerk One
JDC Xtal Xpress
P + S Technik Technovision 1.5x
Panavision Ultra Panatar 1.25x
Panavision Ultra Vista 1.65x
Scorpiolens 2x Full Frame
Scorpiorama 70 1.65x Full Frame
Todd-AO
Hawk 65
Hawk 65 Vintage ’74
Xelmus Apollo Full Frame

Zooms anamórficos
P + S Technik Technovision 1.5x
Spirit Labs Pure First

El uso de los LEDS

El volumen LED de la temporada 4 de Star Trek: Discovery. (Foto de Michael Gibson, cortesía de Paramount Plus).

AMERICAN CINEMATOGRAPHER

En las paredes: producción virtual para rodajes en serie

Julio de 2021 – Por Noah Kadner

 

Las producciones de televisión se adentran en el mundo de las paredes LED y los efectos visuales en la cámara.

Una variedad ilimitada de entornos interactivos que se pueden capturar en la cámara en un solo escenario ha sido una noción atractiva durante el último año y medio. Esta marca de producción virtual, que emplea una pared LED, cámaras de seguimiento y renderizado de gráficos en tiempo real, requiere menos viajes y, cuando se combina con equipos y flujos de trabajo con capacidad remota, ofrece ventajas críticas adicionales para los espectáculos que trabajan bajo restricciones de seguridad.

Cuando la pandemia finalmente disminuya, parece probable que el atractivo de esta metodología perdurará, y que su proliferación dentro del mundo de la televisión episódica, en particular, continuará. Las configuraciones de pared LED amplían el alcance geográfico potencial de la escritura de historias en formato largo, por ejemplo, sin cambios sustanciales o costos para el flujo de trabajo de posproducción. Y para los episodios que tienen lugar dentro de un conjunto limitado de configuraciones regionales, los costos de crear algunos entornos 3D muy detallados se pueden amortizar en una temporada completa o en varias temporadas. Además, dado el potencial de un escenario poblado físicamente esencialmente solo por los actores y un operador, con otro equipo trabajando de forma remota, los cineastas pueden trabajar con colaboradores específicos independientemente de dónde se encuentren en el mundo.

A continuación, ofrecemos una descripción general de algunos de los programas de televisión que ya han entrado en el ámbito de la producción virtual de paredes LED.

La serie de ABC Station 19 ha adoptado efectos visuales en la cámara para escenas de conducción, con la ayuda de sistemas de producción virtual y de pared LED en Stargate Studios. (Foto cortesía de Sam Nicholson, ASC.)

Al rescate

Mientras que algunas series, como los shows de Disney Plus Star Wars, fueron concebidas para entornos de volumen de LED, también conocidas como escenarios de “realidad mixta” o “XR”, otras giraron hacia paredes de LED para el trabajo de efectos visuales a medida que el medio se volvía más accesible. La estación 19 de ABC, un programa de acción y rescate, intercambió secuencias de conducción de vehículos de emergencia en el lugar por paredes LED y placas de conducción retroproyectadas. Daryn Okada ASC, productor, director y director de fotografía de la serie, ayudó a supervisar el nuevo enfoque a partir de mayo de 2020.

Miembro de la sociedad Daryn Okada. (Foto de David Williams, cortesía del archivo de ASC)

“Nuestro primer desafío fue descubrir cómo trabajar dentro de los protocolos de seguridad sin un resultado que pareciera afectado por esas restricciones”, dice Okada. “La producción virtual siempre estuvo en el fondo de mi mente, pero se redujo al espacio; No pudimos encontrar un escenario para un gran volumen para nuestros sets de pie porque todos esos escenarios estaban reservados o en espera. Pero había varias placas que filmamos en lugares de Seattle que podríamos reutilizar para secuencias de conducción utilizando una pared LED más modesta».

El equipo de Station 19 trabajó con Sam Ncholson ASC, y sus instalaciones de Stargate Studios para crear un entorno de escenario seguro en Los Ángeles. (Nicholson brindó servicios similares para la serie Run de HBOel año pasado). “Nuestra pantalla de contenido principal tenía aproximadamente 12 pies de ancho y era modular, por lo que podíamos usarla fácilmente con cualquier vehículo desde cualquier ángulo”, dice Okada. “También llevábamos tres grandes monitores OLED a donde quisiéramos ver reflejos en los espejos retrovisores y laterales o sobre el capó. Teníamos cuatro placas funcionando juntas en sincronía con el código de tiempo, y el equipo de Stargate mantuvo un registro de dónde estábamos exactamente en cada toma. Entonces, si quisiéramos tomar una nueva toma desde dentro de una escena, podríamos saltar directamente a esa parte del metraje de fondo, y nuestra cobertura coincidiría con la continuidad. Esa eficiencia marcó una gran diferencia».

 Miembro de la sociedad Sam Nicholson (Foto cortesía de Sam Nicholson, ASC)

El sistema en tiempo real ThruView de Stargate transforma el metraje en 2D capturado como placas de conducción de fondo en escenas en 3D en Unreal Engine, para que puedan interactuar con la cámara en el escenario a través del seguimiento. “Estamos haciendo un seguimiento de adentro hacia afuera usando MoSys o de afuera hacia adentro con OptiTrack”, dice Nicholson. “También podemos seguir el movimiento de la cámara con un cabezal de movimiento horizontal / vertical / vertical y repetible. La reasignación de imágenes 2D en un entorno 3D proporciona una ilusión 2.5D de profundidad a la cámara, y nuestra iluminación cinética inmersiva es clave para nuestro proceso ThruView».

«La pared LED es fantástica para crear entornos».

Una calle virtual que se muestra en una pared LED, como se ve desde el interior de un automóvil en el set de la Estación 19. (Foto de Daryn Okada, ASC)

Caminata virtual

Paramount Plus ha incorporado efectos visuales en la cámara en su lista de técnicas de efectos visuales en dos series: la temporada 4 de Star Trek: Discovery y la temporada 1 de su spin-off, Star Trek: Brave New Worlds. Los espectáculos comparten un volumen LED en forma de herradura de 270 grados, 70’x30 ‘, construido por Pixomondo en Toronto, que puede ser alimentado con animación en tiempo real desde Unreal Engire.

El volumen LED de la temporada 4 de Star Trek: Discovery. (Foto de Michael Gibson, cortesía de Paramount Plus).

“En la era Covid, poder rodar lugares a gran escala sin tener que salir del escenario es un gran beneficio”, dice Jason Zmmerman, supervisor principal de efectos visuales de ambas series de Star Trek. «La pared LED es fantástica para crear entornos y en Star Trek, por supuesto, viajar a mundos diferentes es algo que nos interesa mucho».

“Estamos usando paneles LED Black Pearl BP2 de 2,8 mm de Roe para la pared y los paneles de la serie Carbon CB5 de 5,77 mm para el techo”, dice Mahmoud Rahnama, jefe de estudio/supervisor de efectos visuales en Pixomondo Toronto. “El techo es totalmente personalizable, por lo que podemos sacar paneles y colgar luces prácticas sobre el volumen, o simplemente usar los LED del techo para iluminar. Tenemos más de 60 camaras de captura de movimiento OptiTrack con la capacidad de rastrear dos cámaras, [que están] en Technocranes, Steadicams, plataformas rodantes y similares, simultáneamente”.

Zimmerman señala: “Muchos programas ven esto como una oportunidad para avanzar en la realización cinematográfica. Obtener algo en la cámara en el día es mucho mejor que la pantalla verde en muchos sentidos. Una diferencia importante [en términos de flujo de trabajo] es que los departamentos de diseño de producción y arte están mucho más involucrados mucho antes en el proceso, porque tienen que preparar los activos para ser fotografiados en lugar de esperar hasta después de la filmación». Y añade: “Si no fuera por Covid, probablemente habría estado en Toronto unos meses ayudando a subir el volumen. Afortunadamente, nuestro equipo es fenomenal. Puedo usar el [sistema de asistencia de video QTake de Neblek para iniciar sesión de forma remota y ver cómo están filmando. Si surge algún problema, los directores o ejecutivos pueden comunicarse y puedo ver de qué están hablando. Los efectos visuales ya han estado funcionando con configuraciones remotas durante un tiempo, por lo que cuando sucedió Covid, nos tomó un poco de tiempo adaptarnos de estar en una oficina. Aparte de tener que levantarnos un poco antes por la diferencia de zona horaria entre Los Ángeles y Toronto, todo lo demás era algo natural para nosotros».

Espacio y mar

Los programas que planearon aprovechar los efectos visuales en la cámara desde el principio incluyen dos que se filmaran con StageCraft, el canal d animación en tiempo real de Industriaql Light & Magic para volúmenes LED: The Book of Boba Fett, que se lanzará a finales de este año, y Obi-Wan Kenobicuyo lanzamiento está previsto para 2022. Ambas series utilizarán el mismo volumen construido inicialmente para The Mandalorian en Manhattan Beach, California. Más programas de Star Wars, incluido Andor, están en producción en Pinewood Studios en Inglaterra, donde ILM ha construyó otro gran volumen StageCraft. La temporada 3 de The Mandalorian ya está en producción.

Mientras tanto, Netflix está adoptando un enfoque holístico liderado por el director de producción virtual Girish Balakrishnanj, con mucha investigación y desarrollo de las mejores prácticas. El objetivo es una metodología estandarizada que los productores puedan replicar consistentemente en las muchas regiones donde Netflix produce contenido original. Una de las primeras series importantes de XR-Stage que salió de la puerta para el servicio de transmisión es 1899. Creado por Jamie Friese y Baran bo Odar. 1899 tiene lugar a principios de siglo a bordo de un barco de migrantes que navega hacia los Estados Unidos desde Europa. Inicialmente planteada como una sesión de locación que viajaría por toda Europa, la producción fue completamente reconfigurada para el volumen, ubicado en Studio Babelsberg en Alemania, que mide aproximadamente 75’x23′.

«Las cámaras y los datos están evolucionando tan rápido que la solución actual puede ser reemplazada por algo completamente diferente dentro de seis meses».

El director de fotografía Nikolaus Summerer (cuarto desde la izquierda) y sus colegas en el set de 1899 de Netflix. La producción emplea un volumen LED en el Dark Bay Virtual Studio de Alemania, construido en asociación con Arri Solutions Group. (Foto cortesía de Arri Inc.)

Ajustando la vela

Otra serie importante en proceso es Our Flag Means Death de HBO Max. Taika Waititi dirige la comedia de temática pirata de media hora y también interpreta al infame Barbanegra. La estrategia de producción virtual del programa requiere rodear un barco pirata de tamaño completo con un volumen de LED masivo en el escenario para simular el mar abierto.

Nicholson aporta su considerable experiencia a Our Flag Means Death como supervisor de producción virtual. Una tarea requirió que grabara placas frente a la costa de Puerto Rico, usando cámaras Blackmagic Ursa Mini Pro 12K y Pocket Cinema 6K, combinadas con lentes Sigma Art. “Construimos un equipo 360 estabilizado con ocho Pocket 6K en una matriz circular, cada uno grabando en un SSD Sandisk de 4TB”, dice Nicholson. “Seguimos con una plataforma estabilizada construida en el cabezal remoto Black Unicom con cinco cámaras Blackmagic Ursa de 12K. Los equipos de múltiples cámaras panorámicas presentan un verdadero desafío para la gestión de datos, con resoluciones de hasta 60K para nuestras imágenes finales unidas».

«Muchos programas ven [los efectos visuales en la cámara] como una oportunidad para avanzar en la realización de películas».

Para cada toma de placa, el equipo de placa de Nicholson capturó más de 200 TB de metraje. “Cada toma fue de cinco minutos, multiplicado por ocho cámaras, lo que nos dio 40 minutos de datos por toma”, dice. “También queremos mostrar los diarios, por lo que capturamos todo en un conmutador ISO Blackmagic Alem Extreme, que nos brinda una división de ocho vías de 1080p que podemos compartir desde la ubicación todos los días y discutir. En última instancia, nuestras placas inmersivas están estabilizadas, desgranadas y cosidas para que cada escena se pueda reproducir a través de DaVinvi Resolve en Unreal Engine de Epic en el set. Luego, la imagen final se distribuye a través de múltiples tarjetas Blackmagic 8K DeckLink a 14 cuadrantes 4K mapeados en el enorme volumen de LED de NEP Sweetwater».

Nicholson buscó formas de hacer que la captura de planchas sea de alta calidad y rentable. 

“La gente tiende a olvidar que los volúmenes de LED actuales son de color de 10 bits con una resolución relativamente baja”, dice. “Por lo tanto, es esencial hacer coincidir sus cámaras y su contenido final con la pantalla LED desde el principio. Ahora utilizamos varias cámaras, lentes, memoria, almacenamiento y reproducción de alta calidad a menos de la mitad del costo de hace unos años. Las cámaras y los datos están evolucionando tan rápido que la solución actual puede ser reemplazada por algo completamente diferente dentro de seis meses”.

Shot Craft: sigue el sol

AMERICAN CINEMATOGRAPHER

26 de julo 2021

Por Jay Holben 

 

Los directores de fotografía que trabajan en películas independientes deben aprender a aprovechar al máximo las limitaciones (fondos limitados, tiempo limitado, equipo limitado y personal limitado) para hacer realidad la visión del director. Afortunadamente, el mundo está lleno de luz natural gratuita. Pero, ¿sabe realmente cómo aprovecharlo y darles forma a sus necesidades?

SEGUIMIENTO: LA TIERRA DA VUELTAS Y VUELTAS

Todos sabemos que el sol sale por el este y se pone por el oeste. Los directores de fotografía también deben comprender que, en América del Norte, el sol alcanza su punto máximo en un cielo de verano y más bajo en un cielo de invierno. También debe conocer el ángulo en el que la luz solar llegará a su ubicación cada hora del día en que estará allí. ¿El sol atravesará las ventanas al amanecer o al anochecer? ¿O quizás no en absoluto?

En los términos más básicos, si las ventanas miran hacia el este, la luz del sol brillará directamente en ellas por la mañana; si las ventanas dan al oeste, el sol de la tarde brillará; si miran hacia el norte, nunca buscará luz directa a través de ellos en ningún momento del día; y si miran al sur y es verano, probablemente no verá ninguna luz directa (según la latitud de la ubicación), mientras que, en invierno, podría tener algún tipo de luz directa durante todo el día.

Una de las primeras cosas que hará cuando sepa de una ubicación, incluso antes que el explorador, es buscarla en Google Maps y averiguar la orientación de la ubicación hacia el sol. Luego, cuando explores, lleva una brújula. (Puede descargar una aplicación básica de brújula en su teléfono). Tal vez el director quiera que la luz del sol atraviese los grandes ventanales, pero usted mira la brújula y descubre que las ventanas están orientadas hacia el norte. La única forma de que la luz del sol atraviese es creando una configuración para redirigir la luz (o encontrar otra ubicación). También debe acostumbrarse a pensar en las direcciones de la brújula si aún no lo ha hecho.

Cualquier gel que use en un espejo tendrá el doble de fuerza porque la luz atraviesa el gel dos veces, por lo que un filtro de ½ CTO en un espejo tendrá el efecto de un CTO completo.

La luz solar natural se ha adaptado para que parezca luz de luna mediante la incorporación de espejos, geles de difusión y corrección de color. (Fotos cortesía de Jay Holben)

DE SALIDA A PUESTA DEL SOL

La duración del día y la noche difieren según la distancia desde el ecuador, y las horas de salida y puesta del sol cambian de un día a otro. Al norte del ecuador, el amanecer se hace progresivamente más temprano todos los días a partir del 21 de diciembre (solsticio de invierno) hasta el 21 de junio (solsticio de verano), luego se hace más tarde cada mañana hasta el 21 de diciembre. luego antes, entre los solsticios. Esto hace que el 21 de junio sea el período de luz más largo y el 21 de diciembre el más corto.

Cuando estás al sur del ecuador, en Australia, por ejemplo, esas fechas cambian. El solsticio de verano es en diciembre y el invierno es en junio, por lo que de junio a diciembre, sus días se alargan. Cerca de los polos norte y sur, las cosas son muy diferentes; Internet está repleto de recursos de información de seguimiento solar.

Depende de usted trabajar con el sol y su movimiento para mantener la continuidad del look.

Los rumbos de la brújula del sol y su ángulo desde el suelo al cielo (o «azimut».

MOVIMIENTO IMPLACABLE 

El movimiento constante del sol a través del cielo durante el transcurso de un día puede ser uno de los mayores impedimentos para grabar con luz natural, y depende de usted trabajar con el sol y su movimiento, planificar su día para que pueda seguir el movimiento del sol con sus tomas y cobertura y mantener la continuidad de la mirada. Afortunadamente, el movimiento del sol es constante y predecible.

El sol se mueve por el cielo ¼ de grado por minuto. Con una aplicación de seguimiento solar, puede predecir dónde estará el sol en cualquier momento de cualquier día, incluso con años de anticipación. Utilizo la aplicación Helios de Chemical Wedding que fue diseñado para directores de fotografía, pero hay otras, incluidas algunas gratuitas. Si no tiene una aplicación de seguimiento solar en su teléfono, obtén una ahora.

Hay dos medidas independientes para la posición del sol: el rumbo de la brújula y su «altura» (o acimut) en el cielo. El rumbo de la brújula se divide matemáticamente en 360 grados, siendo el norte el cero, el este 90 grados, el sur 180 y el oeste 270. El ángulo de acimut es un arco de 180 grados de horizonte a horizonte. El azimut de noventa grados es recto hacia arriba y 0 grados es el horizonte al nivel del mar. Debe tener una brújula con un clinómetro, que le permita ver un acimut particular. Tengo una aplicación de clinómetro que me permite mirar a lo largo del costado de mi teléfono y me dirá qué azimut estoy mirando.

Con esta información y estas herramientas, puede determinar exactamente dónde estará el sol en cualquier momento. Sabrá qué pasará detrás de un edificio en la posición de su cámara exactamente a las 5:20 pm y volverá a mirar a las 5:47 pm

También hay una forma de estimar esto sin las herramientas sofisticadas. Dado que el sol se mueve 1/4 de grado por minuto, eso se traduce en 3,75 grados cada 15 minutos y 15 grados cada hora. Resulta que el ancho de su dedo cuando se extiende a la longitud del brazo desde su ojo subtiende alrededor de 3,75 grados en su ojo (es decir, el ancho de su dedo, desde su perspectiva, parece tomar aproximadamente 3,75 grados del arco dentro de su campo de visión). vista). Entonces, el ancho de su dedo se aproxima a cuánto se moverá el sol en 15 minutos, y el ancho de cuatro dedos uno al lado del otro se aproxima a cuánto se moverá en una hora.

Por supuesto, no debes mirar directamente al sol. Puede mirarlo a través de un vidrio de soldadura o un filtro de visualización de alto contraste, aunque aún debe tener mucho cuidado, ya que generalmente no filtran toda la radiación UV, que puede dañar mucho sus ojos. Ambas herramientas también son excelentes para observar las nubes (ya que filtran bastante la radiación dañina de la luz solar indirecta, aunque debe tener cuidado), por lo que puede estimar cuándo las nubes en movimiento pueden cubrir o descubrir el sol.

Una captura de pantalla de la aplicación de seguimiento solar Helios Pro de Chemical Wedding, que presenta la dirección de los rayos del sol en momentos específicos durante un día específico. En el centro de la imagen está el ASC Clubhouse en Hollywood, donde se está llevando a cabo un evento.

APROVECHAR EL SOL 

La luz natural indirecta también puede ser su amiga. La sombra abierta, donde el sol está bloqueado, pero aún tiene mucha luz ambiental, puede ser la luz suave y sin dirección más hermosa. Sabiendo cuándo estará el sol en el lado opuesto de un, puede colocar su área de disparo a la sombra. Esta es una forma sencilla de lograr un look elegante.

Los reflectores, las tarjetas de rebote o los pizarrones y los espejos son herramientas fenomenales para trabajar con la luz del día. Incluso si está filmando interiores, el material que rebota fuera de las ventanas puede ayudar a extender la luz natural hacia él. Es posible que las ventanas con exposición al norte nunca reciban luz solar directa, pero el área fuera de las ventanas puede estar expuesta a la luz directa todo el día. Los reflectores o el material de rebote colocados con criterio pueden redirigir esa luz a su ubicación de manera bastante constante a lo largo del día, siempre que sus empuñaduras muevan las herramientas en conjunto con el sol. Soy un gran admirador de los espejos porque me permiten reflejar la luz solar directa y fuerte donde quiera, aunque la lucha es que los espejos deben ser monitoreados y ajustados de cerca durante todo el día mientras el sol se mueve. Un reflector más difuso no requiere una supervisión tan constante.

Los tableros brillantes, los espejos, los tableros de cristales, el núcleo de espuma, la muselina, el Grid Cloth y el Ultrabounce son excelentes herramientas para rebotar o reflejar la luz del sol.

TEORÍA DEL SOL MÁGICO 

Aunque no existen reglas estrictas sobre cómo disparar a la luz del sol, muchos directores de fotografía prefieren colocar sus tomas de modo que el sol ilumine a sus sujetos a contraluz. Entonces, si está filmando temprano en la mañana, su talento estaría mirando hacia el oeste (lejos del sol), y al final de la tarde, ellos mirarían hacia el este. La luz alrededor del mediodía en verano ser la más dura porque está directamente sobre la cabeza, lo que le da al talento sombras profundas en las cuencas de los ojos y la barbilla.

Por lo tanto, los directores de fotografía a menudo “perseguirán” el sol, manteniendo el talento en contraluz todo el día girando la posición de la cámara para mirar hacia el sol. (Tu talento también te lo agradecerá porque entrecerrará menos los ojos). En el punto álgido del día, las sedas suaves sobre tu cabeza pueden difuminar la luz del sol y agregar reflectores detrás del talento puede continuar con el aspecto de la luz de fondo natural.

Pero, ¿qué pasa cuando tienes dos personajes uno frente al otro? ¿Y si es un tiroteo al amanecer? Digamos que estás filmando una escena en la que dos vaqueros se enfrentan en Main Street. Esto significa que un personaje puede ser iluminado a contraluz por el sol, pero el otro estará iluminado de frente. Muchos directores de fotografía lo filmarían de esta manera porque es realista, pero no es necesariamente el mejor aspecto. De hecho, puede resultar discordante e incluso visualmente incómodo tener un personaje con una hermosa luz de fondo y el otro con una luz frontal intensa; no se siente bien.

Un aspecto más refinado es tener ambos personajes retroiluminados. Sorprendentemente, esto parece correcto para la audiencia. Debido a que ambos personajes tienen la misma calidad y tipo de luz, la audiencia no lo cuestiona. Esto se conoce como la teoría del sol mágico: el sol se mueve “mágicamente” donde el director de fotografía quiere que esté, incluso dentro de una sola escena. Usando esta teoría, puedes grabar a un vaquero y todos los ángulos frente a él por la mañana, con el sol de la mañana iluminándolo a contraluz, y luego grabar al otro vaquero por la tarde, con la luz de fondo ahora colocada a la derecha desde esta nueva posición. Por mucho que esto pueda parecer una trampa de continuidad, es la calidad constante de la luz sobre los actores lo que hace que esto se vea y se sienta bien.

SUAVIZAR EL SOL

El uso de difusores (Grid Cloth, Silent Frost, Silk, etc.) para suavizar la luz solar directa puede crear un problema en el fondo: la luz del sujeto tiene una calidad suave agradable, pero es una exposición más baja porque algunos la luz se pierde en la difusión, por lo que el fondo recibe una luz dura y más caliente. Dependiendo del tamaño de la toma, la profundidad de campo y el movimiento de la cámara, es posible que pueda incorporar una red simple o doble en el fondo para ayudar a reducir un poco la intensidad del fondo. Esto se coloca en toma. Si está ligeramente desenfocado, más allá de la profundidad de campo, la red desaparecerá y simplemente actuará como un gran filtro ND para el fondo. Siempre he llevado redes simples y dobles de 20’x20 ‘para este propósito.

INTERIORES CON LUZ NATURAL 

Al fotografiar interiores, a veces no hay suficiente luz del día para obtener una buena exposición, o es necesario equilibrar la exposición del interior con la luz exterior visible a través de las ventanas, y debe agregar luz. Si tiene luminarias LED bicolores o iluminación con balance de color de luz diurna, ¡excelente! Pero el director de fotografía independiente a menudo se limita a los accesorios menos costosos disponibles, y eso suele ser de tungsteno. Un 2K es el accesorio más grande que puede conectar de manera segura a un tomacorriente estándar, y podría pensar que puede usar gel CTB en un accesorio de tungsteno 2K para equilibrar el color para la luz del día. Sin embargo, cuando haces eso, cortas la salida de luz en un 25 por ciento (2 diafragmas menos). Ya está usando una luz de tungsteno más débil para contrarrestar la luz brillante del exterior de las ventanas, y ahora está convirtiendo su 2K en 500 vatios. Eso no va a funcionar. La mejor opción es gelificar las ventanas con CTO, que convierte la luz del día en un equilibrio de color de tungsteno. Esto también reducirá la luz fuera de las ventanas en 2/3 de parada, lo que ayudará aún más.  Eso no le impide usar espejos o reflectores en el exterior para empujar la luz hacia la habitación, pero ahora, si debe usar accesorios de tungsteno en el interior, puede usarlos a plena potencia y tener más luz para contrarrestar el brillo del exterior.

Un último consejo: a veces he puesto CTO o CTB en un espejo para sesgar el color de la luz reflejada que entra en una habitación. Tal vez quiera calentar la luz del espejo duro reflejada contra la luz del día ambiental más fría para tener rayas cálidas del atardecer. Si hace esto, recuerde que cualquier gel que use tendrá el doble de fuerza porque afecta el color de la luz (y la intensidad de la luz) dos veces; la luz atraviesa el gel una vez antes de llegar al espejo, luego rebota en el espejo y vuelve a atravesar el gel. Por lo tanto, un filtro de ½ CTO en un espejo tendrá el efecto de un CTO completo.

RETO DIGNO 

A menudo he dicho que uno de los trabajos más difíciles para un director de fotografía es el exterior a la luz del día. Eso puede sonar extraño, pero mantener una apariencia consistente en el transcurso de un día o incluso días requiere todas las herramientas del arsenal del director de fotografía. Pasar un día completo (o dos o tres días) filmando una secuencia exterior diurna que solo durará un momento en la pantalla puede ser uno de los trabajos más desafiantes que jamás harás. Respire hondo, planifique su día y espere que la madre naturaleza esté de su lado.

Preparándose para grabar al atardecer.