Tutoría 5 - RMPA - UT4 y 5 - Curso 24·25 - 13 de Marzo - Contenido educativo
Ajuste de pantallaEl ajuste de pantalla se aprecia al ver el vídeo en pantalla completa. Elige la presentación que más te guste:
Grabación de tutoría de RMPA
Os quería preguntar, bueno, sobre todo es correspondiente a la tarea, o digamos en el momento que estamos en cuanto a tutorías, que no he visto más dudas, es la unidad 4, sobre intercambio de materiales, distintos formatos, etc.
00:00:01
No sé si sobre la tarea tenéis dudas, alguna concreta. Yo aún así ahora diré un par de cosas a tener en cuenta para que tengáis más claros algunos aspectos.
00:00:17
pero bueno, si ya os habéis puesto con ella
00:00:33
pues mejor que mejor, por si me queréis plantear dudas
00:00:35
he visto que alguna persona ya incluso
00:00:37
me la ha entregado, pero bueno
00:00:39
vale, y luego, ahora vuelvo a esto
00:00:41
la otra duda es
00:00:43
bueno, habéis visto los simulacros
00:00:44
de examen, alguna duda al respecto
00:00:47
no voy a hacer un repaso
00:00:49
de cómo es el simulacro, dado que entiendo que
00:00:51
ya sois alumnos
00:00:53
que habéis estado en otros cursos y bueno, creo que
00:00:54
se explica en sí mismo
00:00:57
pero
00:00:58
Pero bueno, si tenéis alguna duda o algo que queráis ver, lo vemos también.
00:01:01
Preguntan, ¿cómo se hace el render en mono?
00:01:09
El render en mono.
00:01:12
Voy a compartir pantalla.
00:01:13
Cuando hablas de mono, por ir afinando, te refieres a que el audio salga solo en un canal mono.
00:01:15
Espera que comparto la primera tarea.
00:01:23
Vale, sobre la primera tarea, hay una cosa muy importante y es una de las cosas que quiero que veáis y que quiero que documentéis, ¿vale? Y es que vais a ver que exportáis, por ejemplo, una AF y luego esa AF lo intentáis importar en DaVinci y no abre nada, ¿vale?
00:01:26
Tened en cuenta, por ejemplo, la forma en la que se... ¿Veis mi pantalla, verdad? No, digo, por no hablar de vacío. A ver... Sí, vale. Cuando se sugiere que exportéis una EFE es que lo hagáis en un formato y además es el logo de ese software de Avid, ¿no?
00:01:46
de lo que es el Avid Composer
00:02:08
supongo que os suena
00:02:11
si no lo ha puesto en el temario
00:02:12
que es otro de las plataformas
00:02:13
de los softwares para hacer
00:02:15
postproducción y edición
00:02:17
aquí es donde empiezan los problemas
00:02:18
y vais a ver problemas o fortalezas
00:02:20
de que hay algunos de estos
00:02:23
formatos de intercambio pensados
00:02:26
para trabajar en ese software
00:02:27
entonces aunque lo deje exportar
00:02:29
luego a lo mejor al importarlo
00:02:32
da problemas o no es compatible
00:02:33
paradójicamente, por eso de hecho
00:02:35
en el temario pone si vas a llegar a davinci el más recomendado es xml por ejemplo para importar
00:02:36
y luego dentro de los xml también pues veis que hay uno para premier y también hay otros
00:02:42
relacionados con final cut vale eso qué quiere decir y si queréis os hago la muestra o me podéis
00:02:48
creer pero cuando yo he hecho aquí un pequeño montaje con más de un canal de vídeo y un canal
00:02:56
de audio, para que se vea un poco
00:03:02
como funciona esto
00:03:04
vais a ver que yo, si intento
00:03:06
ahora voy a lo de mono, vale
00:03:09
si yo intento importar
00:03:10
un AF que lo he sacado
00:03:12
correctamente, vale, yo intento ir aquí
00:03:14
tengo preparada esta carpeta de AF
00:03:16
que dentro además, cuando
00:03:18
exportáis
00:03:20
he hecho estas exportaciones
00:03:21
y como indica el enunciado
00:03:24
el AF es un archivo que luego
00:03:26
va exportando de manera
00:03:28
individual todos los clips
00:03:30
en este caso en MXF que tiene, para con ese AF recomponerlos y que la media esté recogida.
00:03:32
Otro de los formatos se basa en referencias que hay que revincular del proyecto original
00:03:38
o una copia que se haya pasado, pero formatos de intercambio como el AF
00:03:43
permite que se haga ese render de los materiales ya incluso recortados con las medidas que tiene.
00:03:47
El problema está cuando intentamos importar un AF, de dónde lo coges este AF,
00:03:55
el timeline que va a crear lo voy a llamar AF importar, ¿vale?
00:04:00
Y bueno, aquí hay distintas opciones que por defecto no suele haber que tocar, ¿vale?
00:04:06
Pero bueno, por ejemplo una es lo importo en el timeline que tengo abierto o que genere uno nuevo.
00:04:10
Pues yo voy a poner que me genere uno nuevo, por ejemplo, ¿vale?
00:04:17
Y yo le doy al OK y aunque en principio parezca que ha hecho ya el trabajo,
00:04:21
yo miro y en ningún momento ha importado nada
00:04:27
¿vale?
00:04:30
esto se debe a que
00:04:32
el
00:04:33
lo que es el
00:04:34
software
00:04:38
no lee correctamente ese tipo
00:04:40
de
00:04:42
formato de intercambio, yo le doy
00:04:43
incluso aunque le diga métemelo en este
00:04:46
timeline ¿vale?
00:04:48
y no como tracks adicional
00:04:50
sino que incluso sustituya
00:04:52
yo le doy a ok
00:04:54
Y nada, no hace nada, ¿vale? Pero quiero que veáis, y es uno de los procedimientos, es que si yo voy a Premiere, ¿vale? Sé que Premiere no, yo lo tengo aquí, pero no lo contáis con él, pero quiero que veáis que en Premiere, incluso que no es el de Avid, pues si yo, de manera similar, digo que importo en el proyecto, ¿vale? Lo tengo aquí preparado.
00:04:55
Este AF, ¿vale? Yo le doy a abrir y, bueno, pone mira, ver el informe, bueno, pues que tengas en cuenta posibles problemas, ¿vale? Veis que se me ha importado y de incluso por aquí estará, si no me equivoco, este, esa línea de tiempo, ¿vale? Si os fijáis, con sus cuatro canales, los cuatro de vídeo, ¿vale? Que son los del original.
00:05:14
Sí que es verdad que no es exactamente fiel, si os fijáis, pero tiene hasta las, igual que se ve en DaVinci, tiene hasta las disoluciones de imagen, fundidos, etc.
00:05:38
¿Vale? Tiene bastante, es decir, guarda bastante relación con lo que hemos trabajado.
00:05:49
entonces veis que DaVinci no lo mete
00:05:55
pero Premiere si
00:05:57
cuando se empieza en un
00:05:59
flujo de trabajo, cuando se empieza a trabajar
00:06:02
pues en un vídeo que se va
00:06:04
a seguir trabajando
00:06:05
en otro estudio de postproducción de sonido
00:06:07
y otro de color, ¿vale?
00:06:09
antes de, es decir, pues se va haciendo el montaje
00:06:11
pero no hay que volvérselo
00:06:14
ni con los efectos que se metan
00:06:15
ni con
00:06:17
lo que son los efectos de sonido, las transiciones
00:06:18
más allá de lo funcional para el montaje
00:06:22
¿por qué? porque
00:06:24
Es raro que si se continúa en un software distinto, ¿vale? Mantenga absolutamente todas las propiedades. Por ejemplo, para que os hagáis una idea, yo saqué, exporté el Premiere XML que os indicaba y lo he importado y es esta la solución.
00:06:25
Veis que no es exactamente igual, ahora nos vemos
00:06:46
Pero bueno, aparte de que cambia
00:06:49
De que cambia los colores
00:06:50
Que eso es lo de menos, de las pistas
00:06:52
Es XML, fijaos que
00:06:55
Por ejemplo, los efectos de sonido que tenemos aquí
00:06:57
¿Vale?
00:06:59
No están los fundidos
00:07:01
Los crossfades
00:07:03
Que sí que había en el original
00:07:05
Entonces, al final lo que se envía
00:07:06
A un estudio de postproducción es la referencia
00:07:09
Al montaje, el estudio de postproducción con tener
00:07:11
Los clips ya preparados para seguir trabajando
00:07:13
recreará o hará el trabajo
00:07:15
fino ya de eso y luego lo que enviará ya serán
00:07:18
bounces, se llaman o
00:07:20
stems, que son exportaciones de su
00:07:22
trabajo, pero ya renderizado, no en proyecto
00:07:24
¿vale? entonces, bueno
00:07:26
simplemente eso, que al ponerse a trabajar
00:07:27
en un proyecto, hay que ver
00:07:30
oye, estoy trabajando con DaVinci
00:07:31
y tendré que
00:07:33
luego pasárselo a Pro Tools
00:07:35
a ver, y habrá que hacer una prueba, o ya
00:07:37
te lo dirá el estudio de postproducción también
00:07:39
dependiendo del expertise de cada uno
00:07:42
Si no hay que hacer pruebas, se dice a lo mejor con Pro Tools. En teoría hay un preset de Pro Tools que si lo sacas de DaVinci en Pro Tools, que en realidad lo que saca es una F, pero de sonido, más centrado en sonido, al final hay que ir controlando que se ve y que no.
00:07:43
Y siempre al lado de, lo más recomendable es que siempre al lado de un formato de intercambio es enviar el render de cómo se ve y cómo suena para tenerlo de referencia siempre. Pero ya te digo, cuando se envía a un estudio de postproducción o de color o de efectos visuales, no se espera que tú ya hayas hecho el trabajo de ajustar todos los sonidos, etc.
00:08:00
Lo que tiene que llegarle es un montaje con todas las posibilidades de clips de audio, más otras que le puedes enviar de referencia para que ellos acaben el trabajo.
00:08:20
Y bueno, una cosa que me he saltado es, una de las ventajas, y es una de las ventajas, por ejemplo, que tiene Adobe con su integración con Photoshop o con After Effects, etc., o DaVinci, pues entre todas las páginas que tenemos aquí, es que la forma más rápida y más fiable de compartir un proyecto no es a través de estos formatos de intercambio, es a través de un proyecto de ese software.
00:08:30
Es decir, igual que vosotros hacéis en las entregas de las tareas que me enviáis normalmente un punto de RP, el proyecto de DaVinci o un archivo, un DRA, eso yo lo abro y se ve, sí que es verdad que puede haber variaciones.
00:08:54
y uso otra versión, o me falta
00:09:08
por supuesto la media, o trabajara
00:09:10
con la versión de estudio que es la de pago que tiene más cosas
00:09:12
pues si integra eso
00:09:14
a lo mejor puede haber conflictos
00:09:15
pero no va a haber nunca nada mejor
00:09:17
para el intercambio que un propio proyecto
00:09:20
en el software
00:09:22
en el que se está trabajando
00:09:24
y esa es la gracia, por ejemplo, de si se va a tener un flujo
00:09:25
de color, que luego se va a hacer la colorización
00:09:28
en DaVinci, si se trabaja en vez de
00:09:30
en Premiere, por ejemplo, o en Avid, directamente
00:09:32
en DaVinci y la edición, pues al colorista
00:09:33
dice, vale, te envío el proyecto con todo
00:09:36
Y ahí es donde menos conflictos y más compacto va a ser, más robusto va a ser ese intercambio, ¿vale? Que esto quede claro. Y es una de las gracias de empezar. A veces en un flujo de trabajo se dice, oye, vamos a empezar y vamos a hacer la edición en DaVinci porque así nos quitamos de líos de tener que hacer conversiones o adaptaciones de estos formatos de intercambio para color.
00:09:38
¿vale? pues porque por ejemplo
00:10:04
con Premiere aunque se puede hacer colorización
00:10:06
lo veréis en el A1-T5
00:10:08
pues DaVinci tiene unas opciones
00:10:09
más avanzadas, entonces bueno, pues es muy
00:10:12
frecuente pasar a DaVinci, entonces
00:10:14
bueno, pues que seáis conscientes, o por ejemplo en
00:10:15
Firelight, para trabajar el sonido
00:10:18
pues lo mismo, si ya
00:10:20
este trabajo, el que te lo pasa
00:10:22
te lo pasa en un proyecto de DaVinci que se ha trabajado
00:10:23
en DaVinci, pues ahí no vamos a perder
00:10:26
estas transiciones porque son las mismas, ya
00:10:28
las interpreta de manera nativa
00:10:30
los formatos de intercambio es, como dice
00:10:32
Cuando hay que cambiar entre plataformas, pues, fórmulas que existen para hacer esos traspasos, pero tienen sus limitaciones. Y a veces a propósito también, porque a las empresas les interesa que sean compatibles, pero lo que interesa es que tú adquieras su paquete y trabajes en su paquete, ¿vale?
00:10:34
Le digo entonces que hay que tener eso en cuenta. Y por tanto, lo que me interesa sobre todo en ese análisis final que pone la tarea 4B es que probéis. Vosotros me vais a pasar esos AF, yo voy a ver que más o menos están hechos correctamente.
00:10:55
Pero bueno, que si luego importáis
00:11:11
Y no funciona, lo que tenéis que dar un meta
00:11:15
Oye, pues una AF con este flujo de trabajo
00:11:16
Con este pipeline
00:11:19
No es
00:11:20
Funcional, porque no lo lee bien
00:11:23
Igual si fuera entre DaVinci
00:11:25
Premiere o DaVinci o Avid
00:11:27
Es justo lo contrario, son otros los formatos
00:11:28
¿Vale? Eso es lo que quiero que experimentéis
00:11:31
La tarea es un poco de probar
00:11:32
Sobre sacar en un Avid los
00:11:34
Tracks como
00:11:37
Mono
00:11:38
realmente si está sacándolo en estéreo
00:11:40
aunque creo que lo pongo en el enunciado
00:11:42
realmente se refiere a esto, a que esté marcada
00:11:44
esta casilla, ¿vale? que cada canal
00:11:46
sea, pero veis que
00:11:49
por defecto no deja
00:11:50
cambiarlo, que cada pista
00:11:52
¿vale?
00:11:55
pues se exporte de este modo
00:11:56
¿vale? porque si yo voy a Premiere
00:11:59
por ejemplo y miro
00:12:00
realmente
00:12:02
si os fijáis
00:12:03
en realidad
00:12:06
lo que está sacando
00:12:07
aunque esto solo tendría sentido
00:12:09
en la parte final
00:12:12
a ver un segundete
00:12:13
voy al edit y nos vamos a fijar
00:12:15
en los
00:12:18
en el mixer
00:12:18
fijaos que aquí se ve la diferencia
00:12:20
entre los dos canales
00:12:24
estéreos, que uno tiene más
00:12:25
presión que otro, más intensidad
00:12:27
si vemos en premium
00:12:29
veis que los dos
00:12:30
vúmetros se mueven
00:12:33
De la misma forma
00:12:34
Esto es que ya básicamente lo está sacando
00:12:36
Como un mono
00:12:38
Si se quisiera exportar
00:12:39
¿Vale?
00:12:43
Como pistas
00:12:44
Linkadas, hay otras opciones
00:12:47
Como por ejemplo esta de
00:12:48
Que exporte como
00:12:49
Tracks de audio discretos
00:12:52
Y entonces lo que hace es, digamos, exportar
00:12:54
El audio
00:12:56
Como
00:12:58
El número de pistas que tiene que tener
00:12:59
Pero ya os digo, luego
00:13:01
Esto todo es relativo y es prueba y error porque dependerá de cómo se manejan entre softwares. Hay un parámetro bastante importante, ¿vale? Y esto pasa tanto en audio como en vídeo, que es esto de… vais a ver que ahora estoy en la parte de vídeo, ¿vale? Que pone esto de renderizar full extents y los handles. ¿Por qué?
00:13:03
Y esto es importante porque lo que podemos hacer al exportar en estos formatos es decirle, vale, yo tengo aquí un clip que dura más, pero lo he recortado para que dure esto en el timeline y a veces para hacer fundidos, ya lo habréis experimentado, que se necesitan colas para que tenga ese material para que funda y pase entre uno y otro.
00:13:24
Pero si cortamos aquí abruptamente, aquí no sabe con qué fotogramas restantes solapar estos dos planos adyacentes.
00:13:42
Con esto de render full extents, lo que se dice es que cuando vaya, si es uno de los formatos de intercambio,
00:13:51
que mete dentro de sí mismo, como hemos visto con el AF, por ejemplo aquí, este AF, tiene MXFs aquí.
00:13:57
Pues esto es que ha ido sacando el render de cada parte para que vaya vinculado a esta EF cuando lo compartamos, pero le podemos decir que esos MXF solo incluya, solo renderice, que eso sería con esta opción, lo que se encuentra aquí o que añadamos unos fotogramas siempre de cola, por si aunque ya lo hayamos montado, pues si se quiere meter alguna transición, etc.
00:14:07
O incluso hacer algún pequeño ajuste de mover o desplazar, ¿vale? Y decir, oye, pues esto, mira, esto tiene que entrar un poquito antes, porque, por lo que sea, ¿vale? Pues lo mueves un poco, ¿vale? Hasta donde tengas, claro.
00:14:32
Y otra opción es directamente decirle, oye, no, tú me vas a, aunque luego en la referencia de la secuencia me meta solo la fracción, el fragmento que interese, yo quiero que en el render por lo que sea tener todo el clip. Eso está tanto para vídeo como para los clips de audio, si os fijáis. Está aquí. Es verdad que aquí va en bloque, pero en otros softwares o si solo sacarais audio, pues puede ser solo de audio, que es esto de aquí.
00:14:44
Y otra cosa importante, que creo que lo dije el otro día, pero por si acaso no lo dije, es que claro, cuando estamos sacando un formato de intercambio, vais a ver que esta barra de aquí de la selección de la entrada y salida se mueve a salto y esto es porque estos clips no podemos decir que saque un render hasta este punto, sino que va a sacar todos los clips de manera individual, lo que os acabo de enseñar aquí.
00:15:12
Entonces, bueno, pues va a ir exportando clip a clip. Por eso no deja marcar la opción que normalmente está marcada cuando hacemos un render normal de que sea un clip solo y que, bueno, pues sea solo hasta donde queramos, independientemente de qué clip, ¿vale? Porque solo saca un archivo, solo saca el render, ¿vale?
00:15:35
Entonces, bueno, esa tarea primera consiste en eso, en que probéis, investiguéis y saquéis conclusiones. Por ejemplo, las EDL también pueden dar problemas y, por otro lado, también en el tema pone que el estándar normal es el CMX3600, que, por ejemplo, usa Premiere, pero eso no significa que lo use DaVinci, por ejemplo.
00:15:55
Entonces, bueno, a veces donde pone que el CMX3600, que se está hablando de que son cuatro pistas de audio y una de vídeo, a lo mejor otro software que interpreta los CDLs con otra configuración, pues no funciona así.
00:16:17
Entonces habría que comprobar nuevamente que, como de compatible y hasta dónde son, eso, correlativas las... vamos, solucionan bien estos formatos de intercambio, ¿vale?
00:16:32
hasta aquí que tal
00:16:43
las dos primeras tareas son de
00:16:45
prueba y ensayo y error
00:16:50
¿vale? luego la otra
00:16:52
entiendo, bueno ya todos
00:16:54
habéis hecho módulos
00:16:56
entiendo de
00:16:58
en el que se renderiza 3D, se explica lo que son los
00:16:59
pases, etcétera
00:17:02
a ver, aquí tenía
00:17:04
bueno, pues se habla
00:17:06
de lo que es el
00:17:08
bueno, pues una composición
00:17:10
de un render multipase
00:17:13
os hago una pregunta
00:17:15
es decir
00:17:16
¿entendéis los beneficios
00:17:18
que tiene, que a priori puede parecer un
00:17:21
rollo, que tiene sacar
00:17:23
una imagen por distintos pases de render
00:17:25
¿verdad? esto lo habéis visto
00:17:27
en Maya imagino
00:17:28
o en Blender, según con que profesor
00:17:31
lo hayáis dado
00:17:33
entiendo
00:17:34
habéis entendido siempre que
00:17:36
aunque se puede sacar la imagen
00:17:39
ya como una imagen definitiva
00:17:42
o los fotogramas de un vídeo, se pueden sacar en multipases para tener control de esa imagen
00:17:43
sin tener que volver a renderizar el vídeo, que es con lo pesado y lo largo que es el render de un vídeo,
00:17:51
pues con estas opciones de Compose Item, también para integrar otros elementos, etc.,
00:17:58
pues lo bueno es que puedes coger y decir, vale, del difuso directo, pues quiero que,
00:18:03
bueno, pues que de pronto
00:18:08
pues tenga un teñido
00:18:11
un poquito verde
00:18:13
o que por ejemplo
00:18:14
tenga, bueno
00:18:17
justo en este caso, tenga más contraste
00:18:19
pero solo ese pase
00:18:21
¿vale? sin afectar al resto
00:18:22
y bueno, esas cosas
00:18:25
entiendo que sabéis por qué lo hacemos, ¿no?
00:18:26
aquí lo que estamos viendo es la parte de
00:18:29
recomponer el puzzle de distintos pases
00:18:31
que se han sacado, en este caso
00:18:33
Blender
00:18:35
¿Sí? Bueno, creo que en el propio
00:18:36
en el propio tema
00:18:39
se habla de cómo conseguirlo
00:18:41
con este
00:18:43
nodo de
00:18:44
Channel Boolean, que sirve para ir
00:18:46
componiendo los
00:18:49
componiendo, sumando y restando
00:18:50
en el tema también pone cuáles son las combinaciones
00:18:53
normalmente que hay que hacer de los distintos pases
00:18:55
lo pone con respecto a Blender
00:18:57
porque ha sacado así, y si lo seguís pues llegaréis
00:18:58
a este resultado
00:19:01
¿Dudas con esto?
00:19:02
si no quiero hablaros
00:19:03
de una cosa introductoria
00:19:06
pero útil
00:19:08
dudas hasta aquí, porfa
00:19:09
¿nada? vale
00:19:13
por ahora ninguna, pues yo sigo
00:19:21
hay algo de lo que habla
00:19:23
al final de la tarea
00:19:26
que de vez en cuando saldrá
00:19:27
y diréis a lo mejor esto que es
00:19:30
corregidme, no sé si habéis hablado
00:19:31
en otros módulos, que podría ser
00:19:34
de espacios de color y curvas de gama
00:19:35
y lo que es
00:19:38
un espacio lineal
00:19:40
¿Sí? ¿No? Vale, no os suena
00:19:41
Vale, en el último paso
00:19:51
cuando ya hayáis hecho la composición
00:19:53
os va a salir algo como esto
00:19:55
¿Vale? Y veis
00:19:57
que está oscuro
00:19:58
y esta, os pongo
00:19:59
una imagen de referencia de cómo debe quedar
00:20:01
más que nada para que veáis que no puede
00:20:05
quedar así de oscuro, y no es porque esté mal
00:20:06
compuesto en los pases, esto está correctamente
00:20:08
hecho y sale
00:20:10
pero hay una cosa que pasa mucho
00:20:11
en
00:20:14
Por ejemplo, en 3D, que es que se trabaja en un espacio de color lineal. No suena, no entiendo. Lo digo por saber hasta dónde voy. ¿Alguien me puede contar algo de esto o no? Por saber a dónde me remonto.
00:20:15
Va a ser una introducción, tampoco voy a hablar porque esto ya es... Vale. Me pone uno de los compañeros que ni idea. Vale. Voy a abrir un pequeño documento que he creado. Cuando trabajamos en audiovisual, también cuando se trabaja en imagen, en Photoshop, en imagen estática, y cuando incluso compráis una televisión, un monitor, etc., hay dos factores que entran en juego.
00:20:33
Uno es lo que se llama genéricamente el espacio de color. El espacio de color es basado siempre dentro de los límites de la visión humana. ¿Qué colores puede reproducir un dispositivo? ¿O en qué espacio de color o qué colores estamos gestionando al trabajar en un software concreto?
00:20:58
existe este diagrama
00:21:21
que se llama diagrama CIE
00:21:24
hay otras versiones, hay otro diagrama
00:21:26
de 1976 que es lo mismo
00:21:28
pero con otro dibujo, digamos
00:21:30
con otra forma, que digamos que lo que hace
00:21:32
es representar en base a esto
00:21:34
todo el ámbito de colores
00:21:36
reproducibles
00:21:40
aquí se ve, es decir
00:21:41
en un monitor no lo vamos a ver porque evidentemente
00:21:44
este monitor en el que estamos viéndolo
00:21:46
cualquiera de nosotros
00:21:48
Tiene limitaciones de la capacidad de reproducción de ciertos colores, pero de manera teórica en este diagrama se representa que desde el blanco se ven los tres componentes de color RGB y todas las combinaciones de colores teóricas en este diagrama que puede reproducirse en un monitor, en un espacio de color.
00:21:49
Entonces, cuando compráis, por ejemplo, una televisión, podéis poner White Gamut o REC 2020 o, bueno, ya HDR. Eso es otra cosa relacionada, pero no es exactamente esto.
00:22:11
Entonces, hay una cosa importante que es que cuando trabajamos con vídeo, con imágenes, hay que ser conscientes de que estamos teniendo un rango limitado de colores, ¿vale?
00:22:23
Y que por mucho que nos esforcemos a veces, por ejemplo, cuando estáis en la unidad 5, de saturar una imagen, si tu monitor no representa ese color, esa viveza de color, por ejemplo, si le damos mucha saturación, pues igual no lo vais a ver, por mucho que os empeñéis, ¿vale? Porque sale del rango de color.
00:22:35
Hay distintos rangos de color, espacios de color. Digamos que dentro de este diagrama CIE que representa todos los colores teóricos que existen, que pueden ser percibidos por el ser humano, luego, en relación a circunstancias tecnológicas, a partir de que se van descubriendo más avances o se van desarrollando la tecnología,
00:22:52
los dispositivos son realmente capaces
00:23:17
de mostrar más colores
00:23:20
o de transmitirlos, a veces no es una razón
00:23:22
solo de mostrar en el dispositivo
00:23:24
sino para las transmisiones
00:23:26
entonces existen distintos espacios
00:23:28
de color, aquí son los principales
00:23:30
para audiovisual
00:23:32
que son estos que se llaman por ejemplo
00:23:33
ITU-RBT709
00:23:35
esto es una de las cosas que quiero que
00:23:37
os suenen para si alguna vez
00:23:40
os hablan de esto, pues que no
00:23:42
digáis esto que es, y al menos que os suene
00:23:44
Tampoco vamos a hacer algo muy avanzado aquí, pero sí que os suene, porque es un tema ya complejo y probablemente más avanzado de lo que necesitamos. Pero bueno, sí que hay que tenerlo en cuenta.
00:23:46
Si os fijáis, para empezar, y así también explico algunas cosas, este diagrama está en dos ejes, que son X e Y, que vais a ver, o deberían sonar cuando se hable de crear un DCP en el último tema, que es una forma de marcar coordenadas de color.
00:23:56
Pues el 0,4X, 0,2Y es este morado, ¿no? Este violeta. Vale, bueno, que sepáis que esto está en relación con dos ejes, que también está en relación con esto, que se llama el locus, ¿vale? La línea de locus, si no recuerdo mal.
00:24:13
Sí, era el locus, sí.
00:24:31
Que tiene esta curva y veáis viendo que tiene estos valores.
00:24:32
Estos valores son, que si veis, va pasando por azul, verde y rojo,
00:24:36
va pasando por los tres colores primarios y las longitudes de onda que tienen esos colores.
00:24:41
Esto es avanzado, pero en sonido, en RPMI lo veríais seguro,
00:24:47
los sonidos se oyen más agudos o más graves en función de las frecuencias.
00:24:52
Es decir, la onda de sonido que se ve por ahí, voy a abrir una ventana, frecuencia, sonido. Que un sonido sea más agudo o más grave depende de, a lo largo de un segundo, voy a poner esto más grande, por ejemplo, cuánta longitud de onda, es decir, distancia física tiene esa onda al desplazarse por el espacio.
00:24:56
¿Esto qué quiere decir? Que si tenemos una onda que se representa así, con mayor longitud de onda, porque veis que hasta que hace una vuelta completa, un hercio se llamaría, hay esta longitud, esto a nivel de sonido sería un sonido más grave que este que tiene una mayor frecuencia porque se repite más veces y tiene una menor longitud de onda.
00:25:22
En vídeo pasa lo mismo, solo que en vez de ser percibido por el oído y vibraciones
00:25:42
Es por la estimulación de conos y bastones en nuestro ojo, en nuestra retina
00:25:47
En función de distintas frecuencias
00:25:52
Así que esto a lo que hace relación
00:25:55
Sé que estoy a lo mejor remontándome a cosas físicas, pero que son importantes
00:25:58
Y creo que en colores, esto lo visteis
00:26:03
Son las longitudes de onda en nanómetros de los distintos colores primarios.
00:26:05
Entonces ya según esta combinación de distintos tonos y la longitud de onda, pues ya se desarrolló este diagrama.
00:26:13
Luego dentro de ese diagrama, veis que aquí hay un triángulo que es lo que se llama el gamut.
00:26:22
Cada espacio de color tiene un gamut. ¿Qué es el gamut?
00:26:26
los tres puntos y el triángulo
00:26:29
que deriva de hasta dónde
00:26:32
es capaz ese espacio
00:26:34
de color, ¿vale? ves que cada uno tiene un gamut
00:26:36
diferente de colores
00:26:38
de representar, es decir, el gamut marca los
00:26:40
límites de color que tiene un espacio de color
00:26:42
eso se llama gamut, está la gama
00:26:44
de color, pues el truco es que se llama gamut
00:26:46
como esto, acabado en T, gamut
00:26:48
¿vale? entonces
00:26:50
que sepáis que hay distintos espacios de color
00:26:51
y normalmente la televisión HD
00:26:54
que más conocemos todos
00:26:55
En YouTube, por ejemplo, mirad, voy a poner un vídeo de YouTube. Aquí, a ver, abro una ventanita. Esto que tengo aquí. Bueno, pongo YouTube, cualquier vídeo y para que vayáis también conectando conceptos. Yo qué sé, pinta más, Muse, yo qué sé. Me da igual. Bueno, y quiero que pase la publicidad. Quito el audio. Quiero que se vea la publicidad, quitar la publicidad por si acaso esto... Vale.
00:26:58
Aquí tenemos un vídeo. Si alguna vez queréis ver características más avanzadas de un vídeo y dais clic derecho sobre el vídeo, sale esto de estadísticas para nerds. Y vais a ver que hay un factor aquí, uno de los elementos, igual que están las dimensiones en píxeles o la frecuencia de sonido, el frame rate, no de sonido, la cadencia de fotogramas, perdón, que se me ha ido el santo al cielo.
00:27:22
aquí hay una cosa de color que aquí pone
00:27:46
BT709
00:27:48
y ese es el espacio de color, esto de BT709
00:27:50
si os fijáis, tiene relación con
00:27:52
esto del BT709
00:27:54
¿por qué? porque HD, el HD
00:27:56
la televisión que solemos trabajar
00:27:58
aparte de que, ya os he contado alguna vez
00:28:00
que un Full HD
00:28:02
1920x1080 es una especificación
00:28:03
que en este momento
00:28:07
del avance tecnológico se relaciona
00:28:09
así con
00:28:10
estas dimensiones, igual también
00:28:12
en que hay unas velocidades de fotograma más correspondientes a unos países que otros,
00:28:14
que de esto hemos hablado en otros momentos, también tiene un gamut concreto,
00:28:18
que es este llamado ITU-R BT-709.
00:28:23
Os digo, esto de ITU-R, que veis que más de uno aparece aquí,
00:28:26
se refiere a una institución que es la Unión de...
00:28:30
A ver, espera, lo tenía por aquí, de hecho.
00:28:35
La Unión... Vale, aquí.
00:28:39
Sí, el sector, la ITU es la Unión Internacional de Telecomunicaciones y la R hace referencia a lo que es el sector, a una de las secciones que tendrán ellos de radiocomunicaciones. Y esa sección se dedica a desarrollar y a fijar los estándares de transmisión y de difusión y de creación y de trabajo audiovisuales.
00:28:41
En este caso, hacen normas, diciendo que la norma que rige las transmisiones y las emisiones en la época del HD es esta, BT.709, y esto de BT se refiere a broadcast, transmisión televisiva, y 2 se refiere sobre todo a la transmisión de radio y de televisión.
00:29:03
Luego el cine tendrá otros consorcios, otras sociedades que hacen el desarrollo de sus estándares, que de hecho vamos a hablar de ello enseguida.
00:29:27
Entonces cuando veáis esto de ITUR se refiere a la organización internacional que ha fijado el estándar de cómo se retransmiten en broadcast en este caso,
00:29:36
Habrá otras normas para radio, por ejemplo. Y cada vez que saca un estándar o lo que llaman una recomendación, le ponen un número. Y esta recomendación es, por ejemplo, la REC 709. Aunque aquí ponga BT 709, es completamente sinónimo de REC 709.
00:29:50
De hecho, si ponemos aquí REC 709 y vemos... 600 no. Hay recomendaciones de muchos números, ¿vale? Pero REC 709 vais a ver que aparece referenciada como REC 709 y de pronto tenéis aquí, recomendación IntuR BT 709. Es un poco galimatías, pero son similares, hacen referencia a la misma norma.
00:30:14
Bueno, esto de BT, como os digo, es broadcast, ¿vale? Y cuando pone esto de REC es recomendación. Bueno, que sepáis que, como veis aquí además, tiene un gamut ya establecido, aparte de hablar de cosas como las resoluciones, las tasas de refresco, y ya os digo, fija, digamos, la norma de difusión y de transmisión en televisión, ¿vale?
00:30:37
Y bueno, también por extensión lo hace en Internet. Por ejemplo, YouTube, como acabamos de ver, se rige en base a esa norma BT.709. Esto significa que en ciertos momentos, por ejemplo, cuando estamos trabajando aquí en DaVinci, si vamos a las referencias del proyecto, está esta sección que se llama Color Management, que imagino que de momento habréis obviado y no os culpo por ello.
00:30:58
Pero aparte de que DaVinci tiene distintas formas de funcionar, algoritmos internos, no voy a meterme en esto, sí que ya hay, igual que al fijar o al crear una nueva composición, un nuevo timeline, una nueva secuencia, establecíamos la frecuencia de cadencia por segundo, de fotogramas por segundo y la resolución espacial, es decir, cuántos píxeles tiene, dimensiones, también está trabajando en lo que se llaman los colores de espacio, que también se pueden definir.
00:31:25
Y si os fijáis, aquí aparecen algunos, muchos, y son algunos como el P3-DCI o el REC 2020, ¿vale?
00:31:55
Así como guía veréis que hay REC 2020, hace referencia a este aquí, el P3-DCI es ese de ahí, o DCI-P3, vaya, ¿vale?
00:32:04
Que sepáis que se puede cambiar en algún momento que este gamut sea más o menos amplio.
00:32:13
Y eso, por ejemplo, se rige aquí.
00:32:20
Y fijaos además que hay otra cosa que es el espacio de color de la línea de tiempo mientras trabajamos dentro del programa y luego cómo exporta ese espacio de color.
00:32:22
¿Qué tal hasta aquí? ¿Más o menos me vais siguiendo? Es decir, es otro elemento configurable en los proyectos.
00:32:34
Primero, para que tengan consistencia los colores y segundo, para que las transmisiones se hagan como queremos que se vean.
00:32:41
Vale, os he perdido o os tengo por ahí? Vale. Entonces, ¿qué ocurre? Y aquí voy con otro de los factores, ¿vale? Hasta aquí tenemos el espacio de color y lo estamos viendo sobre todo, todo está interconectado, lo que voy a ir hablando, pero esto del espacio de color sobre todo se refiere a lo que es ese rango de colores que puede representar.
00:32:50
Para que os suene también, por si lo veis, hay mucha información en internet y tutoriales, etc. De hecho, ya en alguno de los temas os he dejado más enlaces, etc. Pero bueno, es algo más amplio. A ver, es que me ubique yo.
00:33:16
que os iba a enseñar. Dentro de estos espacios de color vais a ver incluso uno que se llama el ACES, que es el Academy Color Space System.
00:33:28
No, voy a buscarlo porque os estoy diciendo algo que no es. ACES se refiere... No, esto no es. ACES, ACES, ACES, color...
00:33:41
Es Academy Color Encoding System. Esto es que la Academia de Estados Unidos, la de los Oscar, para hacer sobre todo preservación de materiales, de archivo, de películas, etc., para hacer remasterizados en el futuro, cuando se trabaja en digital,
00:33:53
pues que a medida que vayan evolucionando estas tecnologías, pues se pueda trabajar con ellas sin degradarlas y aprovechando el máximo potencial, guarda y archiva y trabaja incluso con espacios de color que si os fijáis en este triángulo negro, es superior incluso a lo que el ojo humano, según el diagrama CIE que hemos visto, puede ver.
00:34:10
¿Pero por qué se hace esto? Porque aunque estemos trabajando un proyecto en 709, en REC 709, luego al ser más grande este espacio podemos decir guárdamelo en ACES o voy a trabajar en ACES, que recoge este gamut, está dentro de él.
00:34:32
Y con esto, a veces, aunque sobresalga a las tecnologías actuales, podemos preparar un proyecto para cuando se coja, por ejemplo, ya ha ocurrido en el 2020, que tiene un gamut más amplio, o cuando se recoja en siguientes, el 2100, por ejemplo, que bueno, el gamut en ese sentido es similar, pero bueno, sí que van archivando ya los materiales en espacios que veis que en esta sección de aquí o esta de aquí recoge colores que ni a lo mejor son representables, ¿vale?
00:34:46
o que el ojo humano, mejor dicho, no lo va a captar. Pero que sepáis eso, que existen incluso espacios de color teóricos a nivel de que dentro de este diagrama X e Y pueden guardar valores.
00:35:15
Hay otro ingrediente en la ecuación que es lo que se llaman las curvas gamma, las curvas de corrección gamma, mejor dicho.
00:35:32
Y esto es importante cuando trabajéis, por ejemplo, en 3D. Y esto es algo muy importante y que deberíais archivar en la cabeza para trabajar siempre, que es que el ojo humano no percibe la luminosidad y el color como es en la realidad.
00:35:39
Ahora, me explico. Si tú pones a grabar una cámara de vídeo y tiene un sensor que va recibiendo los fotones, que son los átomos, bueno, no sé si la palabra técnica sería átomos, pero las partículas, estas sí, que van cargados con una frecuencia que representa colores.
00:35:58
Si vamos viendo esa luminosidad y tenemos un sensor, bueno entiendo que también sabéis esto, entiendo que os lo han explicado en color, pero cuando tenemos una cámara, sensor de cámara de vídeo, a ver, lo que tienen es una matriz de Bayer, es decir una cuadrícula, ahí se ve eso de ahí, que lo que tiene es fotositos que son celdas muy pequeñas como cuadritos a los que según van llegando más o menos fotones se van cargando de la cámara.
00:36:19
energía, ¿vale? Y eso es
00:36:49
a nivel de cada píxel, pues si tiene más o menos luz
00:36:52
y eso es lo que va a representar. A ver
00:36:55
¿por qué? Joder, fotositos
00:36:57
voy a poner, o celdas, fotositos
00:37:01
sensor de cámara, ¿vale? Pues estas
00:37:04
cuadrículas, estos sensores están formados con cuadrículas
00:37:07
con la matriz de Bayer que van
00:37:10
discriminando por colores, etcétera, y luego lo interpolan
00:37:13
para que se vea la imagen final o bueno pues esto es un sensor vale cada uno de estos cuadraditos se
00:37:16
corresponde con un píxel en las realidades que a medida que van llegando más o menos fotos hitos
00:37:23
se van cargando de manera lineal la luminosidad que tiene es decir dos fotos hitos es la mitad
00:37:30
de carga luminosa que cuatro fotos y que cuatro fotones perdón o que ocho fotones son la mitad
00:37:37
Pero el ojo humano, adaptativamente, mientras ha evolucionado, no percibe los colores de manera lineal. Es decir, la luz del sol, con respecto a otra luz, puede ser el doble de intensa, pero nuestro ojo, y veis esta curva que tiene aquí, capta los colores con una cierta desviación logarítmica exponencial.
00:37:44
Es decir, si veis, y lo vais a ver aquí, la cámara está captándolo de manera objetiva cuántos fotones llegan a sus celdas, a sus fotositos, y según eso se va cargando de energía. Cuánta más energía significa que tiene que representar un color con más luminosidad, pues será más brillante ese color.
00:38:06
Los ojos, y esto lo podéis ver fácilmente si lo pensamos, en que por la noche cuando nuestros ojos se van adaptando a la oscuridad vemos muchos detalles con muy poca luz, es decir, estamos adaptados para que por la noche nuestros ojos capten detalles, entiendo, en su momento evitar problemas de que nos vinieran a atacar un animal, yo que sé, incluso para distinguir por la noche y ver un camino.
00:38:23
entonces nuestro ojo tiene esta
00:38:51
desviación que en los colores
00:38:53
más oscuros, cuando hay una ausencia
00:38:54
de luz, es
00:38:57
si lo comparamos con la progresión
00:38:58
lineal de la realidad
00:39:00
nuestros ojos detectan más
00:39:02
variaciones en los tonos oscuros
00:39:05
que en los brillantes, es decir, entre una lamparita
00:39:06
y el sol, que es muchísimo
00:39:09
más potente que cualquier luz
00:39:11
artificial
00:39:12
en realidad no hay tanta distancia
00:39:14
no hay tanta gradación, pero
00:39:17
lo cierto es que si midiéramos a nivel
00:39:19
y bueno, de hecho los dispositivos lo hacen, si midiéramos con dispositivos que fueran objetivos en cuántas veces se dobla la carga de fotones,
00:39:21
la carga de luminosidad real que tienen las partículas, nuestro ojo no lo ve representado igual.
00:39:30
¿Esto qué significa? Que nuestros ojos no ven exactamente igual que los sensores de nuestras cámaras captan las imágenes.
00:39:35
Y esto conlleva una cosa, que es que hay que hacer lo que se llama las correcciones de gama, que es corregir un poco la captación de algo lineal, de información lineal, como es la del mundo real, para que se vea como deberían verlo nuestros ojos.
00:39:43
vale entonces esto para empezar es importante que sepáis y lo vais a ver en el tema 5 que cuando
00:40:01
corrige los colores con las ruedas primarias el control intermedio el que digamos que cambia bueno
00:40:10
más que cambiar el color es cambiar la luminosidad el valor intermedio que toca los tonos medios es
00:40:16
es, como podéis ver, llamado gamma, y tiene relación, ¿vale? Están las luces bajas, las luces altas, y el gamma, que es los valores intermedios, ¿vale?
00:40:25
Cuando volvemos a esta explicación que os estoy dando, que no es la más ortodoxa, pero creo que la más rápida para que entendáis cómo funciona,
00:40:35
es que cuando grabamos con nuestra cámara, nuestra cámara, por efecto, si no se hace nada al respecto, está grabando en lineal,
00:40:43
Está detectando las cargas de luminosidad, que luego interpretará en píxeles de colores y luminosidad, de manera lineal, ¿vale? Y si esa imagen, según se capta de la cámara, la viéramos nosotros, se ve de manera correcta, ¿vale?
00:40:51
Pero sí que es cierto que luego, por cuestiones técnicas, a lo largo de la evolución también de la tecnología, los dispositivos de representación de la imagen, es decir, televisores y monitores, tienen aplicada una curva que se llama curva EOTF.
00:41:09
Curva EOTF
00:41:29
Os lo pongo por aquí por si queréis investigar más
00:41:30
Lo que me interesa es que pilléis el concepto
00:41:33
En otros temas
00:41:35
Algo se tocará de esto
00:41:37
Pero tampoco va de que
00:41:38
Sepáis mucho esto
00:41:41
Una curva OETF
00:41:42
No, EOTF, perdonad
00:41:44
Existen dos
00:41:47
EOTF, que podéis buscarla
00:41:48
Y de hecho
00:41:51
Es raro que no tenga
00:41:52
Wikipedia
00:41:55
Por ejemplo, Wikipedia
00:41:57
Parece que no, pero tiene aquí, Transfer Functions.
00:41:58
Vais a ver que hay dos tipos de curvas, la optoelectrónica y la electroóptica.
00:42:02
La opto, como hace referencia, es a la imagen óptica, es decir, la que capta una cámara, la que ve en nuestros ojos,
00:42:08
y la electrónica es luego la traducción a dispositivos electrónicos, y el funcionamiento en un software es electrónico,
00:42:15
porque se basa al final en valores que son señales eléctricas.
00:42:22
¿Vale? Esto lo que quiero decir es que si vemos este dibujo que tenemos aquí, a la entrada, desde la cámara hasta el trabajo con el dispositivo en el software, se pueden aplicar estas curvas que se llaman optoelectrónicas, ¿vale?
00:42:28
y luego se pueden compensar con otras curvas que son las electro ópticas vale sigo por la
00:42:46
transmisión y cómo se ha ido trabajando en los dispositivos finales de reproducción de la imagen
00:42:54
como el monitor que tenemos ahora mismo delante tiene aplicado una curva que hace esta forma es
00:42:59
decir que oscurece la imagen vale y esto es para compensar que las cámaras normalmente para que
00:43:04
Aunque capten el lineal, luego la imagen que están mostrando está compensada para que se vea con respecto a la que ven nuestros ojos, no la captan el lineal.
00:43:13
Lo que hacen es meterle una curva OETF, que es así, que es que sube los valores intermedios hacia arriba.
00:43:27
Veis que el más brillante y el más oscuro, si esto va de izquierda a derecha, como de oscuro a brillante, se corresponden, están quietos, pero se cambia esta gama que tenemos aquí.
00:43:34
Entonces, es muy frecuente que para compensar esa bajada que hacen los dispositivos finales del contraste y de la gama que tiene este dispositivo, en algún momento del proceso se incorporen curvas que, digamos, se asimilan a cómo ve nuestro ojo, ¿vale?
00:43:44
Entonces se mete esa curva, se trabaja, porque digamos que la imagen ya ha sido tratada para que se vea con esta desviación del gamma y luego hay que compensarla, y lo veis aquí con esta otra curva que es correspondiente a la del dispositivo final, para que se vea de forma lineal.
00:44:07
¿Por qué? Porque aunque el dispositivo le mete esa curva que oscurece la imagen, como podéis ver aquí,
00:44:24
al final nosotros necesitamos ver la imagen de manera lineal, porque nuestro ojo nuevamente tiene una curva de desviación de esta gama.
00:44:30
Entonces, que sepáis que en ciertos momentos los dispositivos de grabación o el trabajo en un software tiene una curva
00:44:40
que lo que hace es hacer una conversión de la imagen para que se vea más clara
00:44:46
para que luego sea compensada con la desviación gamma que tiene el dispositivo de representación
00:44:52
y que quede al final siendo lineal, paradójicamente.
00:44:58
Continúo. Esto significa que en muchos momentos podemos estar trabajando con curvas aplicadas
00:45:02
o en lo que se llama lineal.
00:45:08
cuando trabajáis en 3D
00:45:10
y hacéis
00:45:12
bueno, pues estáis trabajando en 3D
00:45:13
y de hecho, a ver
00:45:17
igual me estoy lanzando un poco a la piscina
00:45:18
pero si os metéis por ejemplo en Blender
00:45:20
voy así rápido, os voy a enseñar una cosa
00:45:21
el render final os puede interesar
00:45:24
que lo haga en lineal o que lo haga ya con una curva
00:45:26
de estas que pueden estar asociadas
00:45:28
a una de las normas de color
00:45:30
si por ejemplo, si no me equivoco es
00:45:32
a ver porque
00:45:34
aquí, si no me equivoco
00:45:37
no, o aquí
00:45:42
vale, aquí va a estar
00:45:44
si os fijáis
00:45:46
¿dónde está?
00:45:48
color management
00:45:53
overwrite, vale
00:45:54
vais a ver que están
00:45:56
que interprete la
00:45:58
gestión de color como de sRGB
00:46:00
que es la que tienen nuestros monitores
00:46:02
como ninguna, que es que será
00:46:04
lineal o como X y Z
00:46:06
que es una que usa los valores teóricos
00:46:08
del diagrama que os he dicho antes
00:46:11
¿vale? entonces
00:46:13
¿por qué os puede interesar trabajar en lineal?
00:46:14
porque os he dicho que si trabajáis en lineal
00:46:17
y exportáis en lineal, al final
00:46:18
lo que estáis haciendo es trabajar como
00:46:20
se trabaja en la vida real
00:46:22
es decir, como en realidad se están
00:46:24
haciendo las operaciones de iluminación
00:46:26
en el mundo real que hace el sol
00:46:28
y hace la naturaleza
00:46:30
entonces, lo lógico para que
00:46:32
los comportamientos de iluminación en el mundo
00:46:34
3D sean lo más realistas posibles en su
00:46:36
simulación, es que se trabajen en lineal
00:46:38
e incluso que se exporte la imagen
00:46:40
en lineal por si luego en un software
00:46:42
como Fusion, al hacer la
00:46:44
composición queremos que la
00:46:46
combinación de canales
00:46:48
y a veces de iluminación
00:46:50
sea lo más realista y fidedigna
00:46:51
posible con cómo funciona la realidad.
00:46:54
Entonces, en casos como este
00:46:57
puede llegar una imagen que se ha trabajado en lineal
00:46:58
y en el último momento
00:47:00
si volvemos a este esquema
00:47:02
ver la imagen más oscura. ¿Por qué? Porque hemos trabajado en lineal.
00:47:04
Aquí está hablando de sensor, pero fijaos que es básicamente, aunque no sea un sensor,
00:47:08
es trabajar en lineal, como funciona la naturaleza, y al final el monitor,
00:47:11
o no solo el monitor, sino el sistema de salida a monitor de este software,
00:47:17
está aplicando esta curva gamma que tenemos aquí, y por eso la imagen sale más oscura.
00:47:23
¿Qué significa esto? Que si la imagen nos ha llegado en lineal,
00:47:27
igual nosotros en ocasiones tenemos que aplicar una curva de compensación
00:47:30
para que acabe, al final, lo que sale de la pantalla
00:47:34
sea lineal para nuestros ojos, que ya hará nuevamente
00:47:37
esa desviación. ¿Y qué es lo que ocurre aquí?
00:47:40
Que como este render nos ha llegado en lineal en algún momento
00:47:43
y aquí hay un...
00:47:46
Hay varios, pero bueno, hay otro
00:47:49
que si no me equivoco es color, space,
00:47:52
transform, hay dos nodos
00:47:55
que se ocupan
00:47:57
de esto que tenemos aquí.
00:48:02
¿Vale? El que os recomiendo usar en la tarea es este que se llama Gamut, que es más sencillo porque lo ponéis aquí al final, ¿vale? Lo voy a poner por defecto, ¿vale? Y veis que no hay ningún cambio en nada, ni en el origen, en el espacio de color de la imagen que ha llegado, ni en cómo sale.
00:48:04
Pero es verdad que acabamos de decir que lo que queremos que salga sea en relación al REC 709 y veis que ya se ha corregido y aquí os voy a enseñar. La norma 709 tiene este gamut. Fijaos que aquí está todo el diagrama de 1971, aquí hay otro que os he dicho que es lo mismo pero con otra disposición, pero bueno, en general es más útil conocer de este.
00:48:21
Y aquí hemos dicho que la salida sea lo adapte al esquema de color de Rec. 709, probablemente a nivel de color el render ya estaba dentro de esta norma, pero aparte queremos que añada el gamma, la corrección de gamma correspondiente a este Rec. 709.
00:48:44
Y el REC709 tiene una curva de gama que es de 2,4, se llama, ¿vale? Esto también lo digo un poco de casualidad, de curiosidad, perdonad, pero que es una curva de gama que hace que sea un pelín más oscura la imagen que la otra que os digo, que es la sRGB que tenemos aquí.
00:49:00
Por eso se aclara un poquillo. Que es la que usan efectivamente nuestros monitores. No las teles, pero sí los monitores de ordenador normalmente, si es uno que no es muy avanzado, usa esto de ese RGB.
00:49:18
Vale, entonces simplemente todas estas explicaciones para deciros que en ciertos momentos el material que os llegue hay que ser consciente de qué espacio de color y si está dentro de alguna norma, qué curva de gama está trabajando o si no se ha llegado material en lineal, que esto ya os digo que suele pasar normalmente solo con renders 3D, cosas así, porque las cámaras suelen tener ya una curva OETF, ¿vale?
00:49:31
Que compensa esto para que se vea de manera correcta, ¿vale? Y aquí vais a ver, por ejemplo, pues estas curvas de gama que se aplican en el display, es decir, en el último paso, ¿cómo se vería la imagen? Y fijaos que si se pone, bueno, una curva de gama lineal que es 1-0, ¿vale? Estos valores lo que van incorporando es cuánto hacia abajo se va metiendo, el display gamma es el rojo, ¿vale? Por eso está en rojo, es cuánto hacia abajo se está moviendo la curva.
00:49:58
Es decir, si yo voy a color, esto ya lo veréis más, pero si metemos una curva hacia abajo, veis que se va oscureciendo, aunque el punto máximo negro y el punto máximo más claro, más brillante, se mantienen, pero veis que se aclara y se oscurece.
00:50:27
Esto es lo que hace normalmente la curva OETF para meter la primera compensación de la que luego va a ser la curva que meten los dispositivos de salida, que es más en este sentido, y lo que hace es compensarse una y otra para quedar lineal, lineal a nivel de representación tras todo el trabajo.
00:50:44
Pero esa compensación, como os digo, dependerá de esta curva de gama que se aplique para que finalmente, y veis que este 2.2 es el de sRGB en los dispositivos que usamos de monitorización visual, y veis que al final la representación, al compensarse la OETF con la EOTF, sale este espacio lineal que nuestros ojos ya ven como si fuera el mundo normal.
00:51:07
Hay otras curvas de gama más exageradas, pero a veces esto es necesario porque se está trabajando en otro sistema que las curvas de inicio metían una de compensación más alta o, como pasa con el DX709, cuya curva de gama es 2,4, es simplemente para que añada un poquito más de contraste que se considera más estético.
00:51:33
Le da un cierto tono que en esa norma se estableció, que es el que tienen que tener las imágenes del periodo del HD.
00:51:56
Os he dado aquí una buena charla y algunas cosas seguramente os esté costando seguirme y yo a lo mejor tampoco me explico en ocasiones de la forma más directa, porque esto tiene mucha física detrás y es un poco para simplificar.
00:52:08
Pero simplemente que entendáis ese último paso que hay en Fusion de meter este nodo gamut o este color transform, space transform, perdonad, que aunque lo que le llega es con una gama, el color, aquí está más desgregado, la entrada que llega hasta aquí, hasta este nodo, sí que es un REC709 porque la imagen sí que se ha sacado dentro de la norma de color REC709,
00:52:26
Pero la gama de entrada es lineal, no es 709. ¿Vale? Veis que aquí luego hay gamas 2, 2, 2, 4, cosas de las que se habla. Y la salida yo la quiero en REC 709 porque quiero ese gamo. Estamos en HD, no vamos a hacer algo todavía dentro de la norma 2020, que es la que rige HDR, 4K y 8K, etc.
00:52:54
Pero la salida de gama no la quiero así, la quiero con una curva de gama de 2.2. ¿Por qué me lo está haciendo aquí? Output gama, a ver, voy a tocar a lo mejor la curva de gama de, voy a poner de REC709.
00:53:14
A ver, bueno, pues no me está haciendo caso. ¿Está entrando? Ah, vale, porque igual está entrando lineal input. Se está saliendo de la norma por algo y no sé por qué es. Igual le toca algo por aquí. Vale.
00:53:32
Bueno, este nodo, como podéis ver, es un poco más complejo, aunque debería estar haciéndome caso.
00:53:56
Estaba saliendo como lineal, es así, y lo queremos subir a un gama 2.2, a ver con la de REC700S RGB.
00:54:04
Aquí habrá que hacer algo más, este la verdad es que no lo tengo tan controlado, pero...
00:54:17
Pero, bueno, está haciendo esta adaptación de una forma que no es la correcta según lo que yo busco.
00:54:22
Vamos a hacer una cosa, en vez de 709, en el máximo teórico, bueno, esto desde luego no lo estoy mostrando como es,
00:54:32
porque no estoy entendiendo el color
00:54:50
space transform
00:54:51
input, vale, espera
00:54:52
en input, si, si
00:54:55
la output gamma debería ser
00:55:00
bueno
00:55:01
aquí hay algo que no estoy aplicando
00:55:02
bien o que he cambiado, vale
00:55:07
color space transform
00:55:09
vale
00:55:11
esto se debe también
00:55:13
que sería otra cosa a que aquí
00:55:15
seguramente si empiezo a trastear por ahí
00:55:17
llegaré al resultado
00:55:19
aquí hay que decirle que
00:55:20
la entrada de uno y otro
00:55:23
vale
00:55:27
tiene que ser
00:55:28
tiene que entrar como
00:55:30
REC709 y salir como lineal
00:55:32
y aquí hacer esta adaptación con otro
00:55:35
Color Space Transform en el último momento
00:55:36
oh, espera
00:55:38
no, hay que meter aquí
00:55:41
la curva, bueno
00:55:42
tampoco me quiero extender mucho aquí porque la otra opción
00:55:44
es la que os digo que
00:55:47
que considero
00:55:48
más rápida, pero vamos
00:55:51
con este nodo, también se deberían poder conseguir
00:55:52
resultados similares. Mira,
00:55:54
aquí va a estar. Hay que meterlo en el origen,
00:55:56
no en el fin.
00:55:58
Ahí y ahí.
00:56:01
¿Vale? Y aquí ahora
00:56:03
habrá que meter otro color.
00:56:04
Bueno, esto lo estoy haciendo ya por ver si
00:56:06
encuentro la solución, pero no es ni lo que os estoy
00:56:08
pidiendo, ¿no? Y aquí cuando
00:56:11
llega esto,
00:56:14
salida
00:56:17
2.4
00:56:18
y no
00:56:19
claro, aquí hay que poner
00:56:21
bueno, aquí habría que tocar cosas
00:56:23
que no estoy haciendo correctamente
00:56:25
porque este nodo sé que existe
00:56:27
pero no lo sé gestionar bien
00:56:29
ahora mismo, entonces bueno
00:56:31
simplemente que sepáis eso, que este gamut
00:56:33
hace esa función
00:56:35
y no sé por qué
00:56:36
no está funcionando, pero bueno, esto el otro día
00:56:39
estuve probándolo y sé que me iba, vale, pero con este
00:56:41
nodo de gamut podéis hacer esta corrección
00:56:43
y en base a esta explicación que os he dado
00:56:45
¿qué tal? hasta aquí, ¿me seguís?
00:56:46
¿Alguna duda? Esto ya es más avanzado y bueno, es porque sepáis más de corrección de color a estos niveles o por si tenéis que hacer alguna adaptación entre un material de un espacio a otro y tenerlo en consideración, ¿vale? Me quedo con esta duda. ¿Qué tal? ¿Me seguís hasta aquí? ¿Dudas que os surjan? Vale.
00:56:49
Si no hay más dudas, por mi parte es un poco de lo que quería hablar. Muchas dudas. Esto es complejo e incluso yo tengo dudas normalmente de esto. Es decir, que son conceptos avanzados y de aquí también surge lo que es el HDR, que es dentro de la norma que hablábamos que tenía un gamut más amplio.
00:57:20
Esta norma que se llama 2020, que ya es la que regula lo relacionado con 4K, con HDR, que son las imágenes de alto rango dinámico, y bueno, ya para trabajar en eso se necesitan sistemas más avanzados, pero bueno, poco a poco se irá imponiendo, pero yo ahora digo, esto sí que es más avanzado y se sale un poco de lo que hay que ver en esencia sin que tengamos muchas dudas de origen.
00:57:40
En el último tema, o si queréis que hablemos más de esto, cuando ya acabemos el último tema, que ahí habrá un tiempo, podemos hablar de estas cosas más en profundidad.
00:58:05
Y ya también quizá me entero de cómo se incorpora este color. Ya sé por qué es. Vale, porque hay que... Vale, sí. Mira, de hecho, fijaos, dentro de lo que son las correcciones de color, esto ya lo veréis también en el tema 5, no quiero adelantarme, existen...
00:58:15
Espera, que estoy leyendo la duda
00:58:39
Me imagino que acabaremos los temas un par de semanas antes de los exámenes
00:58:46
Sí, bueno
00:58:49
Es decir, yo mi idea
00:58:51
Y esto entre comillas porque depende de varios factores
00:58:52
Mi idea es que
00:58:55
Esté subido ya todos los materiales
00:58:57
Justo antes
00:59:00
El 10 de abril, justo antes de Semana Santa
00:59:01
Así que es verdad que a lo mejor, igual que hice en Navidades
00:59:03
No está un tema completo
00:59:05
Pero sí que va a estar
00:59:07
bastante avanzado, con la idea de que
00:59:09
en abril esté, los exámenes son en junio
00:59:11
así que mayo en principio
00:59:13
ya debería estar todo para que acabéis las últimas tareas
00:59:15
y bueno, para dudas
00:59:18
pero ya os digo
00:59:19
el margen más o menos que nos ponemos
00:59:21
en el departamento es
00:59:23
primera semana de mayo, como último
00:59:25
para publicar, yo intentaré
00:59:28
que esté antes, pero bueno, depende de más cosas
00:59:29
y también según eso intento
00:59:31
ocupar más
00:59:34
temario, digo
00:59:36
o mejorarlo, porque esto también tiene su trabajo.
00:59:37
Pero sí, mi idea es que el 10 de abril, si no tenéis todo,
00:59:41
tengáis ya bastante, bastantes cosas.
00:59:44
A falta de que hagáis las tareas, igual alguna a punto de ampliar.
00:59:46
Cuando, un poco en relación con todo esto, aunque no exactamente,
00:59:51
leeréis a veces que existen grabaciones que se hacen
00:59:55
con lo que se llaman curvas logarítmicas.
00:59:58
Y eso no es tanto por cómo ve el ojo humano,
01:00:00
sino por aprovechar el rango de luminosidad óptima
01:00:02
Cuando luego expandimos y tocamos colores y luminosidades para que, igual que os he dicho, que hay colores que el ojo humano percibe, o mejor dicho, rangos de luminosidad, como esa oscuridad, esos detalles en la oscuridad que se perciben con más detalles, ¿vale? Pues se agrava a veces en logarítmico para que luego se puedan estirar más ciertos rangos de luminosidad y recuperar más detalle que en algunas zonas que luego no son tan útiles, ¿vale?
01:00:05
Y existen lo que se llaman los LUTs. De esto se habla en el tema 5. Pero fijaos que incluso en la visualización de este hay aquí una en Fusion, una ventanita para aplicar estas LUTs de corrección de esas curvas logarítmicas de grabación y podemos incluso decirle que el gamma de color sea 2.2, por ejemplo.
01:00:34
Y si le damos, veis que la imagen se ve bien, pero esto es solo una visualización de este visor.
01:00:53
Probablemente luego, si vamos a Edit, se vea oscuro, ¿vale?
01:01:00
Para que veáis, y por aquí igual también está viniendo el problema de este Color Space.
01:01:04
Bueno, que tengáis en cuenta dónde estáis aplicando estas correcciones y este uso de las curvas de corrección de gama.
01:01:08
Me sirve con que os quedéis que existen estas alteraciones de la luminosidad y estos rangos de espacios de color y que seáis conscientes de que existen.
01:01:19
Es lo que más me importa. Luego, más allá de cuando acabéis el curso, etc., tiene mucha literatura detrás y mucho desarrollo tecnológico y es más avanzado.
01:01:28
Pero que os suene que existe y que veis que incluso en el software que ya estáis usando son funciones que existen.
01:01:41
por ahí y bueno
01:01:48
me quedo con esto del color space
01:01:49
viendo a ver
01:01:52
porque leche no funciona
01:01:54
no, esto no, eso es el modo de color
01:01:55
pero bueno
01:01:58
ya os digo, se da la
01:02:00
fórmula rápida y razonable
01:02:01
aquí a lo mejor hay algo de que
01:02:03
igual hay que poner
01:02:05
que la gestión de color
01:02:08
a ver, dame un segundo, a ver si es por esto
01:02:09
voy a quitar
01:02:11
esta visualización
01:02:14
de
01:02:16
que había puesto para la LUT
01:02:16
si no me equivoco es ahí
01:02:20
y si yo meto este color space transform
01:02:23
y le digo que la output gamma sea de 2.2
01:02:26
a ver si me hace caso y si no ya lo dejo
01:02:29
que no sé por qué
01:02:32
ah, perdón
01:02:35
no, es que la entrada es lineal, algo está pasando
01:02:41
pero no lo consigo, bueno
01:02:45
Habría que estudiar este nodo, ¿vale? Yo os digo, el que os pido es el otro y que funciona perfectamente, lo vais a ver. Bueno, pues algo que queráis que tratemos antes de continuar. El tema 5 os sugiero que acabéis la tarea 4 y el tema 5 lo cojáis con energía porque se ocupa sobre todo de la página de color y de la de Fairlight y tiene bastante.
01:02:49
Pero creo que es bastante agradecido también. Igual que los temas 2 y 3, a nivel de software vais a tocar muchas cosas extrapolables además a otros softwares.
01:03:15
Que, por cierto, lo ponía cuando publiqué el tema, pero... A ver... Espera, que abro aquí... Este tema 5, cuando vamos a él, en los contenidos vais a ver que hay dos secciones que he dejado, que son esta 4 y esta 7, que hablan de herramientas de software de Adobe.
01:03:25
las dejo ahí por si queréis echarle un ojo
01:03:54
y está muy bien porque además os da contexto
01:03:58
de cómo se hacen cosas muy parecidas
01:03:59
a lo que se explica con Fairlight
01:04:02
y con la página de color de DaVinci
01:04:03
muy parecidas con
01:04:05
con otro software
01:04:07
pero no son materia de examen directamente
01:04:09
no voy a preguntar
01:04:11
aunque ya siempre os he dicho que este curso
01:04:12
intenta ser independiente
01:04:15
de software, sino que sea más una visión global
01:04:17
de cómo funciona
01:04:19
sea el software que sea
01:04:20
Pero bueno, al aterrizarlo se usa DaVinci, pero os dejo estas dos secciones de color de Lumetri, que es con lo que se hace la colorización en Premiere, por ejemplo, y Adobe Audition, que es el software de postproducción de sonido.
01:04:22
No son materia de examen, así que aunque aquí veáis mucho, la sección 4 y la 7 para el examen no entran. Os recomiendo mucho que lo veáis, incluso si os podéis hacer con alguna licencia o un periodo de prueba de Adobe, pues incluso que lo trasteis.
01:04:38
Pero bueno, que sepáis que no es para examen directamente eso. Los conceptos que se explican, aunque están replicados en las secciones correspondientes, pues os ayudará a entenderlo mejor. Cuanta más perspectiva tengáis del software, mejor.
01:04:52
pero bueno, eso
01:05:05
por mi parte ya está, si queréis algo más
01:05:06
me decís
01:05:10
si no pues lo dejamos aquí
01:05:11
nada
01:05:13
todo
01:05:18
más o menos en orden, como no había dudas de este tema
01:05:20
por eso me he ido por otros derroteros
01:05:23
de ampliación en realidad
01:05:25
en gran parte, aunque esto del Kanmut etc
01:05:26
si se va a ver en algún momento, lo veréis
01:05:28
en el temario, pero
01:05:30
bueno, así ya tenéis un poco
01:05:32
una primera toma de contacto con algunas cosas
01:05:34
- Materias:
- Imagen y Sonido
- Niveles educativos:
- ▼ Mostrar / ocultar niveles
- Formación Profesional
- Ciclo formativo de grado superior
- Segundo Curso
- Subido por:
- Daniel M.
- Licencia:
- Todos los derechos reservados
- Visualizaciones:
- 17
- Fecha:
- 13 de marzo de 2025 - 19:21
- Visibilidad:
- Clave
- Centro:
- IES CIFP a Distancia Ignacio Ellacuría
- Duración:
- 1h′ 05′ 42″
- Relación de aspecto:
- 1.78:1
- Resolución:
- 1920x1080 píxeles
- Tamaño:
- 567.41 MBytes