Saltar navegación

Tutoría 5 - RMPA - UT4 y 5 - Curso 24·25 - 13 de Marzo - Contenido educativo

Ajuste de pantalla

El ajuste de pantalla se aprecia al ver el vídeo en pantalla completa. Elige la presentación que más te guste:

Subido el 13 de marzo de 2025 por Daniel M.

17 visualizaciones

Grabación de tutoría de RMPA

Descargar la transcripción

Os quería preguntar, bueno, sobre todo es correspondiente a la tarea, o digamos en el momento que estamos en cuanto a tutorías, que no he visto más dudas, es la unidad 4, sobre intercambio de materiales, distintos formatos, etc. 00:00:01
No sé si sobre la tarea tenéis dudas, alguna concreta. Yo aún así ahora diré un par de cosas a tener en cuenta para que tengáis más claros algunos aspectos. 00:00:17
pero bueno, si ya os habéis puesto con ella 00:00:33
pues mejor que mejor, por si me queréis plantear dudas 00:00:35
he visto que alguna persona ya incluso 00:00:37
me la ha entregado, pero bueno 00:00:39
vale, y luego, ahora vuelvo a esto 00:00:41
la otra duda es 00:00:43
bueno, habéis visto los simulacros 00:00:44
de examen, alguna duda al respecto 00:00:47
no voy a hacer un repaso 00:00:49
de cómo es el simulacro, dado que entiendo que 00:00:51
ya sois alumnos 00:00:53
que habéis estado en otros cursos y bueno, creo que 00:00:54
se explica en sí mismo 00:00:57
pero 00:00:58
Pero bueno, si tenéis alguna duda o algo que queráis ver, lo vemos también. 00:01:01
Preguntan, ¿cómo se hace el render en mono? 00:01:09
El render en mono. 00:01:12
Voy a compartir pantalla. 00:01:13
Cuando hablas de mono, por ir afinando, te refieres a que el audio salga solo en un canal mono. 00:01:15
Espera que comparto la primera tarea. 00:01:23
Vale, sobre la primera tarea, hay una cosa muy importante y es una de las cosas que quiero que veáis y que quiero que documentéis, ¿vale? Y es que vais a ver que exportáis, por ejemplo, una AF y luego esa AF lo intentáis importar en DaVinci y no abre nada, ¿vale? 00:01:26
Tened en cuenta, por ejemplo, la forma en la que se... ¿Veis mi pantalla, verdad? No, digo, por no hablar de vacío. A ver... Sí, vale. Cuando se sugiere que exportéis una EFE es que lo hagáis en un formato y además es el logo de ese software de Avid, ¿no? 00:01:46
de lo que es el Avid Composer 00:02:08
supongo que os suena 00:02:11
si no lo ha puesto en el temario 00:02:12
que es otro de las plataformas 00:02:13
de los softwares para hacer 00:02:15
postproducción y edición 00:02:17
aquí es donde empiezan los problemas 00:02:18
y vais a ver problemas o fortalezas 00:02:20
de que hay algunos de estos 00:02:23
formatos de intercambio pensados 00:02:26
para trabajar en ese software 00:02:27
entonces aunque lo deje exportar 00:02:29
luego a lo mejor al importarlo 00:02:32
da problemas o no es compatible 00:02:33
paradójicamente, por eso de hecho 00:02:35
en el temario pone si vas a llegar a davinci el más recomendado es xml por ejemplo para importar 00:02:36
y luego dentro de los xml también pues veis que hay uno para premier y también hay otros 00:02:42
relacionados con final cut vale eso qué quiere decir y si queréis os hago la muestra o me podéis 00:02:48
creer pero cuando yo he hecho aquí un pequeño montaje con más de un canal de vídeo y un canal 00:02:56
de audio, para que se vea un poco 00:03:02
como funciona esto 00:03:04
vais a ver que yo, si intento 00:03:06
ahora voy a lo de mono, vale 00:03:09
si yo intento importar 00:03:10
un AF que lo he sacado 00:03:12
correctamente, vale, yo intento ir aquí 00:03:14
tengo preparada esta carpeta de AF 00:03:16
que dentro además, cuando 00:03:18
exportáis 00:03:20
he hecho estas exportaciones 00:03:21
y como indica el enunciado 00:03:24
el AF es un archivo que luego 00:03:26
va exportando de manera 00:03:28
individual todos los clips 00:03:30
en este caso en MXF que tiene, para con ese AF recomponerlos y que la media esté recogida. 00:03:32
Otro de los formatos se basa en referencias que hay que revincular del proyecto original 00:03:38
o una copia que se haya pasado, pero formatos de intercambio como el AF 00:03:43
permite que se haga ese render de los materiales ya incluso recortados con las medidas que tiene. 00:03:47
El problema está cuando intentamos importar un AF, de dónde lo coges este AF, 00:03:55
el timeline que va a crear lo voy a llamar AF importar, ¿vale? 00:04:00
Y bueno, aquí hay distintas opciones que por defecto no suele haber que tocar, ¿vale? 00:04:06
Pero bueno, por ejemplo una es lo importo en el timeline que tengo abierto o que genere uno nuevo. 00:04:10
Pues yo voy a poner que me genere uno nuevo, por ejemplo, ¿vale? 00:04:17
Y yo le doy al OK y aunque en principio parezca que ha hecho ya el trabajo, 00:04:21
yo miro y en ningún momento ha importado nada 00:04:27
¿vale? 00:04:30
esto se debe a que 00:04:32
lo que es el 00:04:34
software 00:04:38
no lee correctamente ese tipo 00:04:40
formato de intercambio, yo le doy 00:04:43
incluso aunque le diga métemelo en este 00:04:46
timeline ¿vale? 00:04:48
y no como tracks adicional 00:04:50
sino que incluso sustituya 00:04:52
yo le doy a ok 00:04:54
Y nada, no hace nada, ¿vale? Pero quiero que veáis, y es uno de los procedimientos, es que si yo voy a Premiere, ¿vale? Sé que Premiere no, yo lo tengo aquí, pero no lo contáis con él, pero quiero que veáis que en Premiere, incluso que no es el de Avid, pues si yo, de manera similar, digo que importo en el proyecto, ¿vale? Lo tengo aquí preparado. 00:04:55
Este AF, ¿vale? Yo le doy a abrir y, bueno, pone mira, ver el informe, bueno, pues que tengas en cuenta posibles problemas, ¿vale? Veis que se me ha importado y de incluso por aquí estará, si no me equivoco, este, esa línea de tiempo, ¿vale? Si os fijáis, con sus cuatro canales, los cuatro de vídeo, ¿vale? Que son los del original. 00:05:14
Sí que es verdad que no es exactamente fiel, si os fijáis, pero tiene hasta las, igual que se ve en DaVinci, tiene hasta las disoluciones de imagen, fundidos, etc. 00:05:38
¿Vale? Tiene bastante, es decir, guarda bastante relación con lo que hemos trabajado. 00:05:49
entonces veis que DaVinci no lo mete 00:05:55
pero Premiere si 00:05:57
cuando se empieza en un 00:05:59
flujo de trabajo, cuando se empieza a trabajar 00:06:02
pues en un vídeo que se va 00:06:04
a seguir trabajando 00:06:05
en otro estudio de postproducción de sonido 00:06:07
y otro de color, ¿vale? 00:06:09
antes de, es decir, pues se va haciendo el montaje 00:06:11
pero no hay que volvérselo 00:06:14
ni con los efectos que se metan 00:06:15
ni con 00:06:17
lo que son los efectos de sonido, las transiciones 00:06:18
más allá de lo funcional para el montaje 00:06:22
¿por qué? porque 00:06:24
Es raro que si se continúa en un software distinto, ¿vale? Mantenga absolutamente todas las propiedades. Por ejemplo, para que os hagáis una idea, yo saqué, exporté el Premiere XML que os indicaba y lo he importado y es esta la solución. 00:06:25
Veis que no es exactamente igual, ahora nos vemos 00:06:46
Pero bueno, aparte de que cambia 00:06:49
De que cambia los colores 00:06:50
Que eso es lo de menos, de las pistas 00:06:52
Es XML, fijaos que 00:06:55
Por ejemplo, los efectos de sonido que tenemos aquí 00:06:57
¿Vale? 00:06:59
No están los fundidos 00:07:01
Los crossfades 00:07:03
Que sí que había en el original 00:07:05
Entonces, al final lo que se envía 00:07:06
A un estudio de postproducción es la referencia 00:07:09
Al montaje, el estudio de postproducción con tener 00:07:11
Los clips ya preparados para seguir trabajando 00:07:13
recreará o hará el trabajo 00:07:15
fino ya de eso y luego lo que enviará ya serán 00:07:18
bounces, se llaman o 00:07:20
stems, que son exportaciones de su 00:07:22
trabajo, pero ya renderizado, no en proyecto 00:07:24
¿vale? entonces, bueno 00:07:26
simplemente eso, que al ponerse a trabajar 00:07:27
en un proyecto, hay que ver 00:07:30
oye, estoy trabajando con DaVinci 00:07:31
y tendré que 00:07:33
luego pasárselo a Pro Tools 00:07:35
a ver, y habrá que hacer una prueba, o ya 00:07:37
te lo dirá el estudio de postproducción también 00:07:39
dependiendo del expertise de cada uno 00:07:42
Si no hay que hacer pruebas, se dice a lo mejor con Pro Tools. En teoría hay un preset de Pro Tools que si lo sacas de DaVinci en Pro Tools, que en realidad lo que saca es una F, pero de sonido, más centrado en sonido, al final hay que ir controlando que se ve y que no. 00:07:43
Y siempre al lado de, lo más recomendable es que siempre al lado de un formato de intercambio es enviar el render de cómo se ve y cómo suena para tenerlo de referencia siempre. Pero ya te digo, cuando se envía a un estudio de postproducción o de color o de efectos visuales, no se espera que tú ya hayas hecho el trabajo de ajustar todos los sonidos, etc. 00:08:00
Lo que tiene que llegarle es un montaje con todas las posibilidades de clips de audio, más otras que le puedes enviar de referencia para que ellos acaben el trabajo. 00:08:20
Y bueno, una cosa que me he saltado es, una de las ventajas, y es una de las ventajas, por ejemplo, que tiene Adobe con su integración con Photoshop o con After Effects, etc., o DaVinci, pues entre todas las páginas que tenemos aquí, es que la forma más rápida y más fiable de compartir un proyecto no es a través de estos formatos de intercambio, es a través de un proyecto de ese software. 00:08:30
Es decir, igual que vosotros hacéis en las entregas de las tareas que me enviáis normalmente un punto de RP, el proyecto de DaVinci o un archivo, un DRA, eso yo lo abro y se ve, sí que es verdad que puede haber variaciones. 00:08:54
y uso otra versión, o me falta 00:09:08
por supuesto la media, o trabajara 00:09:10
con la versión de estudio que es la de pago que tiene más cosas 00:09:12
pues si integra eso 00:09:14
a lo mejor puede haber conflictos 00:09:15
pero no va a haber nunca nada mejor 00:09:17
para el intercambio que un propio proyecto 00:09:20
en el software 00:09:22
en el que se está trabajando 00:09:24
y esa es la gracia, por ejemplo, de si se va a tener un flujo 00:09:25
de color, que luego se va a hacer la colorización 00:09:28
en DaVinci, si se trabaja en vez de 00:09:30
en Premiere, por ejemplo, o en Avid, directamente 00:09:32
en DaVinci y la edición, pues al colorista 00:09:33
dice, vale, te envío el proyecto con todo 00:09:36
Y ahí es donde menos conflictos y más compacto va a ser, más robusto va a ser ese intercambio, ¿vale? Que esto quede claro. Y es una de las gracias de empezar. A veces en un flujo de trabajo se dice, oye, vamos a empezar y vamos a hacer la edición en DaVinci porque así nos quitamos de líos de tener que hacer conversiones o adaptaciones de estos formatos de intercambio para color. 00:09:38
¿vale? pues porque por ejemplo 00:10:04
con Premiere aunque se puede hacer colorización 00:10:06
lo veréis en el A1-T5 00:10:08
pues DaVinci tiene unas opciones 00:10:09
más avanzadas, entonces bueno, pues es muy 00:10:12
frecuente pasar a DaVinci, entonces 00:10:14
bueno, pues que seáis conscientes, o por ejemplo en 00:10:15
Firelight, para trabajar el sonido 00:10:18
pues lo mismo, si ya 00:10:20
este trabajo, el que te lo pasa 00:10:22
te lo pasa en un proyecto de DaVinci que se ha trabajado 00:10:23
en DaVinci, pues ahí no vamos a perder 00:10:26
estas transiciones porque son las mismas, ya 00:10:28
las interpreta de manera nativa 00:10:30
los formatos de intercambio es, como dice 00:10:32
Cuando hay que cambiar entre plataformas, pues, fórmulas que existen para hacer esos traspasos, pero tienen sus limitaciones. Y a veces a propósito también, porque a las empresas les interesa que sean compatibles, pero lo que interesa es que tú adquieras su paquete y trabajes en su paquete, ¿vale? 00:10:34
Le digo entonces que hay que tener eso en cuenta. Y por tanto, lo que me interesa sobre todo en ese análisis final que pone la tarea 4B es que probéis. Vosotros me vais a pasar esos AF, yo voy a ver que más o menos están hechos correctamente. 00:10:55
Pero bueno, que si luego importáis 00:11:11
Y no funciona, lo que tenéis que dar un meta 00:11:15
Oye, pues una AF con este flujo de trabajo 00:11:16
Con este pipeline 00:11:19
No es 00:11:20
Funcional, porque no lo lee bien 00:11:23
Igual si fuera entre DaVinci 00:11:25
Premiere o DaVinci o Avid 00:11:27
Es justo lo contrario, son otros los formatos 00:11:28
¿Vale? Eso es lo que quiero que experimentéis 00:11:31
La tarea es un poco de probar 00:11:32
Sobre sacar en un Avid los 00:11:34
Tracks como 00:11:37
Mono 00:11:38
realmente si está sacándolo en estéreo 00:11:40
aunque creo que lo pongo en el enunciado 00:11:42
realmente se refiere a esto, a que esté marcada 00:11:44
esta casilla, ¿vale? que cada canal 00:11:46
sea, pero veis que 00:11:49
por defecto no deja 00:11:50
cambiarlo, que cada pista 00:11:52
¿vale? 00:11:55
pues se exporte de este modo 00:11:56
¿vale? porque si yo voy a Premiere 00:11:59
por ejemplo y miro 00:12:00
realmente 00:12:02
si os fijáis 00:12:03
en realidad 00:12:06
lo que está sacando 00:12:07
aunque esto solo tendría sentido 00:12:09
en la parte final 00:12:12
a ver un segundete 00:12:13
voy al edit y nos vamos a fijar 00:12:15
en los 00:12:18
en el mixer 00:12:18
fijaos que aquí se ve la diferencia 00:12:20
entre los dos canales 00:12:24
estéreos, que uno tiene más 00:12:25
presión que otro, más intensidad 00:12:27
si vemos en premium 00:12:29
veis que los dos 00:12:30
vúmetros se mueven 00:12:33
De la misma forma 00:12:34
Esto es que ya básicamente lo está sacando 00:12:36
Como un mono 00:12:38
Si se quisiera exportar 00:12:39
¿Vale? 00:12:43
Como pistas 00:12:44
Linkadas, hay otras opciones 00:12:47
Como por ejemplo esta de 00:12:48
Que exporte como 00:12:49
Tracks de audio discretos 00:12:52
Y entonces lo que hace es, digamos, exportar 00:12:54
El audio 00:12:56
Como 00:12:58
El número de pistas que tiene que tener 00:12:59
Pero ya os digo, luego 00:13:01
Esto todo es relativo y es prueba y error porque dependerá de cómo se manejan entre softwares. Hay un parámetro bastante importante, ¿vale? Y esto pasa tanto en audio como en vídeo, que es esto de… vais a ver que ahora estoy en la parte de vídeo, ¿vale? Que pone esto de renderizar full extents y los handles. ¿Por qué? 00:13:03
Y esto es importante porque lo que podemos hacer al exportar en estos formatos es decirle, vale, yo tengo aquí un clip que dura más, pero lo he recortado para que dure esto en el timeline y a veces para hacer fundidos, ya lo habréis experimentado, que se necesitan colas para que tenga ese material para que funda y pase entre uno y otro. 00:13:24
Pero si cortamos aquí abruptamente, aquí no sabe con qué fotogramas restantes solapar estos dos planos adyacentes. 00:13:42
Con esto de render full extents, lo que se dice es que cuando vaya, si es uno de los formatos de intercambio, 00:13:51
que mete dentro de sí mismo, como hemos visto con el AF, por ejemplo aquí, este AF, tiene MXFs aquí. 00:13:57
Pues esto es que ha ido sacando el render de cada parte para que vaya vinculado a esta EF cuando lo compartamos, pero le podemos decir que esos MXF solo incluya, solo renderice, que eso sería con esta opción, lo que se encuentra aquí o que añadamos unos fotogramas siempre de cola, por si aunque ya lo hayamos montado, pues si se quiere meter alguna transición, etc. 00:14:07
O incluso hacer algún pequeño ajuste de mover o desplazar, ¿vale? Y decir, oye, pues esto, mira, esto tiene que entrar un poquito antes, porque, por lo que sea, ¿vale? Pues lo mueves un poco, ¿vale? Hasta donde tengas, claro. 00:14:32
Y otra opción es directamente decirle, oye, no, tú me vas a, aunque luego en la referencia de la secuencia me meta solo la fracción, el fragmento que interese, yo quiero que en el render por lo que sea tener todo el clip. Eso está tanto para vídeo como para los clips de audio, si os fijáis. Está aquí. Es verdad que aquí va en bloque, pero en otros softwares o si solo sacarais audio, pues puede ser solo de audio, que es esto de aquí. 00:14:44
Y otra cosa importante, que creo que lo dije el otro día, pero por si acaso no lo dije, es que claro, cuando estamos sacando un formato de intercambio, vais a ver que esta barra de aquí de la selección de la entrada y salida se mueve a salto y esto es porque estos clips no podemos decir que saque un render hasta este punto, sino que va a sacar todos los clips de manera individual, lo que os acabo de enseñar aquí. 00:15:12
Entonces, bueno, pues va a ir exportando clip a clip. Por eso no deja marcar la opción que normalmente está marcada cuando hacemos un render normal de que sea un clip solo y que, bueno, pues sea solo hasta donde queramos, independientemente de qué clip, ¿vale? Porque solo saca un archivo, solo saca el render, ¿vale? 00:15:35
Entonces, bueno, esa tarea primera consiste en eso, en que probéis, investiguéis y saquéis conclusiones. Por ejemplo, las EDL también pueden dar problemas y, por otro lado, también en el tema pone que el estándar normal es el CMX3600, que, por ejemplo, usa Premiere, pero eso no significa que lo use DaVinci, por ejemplo. 00:15:55
Entonces, bueno, a veces donde pone que el CMX3600, que se está hablando de que son cuatro pistas de audio y una de vídeo, a lo mejor otro software que interpreta los CDLs con otra configuración, pues no funciona así. 00:16:17
Entonces habría que comprobar nuevamente que, como de compatible y hasta dónde son, eso, correlativas las... vamos, solucionan bien estos formatos de intercambio, ¿vale? 00:16:32
hasta aquí que tal 00:16:43
las dos primeras tareas son de 00:16:45
prueba y ensayo y error 00:16:50
¿vale? luego la otra 00:16:52
entiendo, bueno ya todos 00:16:54
habéis hecho módulos 00:16:56
entiendo de 00:16:58
en el que se renderiza 3D, se explica lo que son los 00:16:59
pases, etcétera 00:17:02
a ver, aquí tenía 00:17:04
bueno, pues se habla 00:17:06
de lo que es el 00:17:08
bueno, pues una composición 00:17:10
de un render multipase 00:17:13
os hago una pregunta 00:17:15
es decir 00:17:16
¿entendéis los beneficios 00:17:18
que tiene, que a priori puede parecer un 00:17:21
rollo, que tiene sacar 00:17:23
una imagen por distintos pases de render 00:17:25
¿verdad? esto lo habéis visto 00:17:27
en Maya imagino 00:17:28
o en Blender, según con que profesor 00:17:31
lo hayáis dado 00:17:33
entiendo 00:17:34
habéis entendido siempre que 00:17:36
aunque se puede sacar la imagen 00:17:39
ya como una imagen definitiva 00:17:42
o los fotogramas de un vídeo, se pueden sacar en multipases para tener control de esa imagen 00:17:43
sin tener que volver a renderizar el vídeo, que es con lo pesado y lo largo que es el render de un vídeo, 00:17:51
pues con estas opciones de Compose Item, también para integrar otros elementos, etc., 00:17:58
pues lo bueno es que puedes coger y decir, vale, del difuso directo, pues quiero que, 00:18:03
bueno, pues que de pronto 00:18:08
pues tenga un teñido 00:18:11
un poquito verde 00:18:13
o que por ejemplo 00:18:14
tenga, bueno 00:18:17
justo en este caso, tenga más contraste 00:18:19
pero solo ese pase 00:18:21
¿vale? sin afectar al resto 00:18:22
y bueno, esas cosas 00:18:25
entiendo que sabéis por qué lo hacemos, ¿no? 00:18:26
aquí lo que estamos viendo es la parte de 00:18:29
recomponer el puzzle de distintos pases 00:18:31
que se han sacado, en este caso 00:18:33
Blender 00:18:35
¿Sí? Bueno, creo que en el propio 00:18:36
en el propio tema 00:18:39
se habla de cómo conseguirlo 00:18:41
con este 00:18:43
nodo de 00:18:44
Channel Boolean, que sirve para ir 00:18:46
componiendo los 00:18:49
componiendo, sumando y restando 00:18:50
en el tema también pone cuáles son las combinaciones 00:18:53
normalmente que hay que hacer de los distintos pases 00:18:55
lo pone con respecto a Blender 00:18:57
porque ha sacado así, y si lo seguís pues llegaréis 00:18:58
a este resultado 00:19:01
¿Dudas con esto? 00:19:02
si no quiero hablaros 00:19:03
de una cosa introductoria 00:19:06
pero útil 00:19:08
dudas hasta aquí, porfa 00:19:09
¿nada? vale 00:19:13
por ahora ninguna, pues yo sigo 00:19:21
hay algo de lo que habla 00:19:23
al final de la tarea 00:19:26
que de vez en cuando saldrá 00:19:27
y diréis a lo mejor esto que es 00:19:30
corregidme, no sé si habéis hablado 00:19:31
en otros módulos, que podría ser 00:19:34
de espacios de color y curvas de gama 00:19:35
y lo que es 00:19:38
un espacio lineal 00:19:40
¿Sí? ¿No? Vale, no os suena 00:19:41
Vale, en el último paso 00:19:51
cuando ya hayáis hecho la composición 00:19:53
os va a salir algo como esto 00:19:55
¿Vale? Y veis 00:19:57
que está oscuro 00:19:58
y esta, os pongo 00:19:59
una imagen de referencia de cómo debe quedar 00:20:01
más que nada para que veáis que no puede 00:20:05
quedar así de oscuro, y no es porque esté mal 00:20:06
compuesto en los pases, esto está correctamente 00:20:08
hecho y sale 00:20:10
pero hay una cosa que pasa mucho 00:20:11
Por ejemplo, en 3D, que es que se trabaja en un espacio de color lineal. No suena, no entiendo. Lo digo por saber hasta dónde voy. ¿Alguien me puede contar algo de esto o no? Por saber a dónde me remonto. 00:20:15
Va a ser una introducción, tampoco voy a hablar porque esto ya es... Vale. Me pone uno de los compañeros que ni idea. Vale. Voy a abrir un pequeño documento que he creado. Cuando trabajamos en audiovisual, también cuando se trabaja en imagen, en Photoshop, en imagen estática, y cuando incluso compráis una televisión, un monitor, etc., hay dos factores que entran en juego. 00:20:33
Uno es lo que se llama genéricamente el espacio de color. El espacio de color es basado siempre dentro de los límites de la visión humana. ¿Qué colores puede reproducir un dispositivo? ¿O en qué espacio de color o qué colores estamos gestionando al trabajar en un software concreto? 00:20:58
existe este diagrama 00:21:21
que se llama diagrama CIE 00:21:24
hay otras versiones, hay otro diagrama 00:21:26
de 1976 que es lo mismo 00:21:28
pero con otro dibujo, digamos 00:21:30
con otra forma, que digamos que lo que hace 00:21:32
es representar en base a esto 00:21:34
todo el ámbito de colores 00:21:36
reproducibles 00:21:40
aquí se ve, es decir 00:21:41
en un monitor no lo vamos a ver porque evidentemente 00:21:44
este monitor en el que estamos viéndolo 00:21:46
cualquiera de nosotros 00:21:48
Tiene limitaciones de la capacidad de reproducción de ciertos colores, pero de manera teórica en este diagrama se representa que desde el blanco se ven los tres componentes de color RGB y todas las combinaciones de colores teóricas en este diagrama que puede reproducirse en un monitor, en un espacio de color. 00:21:49
Entonces, cuando compráis, por ejemplo, una televisión, podéis poner White Gamut o REC 2020 o, bueno, ya HDR. Eso es otra cosa relacionada, pero no es exactamente esto. 00:22:11
Entonces, hay una cosa importante que es que cuando trabajamos con vídeo, con imágenes, hay que ser conscientes de que estamos teniendo un rango limitado de colores, ¿vale? 00:22:23
Y que por mucho que nos esforcemos a veces, por ejemplo, cuando estáis en la unidad 5, de saturar una imagen, si tu monitor no representa ese color, esa viveza de color, por ejemplo, si le damos mucha saturación, pues igual no lo vais a ver, por mucho que os empeñéis, ¿vale? Porque sale del rango de color. 00:22:35
Hay distintos rangos de color, espacios de color. Digamos que dentro de este diagrama CIE que representa todos los colores teóricos que existen, que pueden ser percibidos por el ser humano, luego, en relación a circunstancias tecnológicas, a partir de que se van descubriendo más avances o se van desarrollando la tecnología, 00:22:52
los dispositivos son realmente capaces 00:23:17
de mostrar más colores 00:23:20
o de transmitirlos, a veces no es una razón 00:23:22
solo de mostrar en el dispositivo 00:23:24
sino para las transmisiones 00:23:26
entonces existen distintos espacios 00:23:28
de color, aquí son los principales 00:23:30
para audiovisual 00:23:32
que son estos que se llaman por ejemplo 00:23:33
ITU-RBT709 00:23:35
esto es una de las cosas que quiero que 00:23:37
os suenen para si alguna vez 00:23:40
os hablan de esto, pues que no 00:23:42
digáis esto que es, y al menos que os suene 00:23:44
Tampoco vamos a hacer algo muy avanzado aquí, pero sí que os suene, porque es un tema ya complejo y probablemente más avanzado de lo que necesitamos. Pero bueno, sí que hay que tenerlo en cuenta. 00:23:46
Si os fijáis, para empezar, y así también explico algunas cosas, este diagrama está en dos ejes, que son X e Y, que vais a ver, o deberían sonar cuando se hable de crear un DCP en el último tema, que es una forma de marcar coordenadas de color. 00:23:56
Pues el 0,4X, 0,2Y es este morado, ¿no? Este violeta. Vale, bueno, que sepáis que esto está en relación con dos ejes, que también está en relación con esto, que se llama el locus, ¿vale? La línea de locus, si no recuerdo mal. 00:24:13
Sí, era el locus, sí. 00:24:31
Que tiene esta curva y veáis viendo que tiene estos valores. 00:24:32
Estos valores son, que si veis, va pasando por azul, verde y rojo, 00:24:36
va pasando por los tres colores primarios y las longitudes de onda que tienen esos colores. 00:24:41
Esto es avanzado, pero en sonido, en RPMI lo veríais seguro, 00:24:47
los sonidos se oyen más agudos o más graves en función de las frecuencias. 00:24:52
Es decir, la onda de sonido que se ve por ahí, voy a abrir una ventana, frecuencia, sonido. Que un sonido sea más agudo o más grave depende de, a lo largo de un segundo, voy a poner esto más grande, por ejemplo, cuánta longitud de onda, es decir, distancia física tiene esa onda al desplazarse por el espacio. 00:24:56
¿Esto qué quiere decir? Que si tenemos una onda que se representa así, con mayor longitud de onda, porque veis que hasta que hace una vuelta completa, un hercio se llamaría, hay esta longitud, esto a nivel de sonido sería un sonido más grave que este que tiene una mayor frecuencia porque se repite más veces y tiene una menor longitud de onda. 00:25:22
En vídeo pasa lo mismo, solo que en vez de ser percibido por el oído y vibraciones 00:25:42
Es por la estimulación de conos y bastones en nuestro ojo, en nuestra retina 00:25:47
En función de distintas frecuencias 00:25:52
Así que esto a lo que hace relación 00:25:55
Sé que estoy a lo mejor remontándome a cosas físicas, pero que son importantes 00:25:58
Y creo que en colores, esto lo visteis 00:26:03
Son las longitudes de onda en nanómetros de los distintos colores primarios. 00:26:05
Entonces ya según esta combinación de distintos tonos y la longitud de onda, pues ya se desarrolló este diagrama. 00:26:13
Luego dentro de ese diagrama, veis que aquí hay un triángulo que es lo que se llama el gamut. 00:26:22
Cada espacio de color tiene un gamut. ¿Qué es el gamut? 00:26:26
los tres puntos y el triángulo 00:26:29
que deriva de hasta dónde 00:26:32
es capaz ese espacio 00:26:34
de color, ¿vale? ves que cada uno tiene un gamut 00:26:36
diferente de colores 00:26:38
de representar, es decir, el gamut marca los 00:26:40
límites de color que tiene un espacio de color 00:26:42
eso se llama gamut, está la gama 00:26:44
de color, pues el truco es que se llama gamut 00:26:46
como esto, acabado en T, gamut 00:26:48
¿vale? entonces 00:26:50
que sepáis que hay distintos espacios de color 00:26:51
y normalmente la televisión HD 00:26:54
que más conocemos todos 00:26:55
En YouTube, por ejemplo, mirad, voy a poner un vídeo de YouTube. Aquí, a ver, abro una ventanita. Esto que tengo aquí. Bueno, pongo YouTube, cualquier vídeo y para que vayáis también conectando conceptos. Yo qué sé, pinta más, Muse, yo qué sé. Me da igual. Bueno, y quiero que pase la publicidad. Quito el audio. Quiero que se vea la publicidad, quitar la publicidad por si acaso esto... Vale. 00:26:58
Aquí tenemos un vídeo. Si alguna vez queréis ver características más avanzadas de un vídeo y dais clic derecho sobre el vídeo, sale esto de estadísticas para nerds. Y vais a ver que hay un factor aquí, uno de los elementos, igual que están las dimensiones en píxeles o la frecuencia de sonido, el frame rate, no de sonido, la cadencia de fotogramas, perdón, que se me ha ido el santo al cielo. 00:27:22
aquí hay una cosa de color que aquí pone 00:27:46
BT709 00:27:48
y ese es el espacio de color, esto de BT709 00:27:50
si os fijáis, tiene relación con 00:27:52
esto del BT709 00:27:54
¿por qué? porque HD, el HD 00:27:56
la televisión que solemos trabajar 00:27:58
aparte de que, ya os he contado alguna vez 00:28:00
que un Full HD 00:28:02
1920x1080 es una especificación 00:28:03
que en este momento 00:28:07
del avance tecnológico se relaciona 00:28:09
así con 00:28:10
estas dimensiones, igual también 00:28:12
en que hay unas velocidades de fotograma más correspondientes a unos países que otros, 00:28:14
que de esto hemos hablado en otros momentos, también tiene un gamut concreto, 00:28:18
que es este llamado ITU-R BT-709. 00:28:23
Os digo, esto de ITU-R, que veis que más de uno aparece aquí, 00:28:26
se refiere a una institución que es la Unión de... 00:28:30
A ver, espera, lo tenía por aquí, de hecho. 00:28:35
La Unión... Vale, aquí. 00:28:39
Sí, el sector, la ITU es la Unión Internacional de Telecomunicaciones y la R hace referencia a lo que es el sector, a una de las secciones que tendrán ellos de radiocomunicaciones. Y esa sección se dedica a desarrollar y a fijar los estándares de transmisión y de difusión y de creación y de trabajo audiovisuales. 00:28:41
En este caso, hacen normas, diciendo que la norma que rige las transmisiones y las emisiones en la época del HD es esta, BT.709, y esto de BT se refiere a broadcast, transmisión televisiva, y 2 se refiere sobre todo a la transmisión de radio y de televisión. 00:29:03
Luego el cine tendrá otros consorcios, otras sociedades que hacen el desarrollo de sus estándares, que de hecho vamos a hablar de ello enseguida. 00:29:27
Entonces cuando veáis esto de ITUR se refiere a la organización internacional que ha fijado el estándar de cómo se retransmiten en broadcast en este caso, 00:29:36
Habrá otras normas para radio, por ejemplo. Y cada vez que saca un estándar o lo que llaman una recomendación, le ponen un número. Y esta recomendación es, por ejemplo, la REC 709. Aunque aquí ponga BT 709, es completamente sinónimo de REC 709. 00:29:50
De hecho, si ponemos aquí REC 709 y vemos... 600 no. Hay recomendaciones de muchos números, ¿vale? Pero REC 709 vais a ver que aparece referenciada como REC 709 y de pronto tenéis aquí, recomendación IntuR BT 709. Es un poco galimatías, pero son similares, hacen referencia a la misma norma. 00:30:14
Bueno, esto de BT, como os digo, es broadcast, ¿vale? Y cuando pone esto de REC es recomendación. Bueno, que sepáis que, como veis aquí además, tiene un gamut ya establecido, aparte de hablar de cosas como las resoluciones, las tasas de refresco, y ya os digo, fija, digamos, la norma de difusión y de transmisión en televisión, ¿vale? 00:30:37
Y bueno, también por extensión lo hace en Internet. Por ejemplo, YouTube, como acabamos de ver, se rige en base a esa norma BT.709. Esto significa que en ciertos momentos, por ejemplo, cuando estamos trabajando aquí en DaVinci, si vamos a las referencias del proyecto, está esta sección que se llama Color Management, que imagino que de momento habréis obviado y no os culpo por ello. 00:30:58
Pero aparte de que DaVinci tiene distintas formas de funcionar, algoritmos internos, no voy a meterme en esto, sí que ya hay, igual que al fijar o al crear una nueva composición, un nuevo timeline, una nueva secuencia, establecíamos la frecuencia de cadencia por segundo, de fotogramas por segundo y la resolución espacial, es decir, cuántos píxeles tiene, dimensiones, también está trabajando en lo que se llaman los colores de espacio, que también se pueden definir. 00:31:25
Y si os fijáis, aquí aparecen algunos, muchos, y son algunos como el P3-DCI o el REC 2020, ¿vale? 00:31:55
Así como guía veréis que hay REC 2020, hace referencia a este aquí, el P3-DCI es ese de ahí, o DCI-P3, vaya, ¿vale? 00:32:04
Que sepáis que se puede cambiar en algún momento que este gamut sea más o menos amplio. 00:32:13
Y eso, por ejemplo, se rige aquí. 00:32:20
Y fijaos además que hay otra cosa que es el espacio de color de la línea de tiempo mientras trabajamos dentro del programa y luego cómo exporta ese espacio de color. 00:32:22
¿Qué tal hasta aquí? ¿Más o menos me vais siguiendo? Es decir, es otro elemento configurable en los proyectos. 00:32:34
Primero, para que tengan consistencia los colores y segundo, para que las transmisiones se hagan como queremos que se vean. 00:32:41
Vale, os he perdido o os tengo por ahí? Vale. Entonces, ¿qué ocurre? Y aquí voy con otro de los factores, ¿vale? Hasta aquí tenemos el espacio de color y lo estamos viendo sobre todo, todo está interconectado, lo que voy a ir hablando, pero esto del espacio de color sobre todo se refiere a lo que es ese rango de colores que puede representar. 00:32:50
Para que os suene también, por si lo veis, hay mucha información en internet y tutoriales, etc. De hecho, ya en alguno de los temas os he dejado más enlaces, etc. Pero bueno, es algo más amplio. A ver, es que me ubique yo. 00:33:16
que os iba a enseñar. Dentro de estos espacios de color vais a ver incluso uno que se llama el ACES, que es el Academy Color Space System. 00:33:28
No, voy a buscarlo porque os estoy diciendo algo que no es. ACES se refiere... No, esto no es. ACES, ACES, ACES, color... 00:33:41
Es Academy Color Encoding System. Esto es que la Academia de Estados Unidos, la de los Oscar, para hacer sobre todo preservación de materiales, de archivo, de películas, etc., para hacer remasterizados en el futuro, cuando se trabaja en digital, 00:33:53
pues que a medida que vayan evolucionando estas tecnologías, pues se pueda trabajar con ellas sin degradarlas y aprovechando el máximo potencial, guarda y archiva y trabaja incluso con espacios de color que si os fijáis en este triángulo negro, es superior incluso a lo que el ojo humano, según el diagrama CIE que hemos visto, puede ver. 00:34:10
¿Pero por qué se hace esto? Porque aunque estemos trabajando un proyecto en 709, en REC 709, luego al ser más grande este espacio podemos decir guárdamelo en ACES o voy a trabajar en ACES, que recoge este gamut, está dentro de él. 00:34:32
Y con esto, a veces, aunque sobresalga a las tecnologías actuales, podemos preparar un proyecto para cuando se coja, por ejemplo, ya ha ocurrido en el 2020, que tiene un gamut más amplio, o cuando se recoja en siguientes, el 2100, por ejemplo, que bueno, el gamut en ese sentido es similar, pero bueno, sí que van archivando ya los materiales en espacios que veis que en esta sección de aquí o esta de aquí recoge colores que ni a lo mejor son representables, ¿vale? 00:34:46
o que el ojo humano, mejor dicho, no lo va a captar. Pero que sepáis eso, que existen incluso espacios de color teóricos a nivel de que dentro de este diagrama X e Y pueden guardar valores. 00:35:15
Hay otro ingrediente en la ecuación que es lo que se llaman las curvas gamma, las curvas de corrección gamma, mejor dicho. 00:35:32
Y esto es importante cuando trabajéis, por ejemplo, en 3D. Y esto es algo muy importante y que deberíais archivar en la cabeza para trabajar siempre, que es que el ojo humano no percibe la luminosidad y el color como es en la realidad. 00:35:39
Ahora, me explico. Si tú pones a grabar una cámara de vídeo y tiene un sensor que va recibiendo los fotones, que son los átomos, bueno, no sé si la palabra técnica sería átomos, pero las partículas, estas sí, que van cargados con una frecuencia que representa colores. 00:35:58
Si vamos viendo esa luminosidad y tenemos un sensor, bueno entiendo que también sabéis esto, entiendo que os lo han explicado en color, pero cuando tenemos una cámara, sensor de cámara de vídeo, a ver, lo que tienen es una matriz de Bayer, es decir una cuadrícula, ahí se ve eso de ahí, que lo que tiene es fotositos que son celdas muy pequeñas como cuadritos a los que según van llegando más o menos fotones se van cargando de la cámara. 00:36:19
energía, ¿vale? Y eso es 00:36:49
a nivel de cada píxel, pues si tiene más o menos luz 00:36:52
y eso es lo que va a representar. A ver 00:36:55
¿por qué? Joder, fotositos 00:36:57
voy a poner, o celdas, fotositos 00:37:01
sensor de cámara, ¿vale? Pues estas 00:37:04
cuadrículas, estos sensores están formados con cuadrículas 00:37:07
con la matriz de Bayer que van 00:37:10
discriminando por colores, etcétera, y luego lo interpolan 00:37:13
para que se vea la imagen final o bueno pues esto es un sensor vale cada uno de estos cuadraditos se 00:37:16
corresponde con un píxel en las realidades que a medida que van llegando más o menos fotos hitos 00:37:23
se van cargando de manera lineal la luminosidad que tiene es decir dos fotos hitos es la mitad 00:37:30
de carga luminosa que cuatro fotos y que cuatro fotones perdón o que ocho fotones son la mitad 00:37:37
Pero el ojo humano, adaptativamente, mientras ha evolucionado, no percibe los colores de manera lineal. Es decir, la luz del sol, con respecto a otra luz, puede ser el doble de intensa, pero nuestro ojo, y veis esta curva que tiene aquí, capta los colores con una cierta desviación logarítmica exponencial. 00:37:44
Es decir, si veis, y lo vais a ver aquí, la cámara está captándolo de manera objetiva cuántos fotones llegan a sus celdas, a sus fotositos, y según eso se va cargando de energía. Cuánta más energía significa que tiene que representar un color con más luminosidad, pues será más brillante ese color. 00:38:06
Los ojos, y esto lo podéis ver fácilmente si lo pensamos, en que por la noche cuando nuestros ojos se van adaptando a la oscuridad vemos muchos detalles con muy poca luz, es decir, estamos adaptados para que por la noche nuestros ojos capten detalles, entiendo, en su momento evitar problemas de que nos vinieran a atacar un animal, yo que sé, incluso para distinguir por la noche y ver un camino. 00:38:23
entonces nuestro ojo tiene esta 00:38:51
desviación que en los colores 00:38:53
más oscuros, cuando hay una ausencia 00:38:54
de luz, es 00:38:57
si lo comparamos con la progresión 00:38:58
lineal de la realidad 00:39:00
nuestros ojos detectan más 00:39:02
variaciones en los tonos oscuros 00:39:05
que en los brillantes, es decir, entre una lamparita 00:39:06
y el sol, que es muchísimo 00:39:09
más potente que cualquier luz 00:39:11
artificial 00:39:12
en realidad no hay tanta distancia 00:39:14
no hay tanta gradación, pero 00:39:17
lo cierto es que si midiéramos a nivel 00:39:19
y bueno, de hecho los dispositivos lo hacen, si midiéramos con dispositivos que fueran objetivos en cuántas veces se dobla la carga de fotones, 00:39:21
la carga de luminosidad real que tienen las partículas, nuestro ojo no lo ve representado igual. 00:39:30
¿Esto qué significa? Que nuestros ojos no ven exactamente igual que los sensores de nuestras cámaras captan las imágenes. 00:39:35
Y esto conlleva una cosa, que es que hay que hacer lo que se llama las correcciones de gama, que es corregir un poco la captación de algo lineal, de información lineal, como es la del mundo real, para que se vea como deberían verlo nuestros ojos. 00:39:43
vale entonces esto para empezar es importante que sepáis y lo vais a ver en el tema 5 que cuando 00:40:01
corrige los colores con las ruedas primarias el control intermedio el que digamos que cambia bueno 00:40:10
más que cambiar el color es cambiar la luminosidad el valor intermedio que toca los tonos medios es 00:40:16
es, como podéis ver, llamado gamma, y tiene relación, ¿vale? Están las luces bajas, las luces altas, y el gamma, que es los valores intermedios, ¿vale? 00:40:25
Cuando volvemos a esta explicación que os estoy dando, que no es la más ortodoxa, pero creo que la más rápida para que entendáis cómo funciona, 00:40:35
es que cuando grabamos con nuestra cámara, nuestra cámara, por efecto, si no se hace nada al respecto, está grabando en lineal, 00:40:43
Está detectando las cargas de luminosidad, que luego interpretará en píxeles de colores y luminosidad, de manera lineal, ¿vale? Y si esa imagen, según se capta de la cámara, la viéramos nosotros, se ve de manera correcta, ¿vale? 00:40:51
Pero sí que es cierto que luego, por cuestiones técnicas, a lo largo de la evolución también de la tecnología, los dispositivos de representación de la imagen, es decir, televisores y monitores, tienen aplicada una curva que se llama curva EOTF. 00:41:09
Curva EOTF 00:41:29
Os lo pongo por aquí por si queréis investigar más 00:41:30
Lo que me interesa es que pilléis el concepto 00:41:33
En otros temas 00:41:35
Algo se tocará de esto 00:41:37
Pero tampoco va de que 00:41:38
Sepáis mucho esto 00:41:41
Una curva OETF 00:41:42
No, EOTF, perdonad 00:41:44
Existen dos 00:41:47
EOTF, que podéis buscarla 00:41:48
Y de hecho 00:41:51
Es raro que no tenga 00:41:52
Wikipedia 00:41:55
Por ejemplo, Wikipedia 00:41:57
Parece que no, pero tiene aquí, Transfer Functions. 00:41:58
Vais a ver que hay dos tipos de curvas, la optoelectrónica y la electroóptica. 00:42:02
La opto, como hace referencia, es a la imagen óptica, es decir, la que capta una cámara, la que ve en nuestros ojos, 00:42:08
y la electrónica es luego la traducción a dispositivos electrónicos, y el funcionamiento en un software es electrónico, 00:42:15
porque se basa al final en valores que son señales eléctricas. 00:42:22
¿Vale? Esto lo que quiero decir es que si vemos este dibujo que tenemos aquí, a la entrada, desde la cámara hasta el trabajo con el dispositivo en el software, se pueden aplicar estas curvas que se llaman optoelectrónicas, ¿vale? 00:42:28
y luego se pueden compensar con otras curvas que son las electro ópticas vale sigo por la 00:42:46
transmisión y cómo se ha ido trabajando en los dispositivos finales de reproducción de la imagen 00:42:54
como el monitor que tenemos ahora mismo delante tiene aplicado una curva que hace esta forma es 00:42:59
decir que oscurece la imagen vale y esto es para compensar que las cámaras normalmente para que 00:43:04
Aunque capten el lineal, luego la imagen que están mostrando está compensada para que se vea con respecto a la que ven nuestros ojos, no la captan el lineal. 00:43:13
Lo que hacen es meterle una curva OETF, que es así, que es que sube los valores intermedios hacia arriba. 00:43:27
Veis que el más brillante y el más oscuro, si esto va de izquierda a derecha, como de oscuro a brillante, se corresponden, están quietos, pero se cambia esta gama que tenemos aquí. 00:43:34
Entonces, es muy frecuente que para compensar esa bajada que hacen los dispositivos finales del contraste y de la gama que tiene este dispositivo, en algún momento del proceso se incorporen curvas que, digamos, se asimilan a cómo ve nuestro ojo, ¿vale? 00:43:44
Entonces se mete esa curva, se trabaja, porque digamos que la imagen ya ha sido tratada para que se vea con esta desviación del gamma y luego hay que compensarla, y lo veis aquí con esta otra curva que es correspondiente a la del dispositivo final, para que se vea de forma lineal. 00:44:07
¿Por qué? Porque aunque el dispositivo le mete esa curva que oscurece la imagen, como podéis ver aquí, 00:44:24
al final nosotros necesitamos ver la imagen de manera lineal, porque nuestro ojo nuevamente tiene una curva de desviación de esta gama. 00:44:30
Entonces, que sepáis que en ciertos momentos los dispositivos de grabación o el trabajo en un software tiene una curva 00:44:40
que lo que hace es hacer una conversión de la imagen para que se vea más clara 00:44:46
para que luego sea compensada con la desviación gamma que tiene el dispositivo de representación 00:44:52
y que quede al final siendo lineal, paradójicamente. 00:44:58
Continúo. Esto significa que en muchos momentos podemos estar trabajando con curvas aplicadas 00:45:02
o en lo que se llama lineal. 00:45:08
cuando trabajáis en 3D 00:45:10
y hacéis 00:45:12
bueno, pues estáis trabajando en 3D 00:45:13
y de hecho, a ver 00:45:17
igual me estoy lanzando un poco a la piscina 00:45:18
pero si os metéis por ejemplo en Blender 00:45:20
voy así rápido, os voy a enseñar una cosa 00:45:21
el render final os puede interesar 00:45:24
que lo haga en lineal o que lo haga ya con una curva 00:45:26
de estas que pueden estar asociadas 00:45:28
a una de las normas de color 00:45:30
si por ejemplo, si no me equivoco es 00:45:32
a ver porque 00:45:34
aquí, si no me equivoco 00:45:37
no, o aquí 00:45:42
vale, aquí va a estar 00:45:44
si os fijáis 00:45:46
¿dónde está? 00:45:48
color management 00:45:53
overwrite, vale 00:45:54
vais a ver que están 00:45:56
que interprete la 00:45:58
gestión de color como de sRGB 00:46:00
que es la que tienen nuestros monitores 00:46:02
como ninguna, que es que será 00:46:04
lineal o como X y Z 00:46:06
que es una que usa los valores teóricos 00:46:08
del diagrama que os he dicho antes 00:46:11
¿vale? entonces 00:46:13
¿por qué os puede interesar trabajar en lineal? 00:46:14
porque os he dicho que si trabajáis en lineal 00:46:17
y exportáis en lineal, al final 00:46:18
lo que estáis haciendo es trabajar como 00:46:20
se trabaja en la vida real 00:46:22
es decir, como en realidad se están 00:46:24
haciendo las operaciones de iluminación 00:46:26
en el mundo real que hace el sol 00:46:28
y hace la naturaleza 00:46:30
entonces, lo lógico para que 00:46:32
los comportamientos de iluminación en el mundo 00:46:34
3D sean lo más realistas posibles en su 00:46:36
simulación, es que se trabajen en lineal 00:46:38
e incluso que se exporte la imagen 00:46:40
en lineal por si luego en un software 00:46:42
como Fusion, al hacer la 00:46:44
composición queremos que la 00:46:46
combinación de canales 00:46:48
y a veces de iluminación 00:46:50
sea lo más realista y fidedigna 00:46:51
posible con cómo funciona la realidad. 00:46:54
Entonces, en casos como este 00:46:57
puede llegar una imagen que se ha trabajado en lineal 00:46:58
y en el último momento 00:47:00
si volvemos a este esquema 00:47:02
ver la imagen más oscura. ¿Por qué? Porque hemos trabajado en lineal. 00:47:04
Aquí está hablando de sensor, pero fijaos que es básicamente, aunque no sea un sensor, 00:47:08
es trabajar en lineal, como funciona la naturaleza, y al final el monitor, 00:47:11
o no solo el monitor, sino el sistema de salida a monitor de este software, 00:47:17
está aplicando esta curva gamma que tenemos aquí, y por eso la imagen sale más oscura. 00:47:23
¿Qué significa esto? Que si la imagen nos ha llegado en lineal, 00:47:27
igual nosotros en ocasiones tenemos que aplicar una curva de compensación 00:47:30
para que acabe, al final, lo que sale de la pantalla 00:47:34
sea lineal para nuestros ojos, que ya hará nuevamente 00:47:37
esa desviación. ¿Y qué es lo que ocurre aquí? 00:47:40
Que como este render nos ha llegado en lineal en algún momento 00:47:43
y aquí hay un... 00:47:46
Hay varios, pero bueno, hay otro 00:47:49
que si no me equivoco es color, space, 00:47:52
transform, hay dos nodos 00:47:55
que se ocupan 00:47:57
de esto que tenemos aquí. 00:48:02
¿Vale? El que os recomiendo usar en la tarea es este que se llama Gamut, que es más sencillo porque lo ponéis aquí al final, ¿vale? Lo voy a poner por defecto, ¿vale? Y veis que no hay ningún cambio en nada, ni en el origen, en el espacio de color de la imagen que ha llegado, ni en cómo sale. 00:48:04
Pero es verdad que acabamos de decir que lo que queremos que salga sea en relación al REC 709 y veis que ya se ha corregido y aquí os voy a enseñar. La norma 709 tiene este gamut. Fijaos que aquí está todo el diagrama de 1971, aquí hay otro que os he dicho que es lo mismo pero con otra disposición, pero bueno, en general es más útil conocer de este. 00:48:21
Y aquí hemos dicho que la salida sea lo adapte al esquema de color de Rec. 709, probablemente a nivel de color el render ya estaba dentro de esta norma, pero aparte queremos que añada el gamma, la corrección de gamma correspondiente a este Rec. 709. 00:48:44
Y el REC709 tiene una curva de gama que es de 2,4, se llama, ¿vale? Esto también lo digo un poco de casualidad, de curiosidad, perdonad, pero que es una curva de gama que hace que sea un pelín más oscura la imagen que la otra que os digo, que es la sRGB que tenemos aquí. 00:49:00
Por eso se aclara un poquillo. Que es la que usan efectivamente nuestros monitores. No las teles, pero sí los monitores de ordenador normalmente, si es uno que no es muy avanzado, usa esto de ese RGB. 00:49:18
Vale, entonces simplemente todas estas explicaciones para deciros que en ciertos momentos el material que os llegue hay que ser consciente de qué espacio de color y si está dentro de alguna norma, qué curva de gama está trabajando o si no se ha llegado material en lineal, que esto ya os digo que suele pasar normalmente solo con renders 3D, cosas así, porque las cámaras suelen tener ya una curva OETF, ¿vale? 00:49:31
Que compensa esto para que se vea de manera correcta, ¿vale? Y aquí vais a ver, por ejemplo, pues estas curvas de gama que se aplican en el display, es decir, en el último paso, ¿cómo se vería la imagen? Y fijaos que si se pone, bueno, una curva de gama lineal que es 1-0, ¿vale? Estos valores lo que van incorporando es cuánto hacia abajo se va metiendo, el display gamma es el rojo, ¿vale? Por eso está en rojo, es cuánto hacia abajo se está moviendo la curva. 00:49:58
Es decir, si yo voy a color, esto ya lo veréis más, pero si metemos una curva hacia abajo, veis que se va oscureciendo, aunque el punto máximo negro y el punto máximo más claro, más brillante, se mantienen, pero veis que se aclara y se oscurece. 00:50:27
Esto es lo que hace normalmente la curva OETF para meter la primera compensación de la que luego va a ser la curva que meten los dispositivos de salida, que es más en este sentido, y lo que hace es compensarse una y otra para quedar lineal, lineal a nivel de representación tras todo el trabajo. 00:50:44
Pero esa compensación, como os digo, dependerá de esta curva de gama que se aplique para que finalmente, y veis que este 2.2 es el de sRGB en los dispositivos que usamos de monitorización visual, y veis que al final la representación, al compensarse la OETF con la EOTF, sale este espacio lineal que nuestros ojos ya ven como si fuera el mundo normal. 00:51:07
Hay otras curvas de gama más exageradas, pero a veces esto es necesario porque se está trabajando en otro sistema que las curvas de inicio metían una de compensación más alta o, como pasa con el DX709, cuya curva de gama es 2,4, es simplemente para que añada un poquito más de contraste que se considera más estético. 00:51:33
Le da un cierto tono que en esa norma se estableció, que es el que tienen que tener las imágenes del periodo del HD. 00:51:56
Os he dado aquí una buena charla y algunas cosas seguramente os esté costando seguirme y yo a lo mejor tampoco me explico en ocasiones de la forma más directa, porque esto tiene mucha física detrás y es un poco para simplificar. 00:52:08
Pero simplemente que entendáis ese último paso que hay en Fusion de meter este nodo gamut o este color transform, space transform, perdonad, que aunque lo que le llega es con una gama, el color, aquí está más desgregado, la entrada que llega hasta aquí, hasta este nodo, sí que es un REC709 porque la imagen sí que se ha sacado dentro de la norma de color REC709, 00:52:26
Pero la gama de entrada es lineal, no es 709. ¿Vale? Veis que aquí luego hay gamas 2, 2, 2, 4, cosas de las que se habla. Y la salida yo la quiero en REC 709 porque quiero ese gamo. Estamos en HD, no vamos a hacer algo todavía dentro de la norma 2020, que es la que rige HDR, 4K y 8K, etc. 00:52:54
Pero la salida de gama no la quiero así, la quiero con una curva de gama de 2.2. ¿Por qué me lo está haciendo aquí? Output gama, a ver, voy a tocar a lo mejor la curva de gama de, voy a poner de REC709. 00:53:14
A ver, bueno, pues no me está haciendo caso. ¿Está entrando? Ah, vale, porque igual está entrando lineal input. Se está saliendo de la norma por algo y no sé por qué es. Igual le toca algo por aquí. Vale. 00:53:32
Bueno, este nodo, como podéis ver, es un poco más complejo, aunque debería estar haciéndome caso. 00:53:56
Estaba saliendo como lineal, es así, y lo queremos subir a un gama 2.2, a ver con la de REC700S RGB. 00:54:04
Aquí habrá que hacer algo más, este la verdad es que no lo tengo tan controlado, pero... 00:54:17
Pero, bueno, está haciendo esta adaptación de una forma que no es la correcta según lo que yo busco. 00:54:22
Vamos a hacer una cosa, en vez de 709, en el máximo teórico, bueno, esto desde luego no lo estoy mostrando como es, 00:54:32
porque no estoy entendiendo el color 00:54:50
space transform 00:54:51
input, vale, espera 00:54:52
en input, si, si 00:54:55
la output gamma debería ser 00:55:00
bueno 00:55:01
aquí hay algo que no estoy aplicando 00:55:02
bien o que he cambiado, vale 00:55:07
color space transform 00:55:09
vale 00:55:11
esto se debe también 00:55:13
que sería otra cosa a que aquí 00:55:15
seguramente si empiezo a trastear por ahí 00:55:17
llegaré al resultado 00:55:19
aquí hay que decirle que 00:55:20
la entrada de uno y otro 00:55:23
vale 00:55:27
tiene que ser 00:55:28
tiene que entrar como 00:55:30
REC709 y salir como lineal 00:55:32
y aquí hacer esta adaptación con otro 00:55:35
Color Space Transform en el último momento 00:55:36
oh, espera 00:55:38
no, hay que meter aquí 00:55:41
la curva, bueno 00:55:42
tampoco me quiero extender mucho aquí porque la otra opción 00:55:44
es la que os digo que 00:55:47
que considero 00:55:48
más rápida, pero vamos 00:55:51
con este nodo, también se deberían poder conseguir 00:55:52
resultados similares. Mira, 00:55:54
aquí va a estar. Hay que meterlo en el origen, 00:55:56
no en el fin. 00:55:58
Ahí y ahí. 00:56:01
¿Vale? Y aquí ahora 00:56:03
habrá que meter otro color. 00:56:04
Bueno, esto lo estoy haciendo ya por ver si 00:56:06
encuentro la solución, pero no es ni lo que os estoy 00:56:08
pidiendo, ¿no? Y aquí cuando 00:56:11
llega esto, 00:56:14
salida 00:56:17
2.4 00:56:18
y no 00:56:19
claro, aquí hay que poner 00:56:21
bueno, aquí habría que tocar cosas 00:56:23
que no estoy haciendo correctamente 00:56:25
porque este nodo sé que existe 00:56:27
pero no lo sé gestionar bien 00:56:29
ahora mismo, entonces bueno 00:56:31
simplemente que sepáis eso, que este gamut 00:56:33
hace esa función 00:56:35
y no sé por qué 00:56:36
no está funcionando, pero bueno, esto el otro día 00:56:39
estuve probándolo y sé que me iba, vale, pero con este 00:56:41
nodo de gamut podéis hacer esta corrección 00:56:43
y en base a esta explicación que os he dado 00:56:45
¿qué tal? hasta aquí, ¿me seguís? 00:56:46
¿Alguna duda? Esto ya es más avanzado y bueno, es porque sepáis más de corrección de color a estos niveles o por si tenéis que hacer alguna adaptación entre un material de un espacio a otro y tenerlo en consideración, ¿vale? Me quedo con esta duda. ¿Qué tal? ¿Me seguís hasta aquí? ¿Dudas que os surjan? Vale. 00:56:49
Si no hay más dudas, por mi parte es un poco de lo que quería hablar. Muchas dudas. Esto es complejo e incluso yo tengo dudas normalmente de esto. Es decir, que son conceptos avanzados y de aquí también surge lo que es el HDR, que es dentro de la norma que hablábamos que tenía un gamut más amplio. 00:57:20
Esta norma que se llama 2020, que ya es la que regula lo relacionado con 4K, con HDR, que son las imágenes de alto rango dinámico, y bueno, ya para trabajar en eso se necesitan sistemas más avanzados, pero bueno, poco a poco se irá imponiendo, pero yo ahora digo, esto sí que es más avanzado y se sale un poco de lo que hay que ver en esencia sin que tengamos muchas dudas de origen. 00:57:40
En el último tema, o si queréis que hablemos más de esto, cuando ya acabemos el último tema, que ahí habrá un tiempo, podemos hablar de estas cosas más en profundidad. 00:58:05
Y ya también quizá me entero de cómo se incorpora este color. Ya sé por qué es. Vale, porque hay que... Vale, sí. Mira, de hecho, fijaos, dentro de lo que son las correcciones de color, esto ya lo veréis también en el tema 5, no quiero adelantarme, existen... 00:58:15
Espera, que estoy leyendo la duda 00:58:39
Me imagino que acabaremos los temas un par de semanas antes de los exámenes 00:58:46
Sí, bueno 00:58:49
Es decir, yo mi idea 00:58:51
Y esto entre comillas porque depende de varios factores 00:58:52
Mi idea es que 00:58:55
Esté subido ya todos los materiales 00:58:57
Justo antes 00:59:00
El 10 de abril, justo antes de Semana Santa 00:59:01
Así que es verdad que a lo mejor, igual que hice en Navidades 00:59:03
No está un tema completo 00:59:05
Pero sí que va a estar 00:59:07
bastante avanzado, con la idea de que 00:59:09
en abril esté, los exámenes son en junio 00:59:11
así que mayo en principio 00:59:13
ya debería estar todo para que acabéis las últimas tareas 00:59:15
y bueno, para dudas 00:59:18
pero ya os digo 00:59:19
el margen más o menos que nos ponemos 00:59:21
en el departamento es 00:59:23
primera semana de mayo, como último 00:59:25
para publicar, yo intentaré 00:59:28
que esté antes, pero bueno, depende de más cosas 00:59:29
y también según eso intento 00:59:31
ocupar más 00:59:34
temario, digo 00:59:36
o mejorarlo, porque esto también tiene su trabajo. 00:59:37
Pero sí, mi idea es que el 10 de abril, si no tenéis todo, 00:59:41
tengáis ya bastante, bastantes cosas. 00:59:44
A falta de que hagáis las tareas, igual alguna a punto de ampliar. 00:59:46
Cuando, un poco en relación con todo esto, aunque no exactamente, 00:59:51
leeréis a veces que existen grabaciones que se hacen 00:59:55
con lo que se llaman curvas logarítmicas. 00:59:58
Y eso no es tanto por cómo ve el ojo humano, 01:00:00
sino por aprovechar el rango de luminosidad óptima 01:00:02
Cuando luego expandimos y tocamos colores y luminosidades para que, igual que os he dicho, que hay colores que el ojo humano percibe, o mejor dicho, rangos de luminosidad, como esa oscuridad, esos detalles en la oscuridad que se perciben con más detalles, ¿vale? Pues se agrava a veces en logarítmico para que luego se puedan estirar más ciertos rangos de luminosidad y recuperar más detalle que en algunas zonas que luego no son tan útiles, ¿vale? 01:00:05
Y existen lo que se llaman los LUTs. De esto se habla en el tema 5. Pero fijaos que incluso en la visualización de este hay aquí una en Fusion, una ventanita para aplicar estas LUTs de corrección de esas curvas logarítmicas de grabación y podemos incluso decirle que el gamma de color sea 2.2, por ejemplo. 01:00:34
Y si le damos, veis que la imagen se ve bien, pero esto es solo una visualización de este visor. 01:00:53
Probablemente luego, si vamos a Edit, se vea oscuro, ¿vale? 01:01:00
Para que veáis, y por aquí igual también está viniendo el problema de este Color Space. 01:01:04
Bueno, que tengáis en cuenta dónde estáis aplicando estas correcciones y este uso de las curvas de corrección de gama. 01:01:08
Me sirve con que os quedéis que existen estas alteraciones de la luminosidad y estos rangos de espacios de color y que seáis conscientes de que existen. 01:01:19
Es lo que más me importa. Luego, más allá de cuando acabéis el curso, etc., tiene mucha literatura detrás y mucho desarrollo tecnológico y es más avanzado. 01:01:28
Pero que os suene que existe y que veis que incluso en el software que ya estáis usando son funciones que existen. 01:01:41
por ahí y bueno 01:01:48
me quedo con esto del color space 01:01:49
viendo a ver 01:01:52
porque leche no funciona 01:01:54
no, esto no, eso es el modo de color 01:01:55
pero bueno 01:01:58
ya os digo, se da la 01:02:00
fórmula rápida y razonable 01:02:01
aquí a lo mejor hay algo de que 01:02:03
igual hay que poner 01:02:05
que la gestión de color 01:02:08
a ver, dame un segundo, a ver si es por esto 01:02:09
voy a quitar 01:02:11
esta visualización 01:02:14
que había puesto para la LUT 01:02:16
si no me equivoco es ahí 01:02:20
y si yo meto este color space transform 01:02:23
y le digo que la output gamma sea de 2.2 01:02:26
a ver si me hace caso y si no ya lo dejo 01:02:29
que no sé por qué 01:02:32
ah, perdón 01:02:35
no, es que la entrada es lineal, algo está pasando 01:02:41
pero no lo consigo, bueno 01:02:45
Habría que estudiar este nodo, ¿vale? Yo os digo, el que os pido es el otro y que funciona perfectamente, lo vais a ver. Bueno, pues algo que queráis que tratemos antes de continuar. El tema 5 os sugiero que acabéis la tarea 4 y el tema 5 lo cojáis con energía porque se ocupa sobre todo de la página de color y de la de Fairlight y tiene bastante. 01:02:49
Pero creo que es bastante agradecido también. Igual que los temas 2 y 3, a nivel de software vais a tocar muchas cosas extrapolables además a otros softwares. 01:03:15
Que, por cierto, lo ponía cuando publiqué el tema, pero... A ver... Espera, que abro aquí... Este tema 5, cuando vamos a él, en los contenidos vais a ver que hay dos secciones que he dejado, que son esta 4 y esta 7, que hablan de herramientas de software de Adobe. 01:03:25
las dejo ahí por si queréis echarle un ojo 01:03:54
y está muy bien porque además os da contexto 01:03:58
de cómo se hacen cosas muy parecidas 01:03:59
a lo que se explica con Fairlight 01:04:02
y con la página de color de DaVinci 01:04:03
muy parecidas con 01:04:05
con otro software 01:04:07
pero no son materia de examen directamente 01:04:09
no voy a preguntar 01:04:11
aunque ya siempre os he dicho que este curso 01:04:12
intenta ser independiente 01:04:15
de software, sino que sea más una visión global 01:04:17
de cómo funciona 01:04:19
sea el software que sea 01:04:20
Pero bueno, al aterrizarlo se usa DaVinci, pero os dejo estas dos secciones de color de Lumetri, que es con lo que se hace la colorización en Premiere, por ejemplo, y Adobe Audition, que es el software de postproducción de sonido. 01:04:22
No son materia de examen, así que aunque aquí veáis mucho, la sección 4 y la 7 para el examen no entran. Os recomiendo mucho que lo veáis, incluso si os podéis hacer con alguna licencia o un periodo de prueba de Adobe, pues incluso que lo trasteis. 01:04:38
Pero bueno, que sepáis que no es para examen directamente eso. Los conceptos que se explican, aunque están replicados en las secciones correspondientes, pues os ayudará a entenderlo mejor. Cuanta más perspectiva tengáis del software, mejor. 01:04:52
pero bueno, eso 01:05:05
por mi parte ya está, si queréis algo más 01:05:06
me decís 01:05:10
si no pues lo dejamos aquí 01:05:11
nada 01:05:13
todo 01:05:18
más o menos en orden, como no había dudas de este tema 01:05:20
por eso me he ido por otros derroteros 01:05:23
de ampliación en realidad 01:05:25
en gran parte, aunque esto del Kanmut etc 01:05:26
si se va a ver en algún momento, lo veréis 01:05:28
en el temario, pero 01:05:30
bueno, así ya tenéis un poco 01:05:32
una primera toma de contacto con algunas cosas 01:05:34
Materias:
Imagen y Sonido
Niveles educativos:
▼ Mostrar / ocultar niveles
  • Formación Profesional
    • Ciclo formativo de grado superior
      • Segundo Curso
Subido por:
Daniel M.
Licencia:
Todos los derechos reservados
Visualizaciones:
17
Fecha:
13 de marzo de 2025 - 19:21
Visibilidad:
Clave
Centro:
IES CIFP a Distancia Ignacio Ellacuría
Duración:
1h′ 05′ 42″
Relación de aspecto:
1.78:1
Resolución:
1920x1080 píxeles
Tamaño:
567.41 MBytes

Del mismo autor…

Ver más del mismo autor


EducaMadrid, Plataforma Educativa de la Comunidad de Madrid

Plataforma Educativa EducaMadrid