Saltar navegación

Tutoría 9 - RMPA - UT6 - Curso 23·24 - 6 de mayo - Contenido educativo

Ajuste de pantalla

El ajuste de pantalla se aprecia al ver el vídeo en pantalla completa. Elige la presentación que más te guste:

Subido el 6 de mayo de 2024 por Daniel M.

19 visualizaciones

Grabación de la novena tutoría de RMPA

Descargar la transcripción

Es que lo estoy mirando aquí, que lo apunté en un blog de notas, en unidad 5, 1.2, tengo puesto lo de tono y saturación, creo que está al revés, pero es que no especifico más, entonces, es un poco vaga mi duda. 00:00:01
En RMPA, a ver, me meto y voy a compartir pantalla, ¿vale? Que entiendo que no la estáis viendo. Vale, ahora sí que deberíais, y tema 5, me has dicho. 00:00:15
Sí, el punto 1.2. 00:00:28
51.2 Vectorscopio 00:00:29
Sí, esto de aquí 00:00:32
¿O a qué te refieres? 00:00:34
Sí, imagino que es a esto 00:00:37
Creo que es donde pone el apartado A y apartado B 00:00:39
No sé, o a lo mejor yo lo entendí mal 00:00:42
O algo, pero me apunté justamente para esa tutoría 00:00:45
De que creo que estaba al revés 00:00:48
No, lo que quiere decir esto es 00:00:50
Dentro del Vectorscopio, ¿vale? 00:00:53
Este no es el mismo Vectorscopio 00:00:55
Bueno, este sí es el de Premiere, ¿vale? 00:00:56
Este es el de otro software 00:00:58
pero son bastante análogos. Lo que quiere decir es que muestra dos informaciones relacionadas con la señal de crominancia, 00:00:59
es decir, con el color. Hay dos cosas que ver. Una, en qué ángulo dentro de la circunferencia están 00:01:06
y también cuánto de largo es el vector, es decir, el punto en el que se asienta. 00:01:13
Digamos que el tono, la tonalidad, se ve mejor en el de Premier según el ángulo en el que esté, 00:01:20
que es a lo que se refiere la fase, la posición en grados, se referirá a rojo, a magenta, a azul, al tono, a la tonalidad, pero luego ya lo que es la saturación de ese tono depende de la longitud del vector, 00:01:25
es decir, de hasta dónde se extiende la indicación de dónde se está midiendo ese tono. 00:01:39
Es decir, tú puedes tener un tono rojo y que sea rojo como aquí con poca saturación, que aunque sea un rojo será un rojo muy apagado, con poca viveza de color. 00:01:47
Por ejemplo, si esta zona aquí tiene rojo, apenas se muestra lo que es el tono rojo, entonces la viveza, la saturación es baja. 00:01:58
No es lo mismo que si el tono está en esta longitud que va tendiendo a medida que nos vamos alejando del centro, ¿vale? Que es lo que sería la saturación nula, cero, ¿vale? Pues a medida que nos vamos alejando, que la longitud es mayor, a mayor cercanía con el borde, mayor saturación. 00:02:08
Así que creo que sí está bien, vaya. 00:02:28
¿Vale? 00:02:30
Lo que quiere decir es eso. 00:02:31
La fase es la posición, como la aguja de un reloj, 00:02:32
hacia la que apunta desde el centro ese vector, ¿vale? 00:02:35
Y luego es la longitud de ese vector, 00:02:39
que es cuánta saturación tiene dentro de ese tono hacia el que apunta. 00:02:42
¿Vale? 00:02:46
Vale. 00:02:47
Esto hay que tener en cuenta eso, que va por píxeles. 00:02:47
Que aquí hay como una especie de nebulosa de... 00:02:49
¿Veis mi pantalla, verdad? 00:02:53
Sí, sí, sí. 00:02:55
A ver si estoy aquí señalando algo. 00:02:56
Una cosa es, se ve aquí una nebulosa, pero realmente, digamos, cada punto que va aportando se refiere a un píxel que hay aquí, ¿vale? 00:02:58
Entonces, pues al final hace esta constelación nebulosa, como lo queramos llamar, pero que es un conjunto de píxeles. 00:03:05
De todos modos, ahora, si os parece, también hacemos, habiendo corregido la tarea del tema 5, un repaso. 00:03:11
Sobre todo me interesa, porque además, si no hay así... Digo, ¿te resuelvo un poco la duda ya con esto? 00:03:17
Sí, sí, sí. 00:03:23
En principio está bien, vamos, no veo que sea nada... 00:03:24
Lo habré entendido yo, ¿vale? 00:03:28
Eso es. Es decir, que no... Además, la fase del vector, longitud del vector son términos que, bueno, no son los más intuitivos, pero es así como se llama, ¿no? 00:03:30
Fase, el ángulo y la longitud, la distancia desde el centro. 00:03:38
Vale, ahora de todos modos si os parece eso, viendo la corrección de la tarea podemos incluso ver también algún equipo de medición porque me interesa que sepáis también interpretarlo y seguro que en el examen va a haber algo relacionado, no sé si el art de desarrollo o el art de tipo test, pero va a haber preguntas relacionadas un poco con la interpretación de los equipos de medición. 00:03:43
Bueno, en este caso va a ser en base a ámbitos de lumetri porque usamos Premier, pero bueno, es lo mismo, que en realidad este vectorscopio sí que tiene la desventaja, bueno, que sí que están, que aquí las letras que representan cada color y no es tan claro como aquí, que incluso te marca los cuadraditos de color y es fácil saber si va hacia el rojo o al amarillo, aquí es menos intuitivo, aunque la propia nebulosa está coloreada del propio color, pero bueno, que dependiendo del vectorscopio indican lo mismo en realidad, ¿sabes? 00:04:11
y es una información análoga a todos los equipos de medición de vectorscopia. 00:04:38
¿Alguna duda más que tengáis de las tareas o algo que queráis que veamos? 00:04:46
Si no, mira, de hecho podemos partir por analizar un par de imágenes 00:04:50
porque hay un par de cosas que quiero que queden aún más claras por lo que he visto. 00:04:54
Sí, oigo por ahí alguien hablando. 00:04:59
Yo tengo unas notas, tengo varias preguntas apuntadas. 00:05:01
pero no sé si, o sea, son de otros temas 00:05:06
vale 00:05:08
si no tenéis nada concreto 00:05:09
de este tema, podemos verlo 00:05:12
de cualquiera, es decir, yo incluso lo que 00:05:14
voy a hablar hoy 00:05:16
no es, está relacionado 00:05:17
con el último tema, que es muy amplio 00:05:20
sobre los delivery, las entregas 00:05:22
tiene que ver con los codecs 00:05:24
por ejemplo, etcétera 00:05:26
entonces no hay problema en que veamos 00:05:27
tus dudas 00:05:30
de hecho, yo creo que 00:05:33
lo más adecuado es que resolvamos las dudas 00:05:34
pendientes y luego ya vamos a otras cosas. 00:05:36
Así que si las tienes por ahí preparadas, 00:05:39
pues cuéntame. 00:05:40
Justo a más lo que acabas de decir. 00:05:42
Cuando he estado estudiando estos días 00:05:44
los temas, sí que me 00:05:46
costaba un poco llegar a entender la 00:05:48
diferencia, que aunque yo 00:05:50
no sé si es lo mismo o 00:05:52
hay cierta diferencia. Debo apuntar 00:05:54
aquí. Diferencia entre formato, 00:05:56
códec y contenedor. 00:05:58
Vale. Es decir, a veces me cuesta 00:06:00
llegar a... 00:06:02
Esa es muy buena, ¿no? Esa es muy buena. 00:06:04
Sí, porque yo que vengo del mundo del audio, yo pensaba que lo entendía, pero claro, en el vídeo veo que funciona todo de manera diferente. 00:06:06
Porque luego, también estudiando parte, creo que entra esto dentro del tema 2, entra el tema de la compresión, interframe, intraframe y todo eso. 00:06:15
Entonces, como que ya me ha costado llegar a profundizar, o sea, he profundizado en ese tema, pero me gustaría hacer la pregunta y lanzar la pregunta. 00:06:24
Me parece muy buena pregunta. 00:06:32
Porque creo que puede llegar a ciertas... o sea, a confundir un poco. 00:06:35
Vale, vamos a ello. Mira, de hecho, uno de los... espera que abro un documento que tenía aquí. 00:06:39
De hecho, mira, os lo he dejado aquí, habréis visto que debajo de lo que es el contenido del tema, ¿vale? 00:06:46
Aunque no lo voy a preguntar en el examen, ¿vale? Aunque esté en la zona de contenido, va a ser materia de examen directamente, ¿vale? 00:06:51
Hay unas tablas aquí que os he dejado de esta web, ¿vale? 00:06:57
Que de hecho la habréis visto en algún momento. 00:07:00
Hay, bueno, pues dos tablas de códex con diferentes especificaciones. 00:07:04
Voy a abrir una de ellas y así también me sirve un poco para ir viendo qué es cada cosa, ¿vale? 00:07:09
No sé si habéis visto este archivo, pero sobre todo es... 00:07:14
Sí, sí, lo he hecho un vistazo por encima. 00:07:18
También de investigación un poco, ¿vale? 00:07:20
Y si os parece, lo que podemos hacer es un poco desglosar a grandes rasgos qué quiere decir cada columna, porque eso además me va a servir para hablar de qué son códecs, de qué es la cápsula, de qué es el formato de la media, ¿vale? 00:07:22
Entonces, si os parece, lo vamos a enfocar por ahí, ¿vale? Pero la respuesta rápida es, el formato, digamos que es, el formato y el contenedor están íntimamente ligados, ¿vale? 00:07:37
Cuando tenemos un vídeo o una imagen, a ver, aquí solo tengo imágenes, pero voy a meter algún vídeo, por ejemplo, dame un segundo y meto en Premiere uno de los vídeos que me entregasteis, por ejemplo, la tarea 5, porque me da un poco igual. 00:07:49
esto por ejemplo, no meto en Premiere 00:08:05
vale, cuando metemos un vídeo 00:08:08
esto es la mezcla de sonido, así que entiendo que es 00:08:09
este, vale, cuando tenemos un vídeo 00:08:12
tiene 00:08:14
por definición un formato que es el que 00:08:16
además suele poner en 00:08:18
la extensión del archivo 00:08:20
si nos fijamos en 00:08:22
el nombre del archivo, vale 00:08:24
tiene un formato 00:08:26
mp4 o mp4, vale 00:08:27
cuando 00:08:30
estamos hablando de formato nos referimos 00:08:31
a esta extensión, ¿vale? Porque el formato y la cápsula, ¿vale? Cuando hablamos de la cápsula es que tiene una especie de, digamos, a ver cómo lo explico, 00:08:34
de configuración informática, ¿vale? Que se puede llamar .mp4, el MOV, el DNX, el MXF, ¿vale? Que permite que luego tenga una configuración 00:08:46
de elementos dentro vale es decir un contenedor barra formato lo que permite es distintos tipos 00:08:57
de configuraciones que puede tener luego el interior vale que se codificará de ciertas 00:09:05
maneras entonces dentro de un nivel superior estaría el formato vale si por ejemplo yo meto 00:09:10
este vídeo para trabajar vale y bueno ya se ha hecho aquí la edición etcétera cuando vamos a 00:09:15
exportar al dar a exportar al final tenemos dos puntos que hablan de lo mismo vale primero el 00:09:19
formato este h 264 porque es verdad que el formato de mp4 vale se llama h 264 pero veis que aquí hay 00:09:28
más formatos por ejemplo pues de los que os he dicho el open xr el incluso hay formatos específicos 00:09:35
de vídeo vale tú has dicho que habla cuando hablábamos de audio vale por ejemplo está el 00:09:41
El formato MP3 o el formato WAV, ¿vale? Digamos que son los que dan la base informática, la cápsula en la que se mete la información que luego se va a reproducir o atesorar en su interior, ¿vale? 00:09:48
Y otra cosa luego que hay en su interior, ¿vale? Y esto, por ejemplo, se vería más en un QuickTime, ¿vale? Si voy a un QuickTime, es que dentro del QuickTime puede haber, ¿vale? 00:10:03
Tenemos un formato QuickTime y puede haber distintos códecs. 00:10:13
Entonces, de hecho, aquí no está, pero incluso dentro de los QuickTimes, en Premiere no está justo, pero dentro de los QuickTimes, o no lo está, puede haber incluso H.264 también, ¿vale? 00:10:17
Es decir, hay veces que un formato y un códec están desarrollados de una forma tan íntimamente ligada, ¿vale? 00:10:29
Porque se desarrolló a la vez el MP4 con su codificación H.2.6.4, ¿no? 00:10:38
Que incluso un distinto contenedor puede estar preparado para codificar la información de distintas formas. 00:10:43
En esencia, creo que la forma para entenderlo es que los formatos se relacionan con esta extensión o con cápsula, ¿vale? 00:10:50
Que genera, digamos, la posibilidad de que tengamos un archivo cerrado con imagen o audio, ¿vale? 00:10:59
Pero luego dentro de cada uno, aparte de las propias configuraciones que le podamos dar, esas configuraciones están relacionadas con las posibilidades que da el códec. Por tanto, habrá un formato contenedor que en su interior puede tener muchos tipos de códecs, ¿vale? Otros, ¿vale? Este, por ejemplo, del QuickTime, puedes tener un códec, y ahora incluso vamos a hablar más de esto, un códec de Apple ProRes 444 o también un 422 o incluso uno que es DNxHR, ¿vale? 00:11:05
Y dices, eso lo ponen los códecs y si buscamos aquí, también sale como un formato, ¿vale? Entonces, una cosa es la cápsula, ¿vale? Incluso, fijaos aquí, esto que pone MXF, si me pongo en este Apple ProRes MXF, me pone que es un MXF el contenedor, ¿vale? 00:11:35
Y si me pongo en este DNXHRMXF, también es un MXF. Entonces, la cápsula es un MXF y, por tanto, el formato es un MXF, pero en su interior la codificación puede atender a distintos parámetros. 00:11:53
¿Vale? Dependiendo de quién haya desarrollado este códec, pues le habrá un número de posibilidades y de capacidades y, por ejemplo, hay códecs, pues por ejemplo, si vamos a un QuickTime, ¿no? Hay códecs dentro de este punto MOV, ¿vale? 00:12:09
Que aunque el formato sea un .mov, si yo le doy al 4, 2, 2, ¿vale? Por mucho que busque yo por aquí, ¿vale? No hay forma de meter un canal alfa, ¿vale? Vamos a poder meter el RGB, la información de lo que tienen los píxeles en cada uno de los tres canales, pero fíjate que luego yo si pongo, por ejemplo, un Apple ProRes 4, 4, 4, ¿vale? 00:12:25
Que tiene un cuarto número, ¿vale? Ahora vemos también eso. Yo si bajo y voy a la profundidad de bits, sí que me deja meterle otro canal, los tres del RGB, ¿vale? A 8 bits por canal, es decir, cada canal tiene sus 8 bits de profundidad, ¿vale? Y aparte le podemos meter un alfa. ¿Por qué? Porque a lo mejor tenemos una imagen que está ya recortada, como lo que hacíamos de los PNGs en la tarea 3, con los escudos, por ejemplo, ¿vale? 00:12:49
Que los PNG sí permiten, digamos que ese formato PNG sí permite transparencias, pero el JPG no, ¿no? Por ejemplo, aquí lo que permite el formato es que luego las distintas codificaciones también permitan hacer distintas cosas. 00:13:17
O incluso puede haber algunas que pueden contener diversos estándares incluso de rango dinámico, etc. Pues dependerá un poco de las capacidades que tenga el formato y en su interior el códec. 00:13:34
Por tanto, es un poco enrevesado contestar de forma general, aunque creo que es como lo he dado, en el sentido de decir, ¿cuáles son las diferencias entre formato y códec? 00:13:49
Pues es eso, el formato, digamos, que es el contenedor que da las condiciones para luego los códecs que puede desarrollar. 00:14:00
Pero en ocasiones, como este que os digo aquí de H.264, es que el códec que tiene es H.264 también. 00:14:07
Entonces, contenedor y códec están de la mano. Que ojo, este códec también es lo que os he dicho, se puede encontrar, por ejemplo, el DNX-NHR, que es otro de los que permite variar los códecs. 00:14:13
Este no creo que lo tenga, pero ya os digo que en ciertos momentos os puede aparecer incluso que el códec sea H.264 y guardará un H.264, pero en un contenedor de .do, .mov o .mxf. 00:14:30
Entonces, por aquí un poco la primera parte de la respuesta. Ahora seguimos. No sé si me estoy explicando más o menos. 00:14:42
Sí, sí, todo correcto. 00:14:52
Por eso cuando, por ejemplo, en este listado vemos los distintos códecs que tenemos aquí, cuando nos dice que el códec es, por ejemplo, voy a ir a los de intermediación, ahora paso. 00:14:53
Por ejemplo, este ProRes 444, en la parte de media cápsula, lo que hace es decirme cuáles son los formatos, los contenedores. Esto sería un poco lo relacionado con el formato y esto sería lo relacionado con el códec. 00:15:08
Estos son los... Pero fijaos que aún así, claro, si vemos esta columna, todo se resume casi en .mov y .mxf. Igual está un poco lejos, a ver si así lo veis mejor. Son .mov y .mxf, que esos son los contenedores, las cápsulas. 00:15:24
Pero luego los formatos tienen estos nombres genéricos que en su interior tienen ese códec. Entonces es un poco ir conociendo qué es cada uno. Aquí lo bueno de este listado, por ejemplo, es que tenemos dividido todo, y el otro listado también lo está, en códecs de captación, porque las cámaras cuando están grabando tienen que ir guardando la información informática, al final digital, en su tarjeta de memoria, en su disco duro, etc. 00:15:43
Entonces, tienen que ir usando unos códecs que sirvan para captar todo, o deberían tender a intentar captar la mayor información posible de la realidad, que es mucha, que no son los mismos propósitos que cuando, por ejemplo, estamos trabajando en una máquina que igual lo que queremos ya no es tener todos los colores posibles, sino algo más asumible o más manejable para a medida que vayamos trabajando, pues los ordenadores no mueran de tanto procesamiento que tienen que realizar. 00:16:10
Y luego, por supuesto, ya hay otros códecs de masterización o distribución, entre los que está, por ejemplo, la H2S4, cuya cápsula es el MP4, pero veis que también puede ser el .mov, que están limitados en parte, ya no porque tengan que representar más o menos fidelidad en el resultado, sino porque se tienen que atener a la propia plataforma o al propio elemento de distribuidor. 00:16:38
Si subes un vídeo a YouTube, no puedes subir algo con el tamaño que quieras ni con las especificaciones que quieras. Tiene ciertos límites y para eso existen algunos códecs que están optimizados para ser empleados en ciertas plataformas. 00:17:04
Entonces esta sería un poco la primera parte 00:17:19
Luego la complejidad viene 00:17:24
Porque como en toda guerra tecnológica 00:17:27
Hay muchísimos desarrolladores y fabricantes 00:17:30
Que van desarrollando sus estándares 00:17:33
Y luego que también se van aliando 00:17:35
Con ciertas plataformas de distribución 00:17:38
O con ciertas televisiones 00:17:41
Y al final unas van prevaleciendo sobre otras 00:17:43
Y bueno, pues van haciéndose unas más, digamos, más estándares que otras, ¿no? Aquí, por ejemplo, los códigos de captación cámara claramente están muy vinculadas, la mayoría, ¿vale? Con marcas comerciales. Red, por ejemplo, es una marca de cámaras de cine. Arri es otra. Sony, por supuesto, es otra que os sonará. Estas de aquí también son de Sony. Bueno, de hecho, estoy apuntando a donde no es porque aquí os ponen los fabricantes. 00:17:48
Apple incluso tiene, porque aunque en principio no trabaja, tiene sus cámaras, por ejemplo, tiene muchas en dispositivos móviles, pero incluso los desarrolladores de sistemas operativos también tienen que tener gestores de vídeo y de formas de codificar y de decodificar lo que es la información de imagen y de vídeo. 00:18:12
Entonces veis que todas están aquí desarrollando sus propios códecs. Además, quizá os sirva, esto viene de los apuntes, viene de la palabra codificador, decodificador. 00:18:36
Es el punto en el que se gestiona esa información informática. Esos son números 1 y 0 binarios que contienen al final la información con la que trabajamos. 00:18:54
Entonces, bueno, sí, decidme 00:19:05
Claro, Dani, pero sí, un apunte solo en este momento 00:19:10
También investigando, vi que estos códecs generan una compresión 00:19:13
Y claro, justo ahora que has hablado de lo de códec 00:19:21
Yo sí que evidentemente estudiando he aprendido que es codificación-descodificación 00:19:23
En este proceso de codificación-descodificación se produce una compresión de la imagen 00:19:28
Porque claro, yo que vengo del mundo del audio, yo sé que un archivo WAV es un archivo sin comprimir. Entonces, claro, investigando un poco sobre esto, creo que llegué a entender que todo archivo de vídeo, todo códec de vídeo, está comprimido en cierta parte. 00:19:33
Sí. Mira, os voy a enseñar una imagen. Un segundete. Sí, lo que varía es el tipo de compresión que tiene y también cómo se gestiona la señal que lleva, por ejemplo, en estos códices que estamos hablando aquí de cámara, cómo llega y gestiona la cámara. 00:19:50
Te voy a poner una imagen que tengo aquí, pero sí, hay compresión. Lo que pasa es que hay compresiones que se definen como, y estos son conceptos que se pueden buscar y podemos desarrollar ahora, como lossless, que es como una compresión que intenta, aunque la compresión al final existe en el sentido de que el propio procesamiento de la señal, aunque intente contener absolutamente todo detalle, ya hace una cierta compresión siempre. 00:20:07
Entonces siempre hay una pequeña compresión. Lo que pasa es que están las compresiones que se conocen como lossless, que son compresiones, pero bueno, que esto también existe en informática, que intentan mantener toda la información. 00:20:36
Y no es tanto lo que intentan priorizar, la compresión se suele hacer para reducir el peso de los archivos y que sean más manejables, pero incluso aunque pesara lo que tiene que pesar porque es algo muy grande, los LOSDES lo que intentan es que mantengan absolutamente toda la calidad. 00:20:52
Luego hay otros tipos de compresiones que intentan ser extremadamente eficientes, pero sí que reduciendo un poquito el peso, que son las compresiones que se llaman LOSI, que ahí sí que intentan sacrificar quizá cierta información que muchas veces no es perceptible para el ojo, 00:21:10
pero sí que reducen un poco la calidad realmente a nivel informático, porque tiene menos información, sí que reducen algo el peso. 00:21:31
Por ejemplo, la analogía con el audio es que el WAV, como dice, no tiene compresión, o tiene mínima, porque ya os digo que un simple algoritmo que está gestionando esta información hace cierta compresión siempre, 00:21:43
Pero el MP3, por ejemplo, aunque evidentemente es un formato que intenta comprimir la información para que se pueda generalizar su uso en cualquier tipo de soporte, al final lo que intenta es hacer una compresión selectiva que lo que comprima más sea lo que el oído humano no percibe. 00:21:57
Y por eso hay distintas, es adaptativa, por eso hay ciertas frecuencias que comprime más que otras. 00:22:18
Digamos que es un poco eso. 00:22:24
Los formatos que tienen poca compresión, que intentan no tenerla, son estas loss y lossless. 00:22:25
Pero compresión tienen todas. 00:22:30
Lo único que sí, y esto es importante, es que cuando captamos un vídeo o una fotografía, 00:22:32
está lo que se llama el concepto de la imagen en RAW, en crudo. 00:22:37
Y espera un segundo porque busco esta imagen. 00:22:41
Mientras lo busco, si quieres, digo que no sé si he complementado eso que habías leído o sigues teniendo dudas, pero eso, te voy a enseñar ahora una imagen. 00:22:43
Sí, sí, o sea que del propio proceso de la señal de analógica digital entiendo que ya genera cierta compresión, aunque evidentemente no la notemos. 00:22:54
Claro, cuando la compresión es simplemente, voy transcribiendo la señal, la onda del sistema analógico, que sea onda de sonido o ondas electro-luminosas, al final lo que hace intentar es traducirlo todo. 00:23:03
Pero si ya de primera descarta, y ahí hay cierta compresión en la información a la que va escribiendo, digamos que ya se van también a veces rechazando datos. 00:23:22
Pero si, a ver, espera que abro la imagen, si digamos que la compresión ya intenta reducir el número de archivos, digamos, de dígitos que tiene informáticos binarios que tiene esa imagen, ya hay estación de la compresión. 00:23:33
Entonces sí, si es selectiva, pues no se notará. Sí que se puede notar y a veces es lo importante entender que aunque para el ojo humano sea muy, muy válida la imagen y la comprensión la haga muy bien, se entiende que si se van a hacer procesos de postproducción profesionales o muy avanzados, contar con toda la información, aunque incluso luego ni se emplee, es preferible a desecharla, a comprimirla, 00:23:50
porque cuando vamos variando los valores o se va haciendo, por ejemplo, una corrección de color, 00:24:15
al ir virando los colores, en este caso la información de crominancia, 00:24:21
cuanta más información tengas intermedia, más posibilidades tienes de ir variando el color, 00:24:26
en este caso, en este ejemplo, sin que se afecten los artefactos. 00:24:31
Por ejemplo, por poner la analogía con el audio, la frecuencia de muestreo típica es 48 kHz 00:24:35
y a nivel teórico el oído humano lo va a escuchar ya todo, porque a partir de los 20 kHz ya no escucha nada. 00:24:43
Entonces por el Nyquist se capta todo, ya está ahí recogido los 48 y los 4400 también kHz. 00:24:53
Pero existen, por ejemplo, frecuencias de muestreo como el 96 kHz, 00:25:00
que aparte de que para 00:25:05
audiófilos 00:25:07
gente que tiene equipos 00:25:10
extremadamente buenos 00:25:11
y bueno que sí que hay frecuencias que incluso 00:25:12
también se pueden sentir con el cuerpo 00:25:15
etcétera, sobre todo es porque a nivel 00:25:17
luego de postproducción pues si metes 00:25:19
por ejemplo un 00:25:21
pues si ralentizamos 00:25:23
¿vale? o hacemos una 00:25:25
conversión que ralentice digamos 00:25:27
la velocidad del pitch ¿no? la velocidad de 00:25:29
reproducción del audio, al final 00:25:31
tener más 00:25:33
sampleo, lo que hace es que 00:25:34
aunque lo estires, claro, el sampleo, la subida 00:25:37
y bajada de la amplitud, al extenderla 00:25:38
pues sí que guarda más 00:25:41
información y se degrada menos, ¿no? 00:25:42
O tiene más posibilidades. Pues digamos que aquí 00:25:44
pasa un poco lo mismo a nivel de 00:25:46
información. 00:25:48
¿Vale? Pero ya incluso 00:25:51
que esto 00:25:53
se adelantó como el año 00:25:54
pasado, ¿vale? Y se ven otras asignaturas 00:25:56
pero entiendo que sabéis lo que es 00:25:58
la matriz de Bayer, ¿vale? Esto 00:26:00
Entiendo que sí que sabemos lo que es 00:26:02
Si no, decidme 00:26:05
Porfa 00:26:06
No, yo no, Dani, pero si te he visto el año pasado 00:26:08
No, bueno, sí que se vio 00:26:11
Pero es de esas cosas que 00:26:13
Como es un poco técnica se vio y probablemente 00:26:14
La gente no lo recuerde mucho 00:26:17
Pero básicamente, los sensores de la cámara 00:26:18
¿Vale? De una cámara de vídeo 00:26:21
Que capta imagen, o de foto 00:26:23
También sería lo mismo, se compone de lo que se llaman 00:26:25
Fotositos, que son distintos cuadraditos 00:26:27
¿Vale? Que hacen lo que se llama una matriz 00:26:29
de Bayer. Y la matriz de Bayer se llama así porque cuando Bayer la desarrollara, entiendo 00:26:31
que fue Bayer, la verdad que creo que es este el motivo, lo que se optó por hacer es que 00:26:36
las cámaras, se entendió que lo que había que hacer era captar por separado las distintas 00:26:46
frecuencias de luz. El ojo humano está compuesto por distintos tipos de células, la retina, 00:26:51
Bueno, los conos y los bastones, que unas captan lo que son la luminosidad y otras las que captan la crominancia. Y estos conos que captan la crominancia, en la teoría tricromática, hay algunas otras, lo que dicen es que todos los colores en nuestro ojo, mejor dicho, casi en nuestro cerebro, se procesan en parte a la estimulación de tres tipos de conos que tenemos, que cada uno es sensible al rojo, al verde y al azul. 00:26:59
Bueno, lo que sí que pasa es que la proporción de conos que son sensibles a uno a otro no tiene por qué ser equilibrado, ¿vale? Y además, digamos que el color verde, por la evolución humana y también porque es el color que se encuentra en el centro, si vemos frecuencias visibles al ojo, bueno, ¿vale? 00:27:29
Si nos fijamos, si vemos este espectro de la luz visible, ¿vale? El color o los tonos que están en el centro son los verdosos, ¿no? El verde. 00:27:50
Entonces, por cálculos que se hicieran, se optó por que hubiera distintos fotositos sensibles a la luz, que también en algún momento se les puede llamar píxeles, ¿vale? 00:28:00
Y el sensor está compuesto por un conjunto de, digamos, fotositos de cavidades diminutas, ¿vale? Que tienen delante un filtro de un color. 00:28:11
Que puede ser verde, azul y rojo. ¿Por qué? Porque como he dicho, nosotros no es que veamos el color, un morado y nos llega el morado al ojo, sino que lo que está pasando en nuestro ojo es que distintos conos, distintas células sensibles a distintas frecuencias, se estimulan y dependiendo del nivel de cada uno de esos tres tipos de colores, pues nosotros lo percibimos como un color. 00:28:20
Es decir, somos sensibles solo a tres colores en realidad, ¿vale? Y dependiendo de la variación de sensibilidad que perciba nuestro ojo, pues se van interpretando o interpolando distintos colores, ¿vale? Hasta aquí más o menos me sigue entiendo, ¿vale? 00:28:46
Entonces, digamos que este sensor que tenía aquí una imagen, ¿vale? Si lo viéramos microscópicamente está compuesto por una matriz de colorines, ¿vale? ¿Por qué? Porque estos filtros solo dejan pasar la longitud de onda de este color, ¿vale? Cuando tenemos un filtro, bueno, aquí está. 00:29:03
Llega aquí la luz con toda la riqueza espectral de todas las frecuencias que contiene y solo dejará pasar el rojo. Entonces, cuando llega una luz que es muy verde, pues los fotositos que tengan el filtro verde sí se cargarán de energía, los de azul no, ¿vale? O los de rojo tampoco, o tendrán menos. 00:29:20
Y por tanto los píxeles finalmente se traducirán como más verdes, ¿vale? Porque es la, digamos, de la tricromía, pues es la que ahí se está estimulando más, la relativa al verde. ¿Vale? Pero ¿qué es lo que pasa? Y si nos quedamos aquí, que este sensor tiene esta matriz de Bayer, ¿vale? Que la tenía aquí. 00:29:39
Y entonces, a nivel informático, a nivel, bueno, a ver, rechazar la matriz de Bayer, la tenemos aquí, ¿vale? Si este es el sensor de nuestra cámara, al final lo que ha guardado nuestra cámara es un conjunto de píxeles, por decirlo así, ¿vale? De cuadraditos rojos, verdes y azules. 00:29:57
En primera instancia, lo que ve la cámara es esto. Una imagen parecida a esto, que corresponde. Dependiendo de cuánta intensidad, aquí se percibe que es un ojo, pero realmente es un conjunto de píxeles rojos, verdes y azules con más o menos intensidad. 00:30:21
¿no? En Domínica que ha captado. ¿Vale? Entonces, para la cámara, en primer paso, lo que tenemos es esto. Antes de hacer lo que se llama la debayerización, ¿vale? 00:30:42
Que es que esta matriz debayer se interpreta para que cada píxel coja el color, digamos, interpolado de lo que tenemos aquí. Al final esto es una especie de buscamina, ¿no? 00:30:54
Que si recordáis, si dábamos clic a uno nos decía cuántas de las casillas de alrededor tiene una mina. 00:31:03
Pues aquí es igual. Cuando vaya a hacer el siguiente proceso de aplicar esa interpolación de colores y convertirla en una imagen que se parece a lo que nosotros percibimos, 00:31:08
lo que está haciendo es interpolar cada casillita, cada fotosito, cada píxel con la información que tiene alrededor y así obtiene. 00:31:20
Ah, pues esto es un, yo qué sé, un verde apagado o un cian o un blanco si está completamente cargado, ¿vale? Que esto es lo que hablábamos el otro día de que cuando veíamos el monitor forma de onda, si los tres, digamos, canales están arriba, lo que están creando es un blanco, ¿vale? 00:31:27
Porque cuando se van sumando los tres colores, por suma aditiva, al final es un blanco. 00:31:45
Entonces, ¿qué es lo que pasa? 00:31:51
Que cuando estamos viendo, y vuelvo al listado que teníamos aquí, las tablas de códex, 00:31:52
hay muchas que hablan sistema de color RGB, ¿vale? 00:31:57
Y vais a ver que siempre están relacionadas las que pone RGB con el muestreo RAW o crudo, ¿vale? 00:32:01
Que ya algo se deja, se entrevé en los apuntes, ¿vale? 00:32:08
El formato RAW es guardar por completo, intentando que no haya comprensión ni iluminación, que a veces la hay, pero intentando que la información que ha llegado al sensor, es decir, parecida a esta, porque ojo, aquí también estamos viendo que esto está coloreado en rojo, en verde y en azul, en relación a los filtros que tiene cada uno de los fotositos del sensor. 00:32:12
Pero realmente la cámara tampoco está percibiendo los colores. Lo que percibe son blancos y negros. Lo que pasa es que el sensor está construido para que todo lo que llegue de esa luz a este cuadradito, este píxel, es rojo. Y si lo interpolas con el resto, pues dará otro tono. 00:32:34
Pero realmente los colores como tal para una cámara no existen. Existen en base a que hay tres canales que se mezclan y se interpretan en conjunto, pero realmente aquí se está cargando de una información relacionada con la intensidad que está llegando, una longitud de onda específica de la luz. 00:32:51
¿Vale? Hasta aquí estamos. Entonces, cuando vemos este tipo, sobre todo en la parte de captación, las cámaras, ¿vale? Y suelen ser las cámaras que pueden gestionar más información porque esto es muy pesado, guardar absolutamente toda la información de un sensor, ¿vale? Por píxel, ¿vale? 00:33:11
Esto es lo que nos permite guardar la información en crudo, por eso lo he errado en la traducción de crudo en inglés, y permite tener separado en los componentes de RGB toda la información antes de mezclarla y de hacer esa interpolación para que nosotros veamos la imagen como queremos. 00:33:29
¿Qué significa eso? Que tenemos exactamente la información que llega al sensor esperando a ser interpretada. ¿Y esto qué es lo que supone? Que nosotros luego podremos trabajar, por ejemplo, en Lumetri de Premiere, como habéis hecho el otro día, con mucha más capacidad de virar los colores. 00:33:47
cuando estuvierais haciendo la tarea 5, por ejemplo, la que estaban los dos chicos haciendo como una flexión, 00:34:05
si virabais un poco los colores, como esa imagen ya estaba codificada en un códec que ya había realizado la interpolación 00:34:16
y lo había convertido en un sistema de color basado en componentes U, ahora hablamos más de esto, 00:34:26
pues de pronto empezaban a aparecer bandings, es decir, como manchas o artefactos, ¿vale? 00:34:34
Como que el color no daba más de sí. ¿Por qué? 00:34:39
Porque digamos que ya está reducido, ya está comprimido, ya está interpretado para ocupar poca información. 00:34:41
Entonces, no hay mucho margen de maniobra. 00:34:46
Hay cierto margen, pero bueno, pues no... 00:34:48
Ya digamos que es como el ejemplo que yo he puesto en otras ocasiones, es como tener... 00:34:52
Igual no es el mejor ejemplo. A ver, bueno, como si vamos a hacer un gazpacho 00:34:57
y tenemos todos los ingredientes antes del gazpacho y es, en Rao, un gazpacho en potencia, 00:35:00
tenemos los tomates, el pan, el pepino, que es muy fácil todavía medir qué metemos de cada cosa, 00:35:06
pero una vez ya lo hemos mezclado y lo hemos hecho gazpacho, ya es casi imposible sacar el pepino, 00:35:12
ya no se puede volver atrás, entonces se le puede echar un poco más de pepino, un poco más de sal, 00:35:16
pero la mezcla está hecha, la maniobra está reducida. 00:35:21
Entonces, digamos que una forma también de trabajar de manera que comprenda lo máximo de información, independientemente ya de la compresión que puede tener, que en ocasiones puede tener ninguna, pero incluso algunos formatos ROSE, luego se puede ver cómo lo guarda, porque son estos formatos que son ROSE, pueden tener algo de codificación. 00:35:24
Y sigue siendo esa matriz de Bayer, digamos, guardada de la información del sensor. Pero bueno, hay ciertas compresiones, ¿vale? Estas compresiones lossy que se pueden considerar aceptables incluso para trabajar luego en postproducción, ¿vale? Como siempre, se supone que si no hay ninguna compresión, pues se completamente guarda todo y la flexibilidad es máxima, ¿vale? Digamos que tenemos todos los ingredientes antes de cocinarlos, ¿vale? 00:35:47
Luego ya una vez, y por eso a medida que vamos bajando y vamos yendo a sistemas que son más de distribución, ¿vale? Veremos que ya esta posibilidad de tenerlo por separado, la información RGB en este sistema tricromático, digamos, análogo al del ojo, ¿vale? Pasa a ser ya lo que son componentes JOOP, que también a veces se puede encontrar como C, bueno, esto creo que es más liar que otra cosa, 00:36:16
pero también CPBR, sistema de color, vamos allá, ¿vale? Bueno, creo que esta página no es la que más nos va a ayudar, pero vamos a, pues mira aquí, por ejemplo, esta es una, es otra, ¿vale? 00:36:43
Ya os dije el otro día que hubo un momento en el que la televisión, cuando empezó a ser televisión, no se basaba en los colores. La televisión y la fotografía eran blanco y negro. 00:37:05
Entonces en ese caso la matriz de Bayer no tenía ningún sentido, era simplemente, bueno para empezar porque no era digital en ese momento, pero aunque fuera digital lo que se captaba era que una película sensible llegara a la luz, la película sensible tradicional, esto me sirve un poco para presentar plata, lo que tenía era lo que se llaman aluros de plata, que eran sales de plata, que es un material reactivo a la luz. 00:37:17
Entonces, pues si le da la luz, si le da mucho, pues se irá oscureciendo y si no le da nada, pues se queda sin reaccionar, ¿no? Vale, esto podríamos profundizar más, pero bueno, es digamos el análogo a lo que estábamos hablando antes del sensor. 00:37:46
Esto lo que suponía en el blanco y negro es que era simplemente o que reaccionaba ante la luz o no 00:38:01
Y según eso era una gama de grises más oscura o más clara 00:38:08
Entonces la televisión y el cine primigenios que eran en blanco y negro 00:38:12
Pues no se preocupaban del RGB, no tenían que tener tres informaciones confluyendo 00:38:17
Con una de luminancia valía 00:38:22
Y el problema estaba en que a diferencia del cine que se desarrolló 00:38:23
Como veis aquí, más capas, digamos que cada una era sensible a un espectro de la luz, digamos que había una capa que era sensible al azul, otra al verde, otra al rojo, y luego cuando se combinaban las tres capas, al proyectarla por la luz se harían los colores. 00:38:28
En la televisión no existía el fotograma, lo que se distribuía era una señal de voltajes que luego se modulaba para enviarlo a través del aire en ondas hercianas, etc. 00:38:44
Pero al final lo que le llevaba la televisión eran ondas eléctricas, eran voltajes. No era algo físico con las tres diferencias de color. 00:38:58
Entonces, cuando esa señal que eran voltajes que solo representaban, oye, que cada luz, digamos, del televisor, cada, no luz, cada, a ver, cada, no, cada célula, no, ¿cómo se llamaba? Es que ahora no me va a salir la palabra, pero igual que en un monitor actualmente son un montón de píxeles pequeñitos o de LEDs, ¿vale? O de cristal líquido en las LCD. 00:39:10
En esa época lo que había era como bombillitas 00:39:35
Entonces según cuánto tuviera que encenderse cada bombillita 00:39:38
Pues el blanco y negro de cada punto de la pantalla 00:39:43
Pues se veía y creaba esa imagen en blanco y negro 00:39:45
¿Qué pasa? Que cuando de pronto se mete el color 00:39:49
Dijeron, vaya, ¿y qué hacemos? 00:39:51
Porque transmitir las tres señales de RGB 00:39:54
Por un lado da el problema de que no va a ser retrocompatible 00:39:56
Con las televisiones en blanco y negro 00:40:00
Y con las señales en blanco y negro 00:40:02
En ese momento que hubo de transición 00:40:03
que fue largo, pero tenemos que meter el color de alguna forma. 00:40:04
Entonces lo que hicieron fue meter la información de color, pero en relación a la luminancia, 00:40:09
para que si no había información de color, la Y, que es de luminancia, 00:40:15
pudiera seguir mostrando la televisión en blanco y negro, y lo que es el color, 00:40:20
esta imagen se desglosaba, se digregaba en esta imagen en blanco y negro, tradicional, 00:40:27
este y que tenemos aquí y luego había dos señales que se llaman de diferencia de color que veis que 00:40:31
además no tienen como mucho sentido digo que no no es ni rojo ni nada ni verde exactamente sino 00:40:37
que son dos señales que se mueven entre dos coordenadas vale que se puede llamar q e y en 00:40:44
ciertos momentos también uv también yo o incluso eso ya en señales digitales que han seguido 00:40:50
trabajando porque claro todo ha ido evolucionando en base a este sistema sobre todo en todo lo que 00:40:57
que es informático y televisión, porque han ido heredando esta forma de transmitir la señal, 00:41:01
que además era más eficiente a nivel de ancho de banda, porque, digamos, que podían, ahora la vamos a ver, 00:41:07
podían, digamos, a partir de la señal de iluminación, como ya dará tanta información del color que tenía que darse, 00:41:13
porque digamos que se combinaban las tres señales, que estas dos señales de crominancia se podía recoger o transmitir menos información. 00:41:21
No es como RGB que recogía, lo que os acabo de decir, por ejemplo, en el RAW, toda la información píxel a píxel, 00:41:31
sino que se podían comprimir algunos de los canales de este JOOV, ¿vale? 00:41:36
Para que la señal, incluso con menos información, ocupara menos ancho de banda y se pudiera transmitir con más facilidad, ¿no? 00:41:40
Cuando había restricciones de eso. 00:41:49
Entonces, ¿más o menos me vais siguiendo? 00:41:51
Sí, sí. 00:41:57
Vale, cuando ya digamos que se procesa la imagen a nivel informático, es cuando se habla de esas señales U, o por componentes U, a ver, aquí, ¿vale? Digamos que ya, que por supuesto también hay cámaras, ¿vale? Y cámaras que no son de alta gama lo que hacen es, evidentemente el proceso de llegar al sensor, ¿vale? Y con la matriz Bayer está en todos, pero claro, lo que hacen es inmediatamente la interpretan ya para que ocupe menos espacio, ¿vale? 00:41:57
En estos componentes Juve. Digamos, cuando hablo de componentes Juve, hablo de que ya es la imagen con los colores interpolados para que se vean como el ojo humano. Entonces ya está, digamos, con unas compresiones más fuertes porque pretenden retener menos información. 00:42:26
Y aparte, y aquí ya me sirve para hablar de esta columna que tenemos aquí, es que igual que hemos dicho que esta de RAW lo que hace es mantener absolutamente toda la información del sensor, existe, y tenía otra imagen por aquí, lo que se llama, y esto se vio el año pasado, en ese módulo que dije, pero si no lo hablo, que es el submuestreo de color o submuestreo de crominancia. 00:42:43
esto a medida que va avanzando la tecnología 00:43:04
pues será más innecesario 00:43:07
igual que cuando os hablé en su momento 00:43:09
hablamos de el entrelazado 00:43:11
y el progresivo, que el entrelazado ya 00:43:13
se está quedando 00:43:15
obsoleto, porque 00:43:17
digamos que la tecnología que tenemos 00:43:18
puede pintar 00:43:21
o enviar o reproducir 00:43:23
o hay anchos de banda que permiten que la imagen vaya 00:43:25
a cuadro completo y no se tenga 00:43:27
que hacer ese truquito que hacíamos 00:43:29
se hacen la mitad de las líneas primero y luego la otra mitad 00:43:30
Y así de forma intermitente, ¿no? Pues aquí pasaba lo mismo. Si nos fijamos, cada, digamos, píxel de la imagen o de la señal de vídeo, etc., aquí lo vemos compuesto por tres señales. No voy a decir canales, voy a decir señales, ¿vale? 00:43:33
Igual que en el RGB decimos que es rojo, verde y azul 00:43:49
Y según la cantidad de información que tenga cada uno 00:43:52
Pues será un color u otro, ¿vale? 00:43:56
Cuando digo un color u otro también puede ser 00:43:57
Que sea más brillante o menos brillante 00:43:59
O más blanco o menos blanco 00:44:01
Porque os recuerdo que en los sistemas RGB 00:44:02
Al final, si los tres colores están apagados es un negro 00:44:05
Y si los tres colores están RGB encendidos simultáneamente 00:44:09
A un 50% dará un gris intermedio, ¿vale? 00:44:14
Que esto es importante ver 00:44:16
Y ahora lo vemos también en el propio Premiere. Y si los tres están completamente brillantes, dan un blanco. Que hay que pensar en cada píxel como ese conjunto de tres canales. 00:44:18
Aquí lo que se ha hecho es, este cuadradito gris sería la señal de luminancia, luego sería la diferencia de rojo y la diferencia de azul, se llamaría. 00:44:30
que lo que hace es que cuando se combina en relación a la luminancia da los colores, solo con dos señales de luminancia en sí, todo en relación a la luminancia. 00:44:40
Entonces, es posible transmitir la información con absolutamente toda la información o existen formatos, ya heredados también en la era digital, como vamos a ver ahora, 00:44:51
que para reducir, por ejemplo, a la mitad del tamaño de las dos señales que no son la de luminancia, 00:45:03
y estos números lo que dicen es la compresión que tendrán esas tres señales. 00:45:10
Si decimos que se llaman señales compuestas yub, siguiendo ese orden de las letras que tenemos, 00:45:15
la Y teniendo en cuenta que es la luminancia, la U la diferencia de color rojo y la V azul, 00:45:22
O volviendo a este esquema que teníamos aquí, aquí lo hace con IQ, pero si vemos, si lo buscamos por aquí, pues va a haber, bueno, es que en realidad todas beben de esta, ¿no? 00:45:29
A ver si hay alguna que lo nombre como yuf. Si os fijáis, este R-I se refiere a la V y este B-I es a la I. Por eso a veces también lo veréis como R, R-I, B-I, porque el R es el rojo, el B es el azul y es B-I, que es la luminancia. 00:45:50
Y con esa descomposición, luego si se suma, ya se obtiene el color. Incluso estos son el eje de coordenadas que tendríamos de las dos señales de crominancia. 00:46:12
Entonces, si volvemos a esta imagen que tengo aquí, lo que se puede hacer es ir reduciendo información de cada uno de los píxeles para que también se interpolen entre ellos. 00:46:24
Digamos que la luminancia se considera como básica, porque en este sistema Juke todo reside en que en base a la luminancia, si sumamos otros dos ingredientes a esta señal de luminancia de blancos y negros original, de escala de grises de la televisión en blanco y negro, por tener el ejemplo en la cabeza, si le sumamos esto podemos obtener los colores. 00:46:32
Pero no es necesario tener esa información de diferencia de luminancia en cada píxel, en cada cuadrado, en cada bombillita. Se puede ir reduciendo. Incluso, fijaos, 4, 2, 2 es que todos los píxeles tienen esa señal de luminancia y luego cada dos hay una de diferencia de rojo y otra de diferencia de azul. 00:46:53
O incluso hay algunos, como el 411, que lo va haciendo por filas, ¿vale? Y vais viendo la distribución. Esto lo que hace es que, claro, el archivo resultante pese bastante menos, porque tiene que guardar bastante menos información, que supone que, como os he dicho antes, a medida que vamos eliminando información, a lo mejor para el destino final sí que vale, porque ya está el vídeo hecho y lo único que hay que hacer es verse y que se vea en las especificaciones de la plataforma o distribución que tengamos. 00:47:19
Pero si vamos a hacer labores de postproducción, a medida que vamos desechando información, pues tenemos menos posibilidades. Por eso, cuando estamos en Premiere, por ejemplo, uno de los formatos, por ejemplo el QuickTime, aunque en otros también va a aparecer, pero QuickTime es uno de los que más claro se va a ver. 00:47:45
Hay formatos, ahí va, perdón, QuickTime, que dentro de sus códecs tienen estos números, que pone 422, ¿vale? Y esto se refiere a su descomposición en las señales, ¿vale? Y vuelvo un momento al esquema. 00:48:04
Perdona que vaya saltando de un lado a otro, pero, bueno, digamos que estoy intentando hilar varias cosas, dudas que tenga y me decís. Fijaos que los ProRes, ¿vale? Los formatos, los códecs, fijaos que a veces lo digo de manera indistinta, ¿vale? Sería lo correcto, serían los códecs, ¿no? 00:48:20
dentro del formato QuickTime los ProRes 00:48:38
los Codecs ProRes 00:48:41
hay algunos que guardan en 00:48:44
RAW y otros que no guardan 00:48:45
en RAW, que ya están en los componentes 00:48:47
y aquí va poniendo 00:48:49
que los que son RAW no hacen este submuestro 00:48:51
porque guardan toda la información y de hecho es que 00:48:53
no tiene sentido porque RGB guarda 00:48:55
señal roja, verde y azul 00:48:58
en Hue, Luminancia y dos señales 00:49:00
de diferencia que digamos 00:49:02
que descomponen para recuperar los colores, hemos dicho 00:49:03
si vamos viendo 00:49:06
Esto, según la calidad que tengamos, fijaos que el 4.4.4 y el 4 último es una pista de que hay otro canal más, que se refiere a un canal de alfa, que también puede guardar información. 00:49:07
Lo que va a hacer es que a medida que vamos subiendo vais a ver que el peso del archivo va subiendo. 00:49:19
Fijaos que el proxy tiene su muestra de grominancia de 4.2.2, porque no está destinado, está destinado a ser proxy, es de baja calidad. 00:49:25
Pues el peso es mucho menor que, por ejemplo, el 4-4-4-4, ¿vale? Que pesa pues como, no sé, no sé sacar la proporción, pero como 10, bueno, como 7 veces más, ¿vale? 00:49:34
Entonces fijaos eso, que esto sirve para también ir discriminando que cuando vayamos a seguir trabajando en postproducción y estamos haciendo un vídeo, 00:49:49
Por ejemplo, hemos montado un vídeo de un Chroma 00:49:57
Que tiene un Chroma y todavía no se ha extraído el Chroma 00:50:00
Si se lo vamos a pasar a un compañero 00:50:03
Y tenemos que codificarlo de nuevo 00:50:05
Y no partir del original por algún motivo 00:50:07
Pues lo suyo es meterle la máxima información posible 00:50:10
Y en este caso, por ejemplo 00:50:14
Dentro de la familia Apple ProRes 00:50:16
Tenemos los distintos niveles de calidades 00:50:18
Con sus distintos pesos 00:50:21
Y además, este que tiene el cuarto valor 00:50:22
Significa que aparte de los canales 00:50:24
también podemos incluir este alfa, ¿vale? Porque un canal alfa, me salgo un segundo del tema, no deja de ser, bueno, lo he escrito, un canal alfa no deja de ser una imagen en blancos y negros, ¿vale? 00:50:26
Que va diciendo, esto ya lo hemos visto, qué parte es opaca y qué parte es sólida y qué parte es traslúcida, ¿vale? Entonces es otro canal de información de blancos y negros, 00:50:41
Porque nuevamente, cada uno de esos canales es blancos y negros. Lo que pasa es que ya los sistemas informáticos saben que el primer valor es el de rojo, el segundo el de verde y el tercero el de azul, ¿vale? Pero siempre es blancos y negros. Sí, alguien me quería preguntar algo, perdona. 00:50:51
Sí, yo Dani, mira, me surge una duda 00:51:06
cuando estás hablando de los 00:51:09
4.2.2 y 4.4.4 y demás 00:51:10
mi pregunta es 00:51:12
claro, porque yo sé 00:51:16
viniendo del mundo del audio 00:51:17
por ejemplo, te pongo el ejemplo 00:51:18
en el mundo del audio yo sé que por ejemplo 00:51:20
mi pregunta va sobre el tema 00:51:22
de tú puedes pasar 00:51:25
de un 4.2.2 a un 4.4.4 00:51:25
es decir, hay alguna manera de hacer un retorno 00:51:28
hacia atrás, es decir 00:51:30
si tú grabas un archivo en un 4.4.4 00:51:31
Lo bajas de resolución 00:51:34
Para trabajar en postproducción 00:51:38
No, no se puede 00:51:39
Imagínate 00:51:39
Entiendo que es como en el audio 00:51:40
Por ejemplo, yo sé que en el audio 00:51:43
Si comprimo un archivo a un mp3 00:51:45
No lo puedo volver a convertir a un WAV 00:51:47
Es decir, es una manera de compresión destructiva 00:51:49
Efectivamente, eso es 00:51:52
En el vídeo es igual, ¿no? 00:51:53
Eso es, sí 00:51:55
A ver, hay una cosa que has dicho 00:51:56
Que entiendo lo que quieres decir 00:51:59
Pero por poder, tú sí puedes volver 00:52:01
a algo más grande. Lo que pasa es que se va a llenar 00:52:03
de información vacía. ¿Sabes lo que te quiero decir? 00:52:05
Claro, sí. De información inútil. 00:52:07
Sí, yo sé que 00:52:09
por pura informática 00:52:10
yo sé que puedo volver atrás. 00:52:13
Pero no tiene ningún sentido porque el archivo 00:52:15
te va a ocupar más sin información. 00:52:17
Eso es. Y al final es un poco lo mismo también 00:52:19
que con las propias resoluciones. 00:52:21
Si tenemos un Full HD y lo subimos 00:52:24
a un 4K, 00:52:25
sí, el 4K incluso se va a interpolar 00:52:26
y va a intentarlo. Incluso hay algoritmos 00:52:29
Y bueno, tú cuando te metes en Premiere, tú si haces más grande la imagen, pues se va viendo más grande. Es decir, si yo esta la meto ahora en un 4K, se ve qué es lo que pasa. Que claro, tiene que duplicar ciertos píxeles porque tiene que llenar la información. Ahí es cuando empiezan a aparecer los pixelados. 00:52:31
sí que hay a veces algoritmos o hay procedimientos que hacen simulaciones o hacen digamos rellenados 00:52:50
de esa interpolación para que los nuevos píxeles sean como mezclas intermedias a veces si se pueden 00:52:56
hacer ciertas cosas entonces no te puedo decir que nunca se puede volver lo que sí te puedo decir es 00:53:02
que no es la información original es una información que a lo mejor se ha recreado vale 00:53:07
pues eso 00:53:12
Claro, pero respecto a toda la metadata 00:53:15
¿es destructivo? O sea, si tú bajas 00:53:16
la información 00:53:19
Es destructivo. Luego ya es 00:53:21
pues confiar un poco 00:53:24
en los propios softwares que tenemos 00:53:26
pues que a veces pueden ampliar 00:53:28
las posibilidades, pero sí 00:53:30
la respuesta es que no se puede volver, y si se vuelve 00:53:31
es eso, a base de procesos 00:53:34
de recreación o procesos de 00:53:36
con inteligencia artificial también pasará 00:53:38
pues que intenta recuperar la información 00:53:40
pero sí, es un proceso destructivo 00:53:41
Es decir, tú has perdido esa información. Que luego la puedes recuperar recreando con procesos de refinado, no sé. Se puede, pero no. Es como lo que tú has descrito del MP3, exacto. ¿Qué tal hasta aquí? ¿Me vais siguiendo? ¿Alguna duda más? ¿Así por el camino? Vale. 00:53:43
Luego, sigo 00:54:07
La profundidad de bits, esto que hablamos de 8 bits 00:54:09
Y esto es importante una cosa, primera 00:54:12
Que es que cuando se habla de 8 bits 00:54:14
O de 10 bits, o de 12 bits 00:54:16
Se habla de bits por cada canal 00:54:18
¿Vale? 00:54:20
Lo digo nuevamente porque si nos metemos 00:54:22
En Premiere, y vamos aquí 00:54:24
Al ámbito de Lumetri 00:54:26
Y ponemos en 8 bits, ¿vale? 00:54:27
Ojo, que a veces 00:54:30
Puede haber ciertos márgenes, ¿vale? 00:54:31
Para ver si se sale la señal o no 00:54:34
Pero la señal llega hasta el 100 00:54:35
entre el 0 y el 100 es donde se mueve la señal, ¿verdad? 00:54:37
Si vemos una señal de 8 bits, el valor máximo que da es 255, ¿no? 00:54:40
Porque puede dar 256. 00:54:46
Pero ojo, eso se refiere a cada canal. 00:54:48
Realmente, y de hecho, mira, cuando antes daba a exportar, 00:54:50
lo que ponía aquí es 8 bits por canal, ¿vale? 00:54:53
Como tenemos 3 canales en un RGB, en realidad son 24 bits, 00:54:55
que también lo podéis encontrar como una señal de 24 bits. 00:54:59
Lo que pasa es que ahí está sumando lo de las 3 señales. 00:55:02
Pero por convención, se habla que cada señal, cada canal, puede tener una profundidad de bits. Eso es lo primero que quería aclarar. ¿Para qué sirve la profundidad de bits? Voy a poneros un ejemplo que tengo aquí. 00:55:04
Si no me equivoco... Vale, aquí. Básicamente, a medida que vamos aumentando la calidad y el detalle de nuestras imágenes, tenemos que ir subiendo el número de bits, de posibilidades que podemos escribir a nivel informático. 00:55:19
¿Por qué? Normalmente los monitores que hemos tenido hasta ahora, de toda la vida, 00:55:37
se trabajaban en 8 bits y se estaba tan tranquilamente. 00:55:42
Y bueno, podía aparecer algún procedimiento de banding, que es esto que a veces podemos ver, 00:55:45
como que aparecen como artefactos, como que junta varios colores. 00:55:49
Esto pasa a veces si grabamos un cielo, por ejemplo, que hay muchos azules degradados poco a poco de un azul a otro, 00:55:53
y como que faltan detalles en el medio, porque no tiene la capacidad de recrear todo ese número de colores. 00:55:58
Lo que pasa es que el otro día hablamos de que a medida que la tecnología va avanzando, el número de colores y de viveza, de saturación que tenemos, así como el rango dinámico, van creciendo, ¿vale? Entonces, lo que pasa es que esto es a costa de que tenemos sistemas de trabajo audiovisual y de representación a través de monitores, televisores, etcétera, que pueden recrear muchos más niveles de brillo, ¿vale? Y muchos más niveles, muchos más colores, ¿no? En esencia. 00:56:04
¿Qué pasa? Que si vamos metiendo muchos colores y cada vez más, mayor capacidad de colores, pero el monitor que tenemos o la señal que lo transmite no permite ir muestrando el número de colores que hay en medio. 00:56:31
A ver, ¿dónde está esta imagen que tenía yo aquí abierta? A ver, un segundo, aquí, ¿vale? Pues sí, están los colores, pero faltan gradación. Al final lo que hacen los bits es que cada color, cada píxel se representa, o lo que sea, en realidad una profundidad de bits se puede destinar a cualquier elemento, pero significa que son más números, más números de información que puede tener una información, ¿no? 00:56:45
Entonces hay más valores intermedios entre los que moverse. Por eso cuando en los ámbitos de Lumetri nos metemos aquí y lo ponemos como una señal de 10 bits, realmente la señal es la misma, fijaos, ¿vale? Y aquí, muevo un poco, es lo mismo, ¿vale? O más o menos, puede cambiar un poco, pero si yo cambio de... es que tengo que ir un píxel para atrás y para adelante. 00:57:12
Lo que vais a ver que cambia sobre todo es la escala, ¿vale? Porque aquí lo que estamos variando es el número de puntos intermedios que pueden representar esa gradación para que, por ejemplo, no aparezca ese banding, ¿no? Si os fijáis ahora mismo con 8 bits, el máximo son 255, no sé si lo veis, que igual se ve muy pequeño. 00:57:33
Si lo pongo a 10 bits, la representación es la misma y el blanco y el negro son los mismos, pero hay como cuatro veces más números intermedios para gestionar estos valores intermedios. 00:57:51
Un poco como lo que acaba de decir el compañero, a medida que tenemos más valores intermedios o aunque hagamos gestiones destructivas, si tenemos más valores intermedios podemos afinar más también a nivel de postproducción. 00:58:03
Y ojo, esto no sirve para la captación, sino que mientras trabajamos, cuando vamos generando colores o degradados nosotros o hacemos correcciones de color, al ir subiendo el número de bits que están también relacionados con los formatos o con los códecs, si vamos viendo aquí en la tabla, pues también podemos ver la cuantificación, que es el procedimiento de ir asignando distintos valores de bits a la señal. 00:58:22
lo que significa cuantificación, pues pueden tener 00:58:46
según el formato y vais a ver 00:58:49
otra vez que a medida que vamos bajando 00:58:51
la cadena de distribución hasta ya la entrega 00:58:52
en teoría va bajando 00:58:55
es verdad que hay algunos que sí que tienen 00:58:56
mucha profundidad de bits 00:58:58
pues aquí iremos viendo 00:59:00
cuáles son las 00:59:02
profundidades de bits que tienen 00:59:04
hasta ahora todo se ha ido trabajando 00:59:06
normalmente con 8 bits 00:59:08
en lo que se llama SDR 00:59:10
que es Standard 00:59:12
Dynamic Range 00:59:13
No sé si os suenan los sistemas SDR y HDR, ya digo de haber comprado algún monitor, pero la tendencia que se está haciendo es que cada vez se van a tener monitores que son capaces de reproducir más brillo, tener mucho más brillo y aparte que los negros sean más apagados. 00:59:16
Hasta ahora, digamos que las bombillitas o los LEDs, aunque viéramos un negro en la pantalla, aunque yo ponga aquí un negro, este negro, por la construcción que tenían, nuevamente una limitación tecnológica, no llegan a ser negros del todo, no se apagan del todo. 00:59:38
Pero bueno, poco a poco se están desarrollando tecnologías que permiten, la OLED por ejemplo es una de las más famosas, que lo que permite es que los píxeles que no se usen, que estén en blanco puro, pues directamente se apaguen. 00:59:52
Entonces, digamos que el contraste, la distancia que hay entre el negro más negro que se puede ver en una pantalla y el blanco más blanco que se puede ver en una pantalla va aumentando. Y a medida que va aumentando, os vuelvo a recordar que el color al final se basa en la cantidad de brillo que va teniendo cada uno de los píxeles de cada canal. 01:00:03
Si vamos aumentando ese rango dinámico, tiene que ir acompañado o debería ir acompañado nuevamente de este aumento de colores. Todo va un poco de la mano. Por eso, cuando ya llegamos a la ultra alta definición, con esta norma 2020, que lo que hace es ampliar las resoluciones, también el gamut de los colores que puede representar, también se aumenta el rango dinámico, que es otra norma, que es la 2100. 01:00:24
Bueno, no me voy a meter mucho más en esto porque ya es demasiado avanzado, pero digamos que la tecnología va aumentando para que el blanco más blanco que puede dar una televisión, pero que cada vez es más brillante, además tenga entre los valores más gradación, ¿vale? 01:00:51
¿Vale? Luego, de hecho, estos tres primeros, si nos vamos metiendo aquí, ¿vale? Y es una de las cosas también que tenéis que tener en cuenta cuando vayamos trabajando es que hay incluso sistemas de trabajo, como el flotante, de coma flotante, ¿vale? Que lo que hace es que ni siquiera, que tiene valores teóricos a nivel informático absolutos, ¿vale? Por eso va del 0 al 1 con estos decimales, pero no te da un valor de 255, 247 o 1000, como aquí, por ejemplo, en el 10 bits, ¿vale? 01:01:06
Sino que a nivel informático, claro, cuando generamos colores artificiales al ir corrigiendo la señal, ¿vale? Cuando empezamos a variar los colores, digamos que informáticamente se pueden generar otros colores, ¿vale? Que no están captados en la señal. 01:01:35
Entonces, a nivel informático incluso se puede trabajar con valores que en las cámaras no existen, son inexistentes, son a nivel informático. Y luego está lo que se llama el HDR, que ya os digo, no me voy a meter mucho ahí, que ya es un sistema que lo que hace es ampliar hacia arriba, digamos, la capacidad de luminancia que pueden tener como máximo los píxeles. 01:01:51
Si os fijáis, el SDR, que son, por ejemplo, los trabajos en profundidad de bits relacionados con estos tres primeros sistemas de profundidad de bits. El máximo es este uno, que son los 100 nits. Suelto más información por si os la queréis apuntar. 01:02:11
Cuando tenemos un monitor y queremos ver cuál es el brillo máximo que puede emitir una pantalla, se mide en nits, es un valor de medida, que es valor de luminosidad emitida, que no es lo mismo que reflejada como en el cine, que es lo que hace reflejar una tela la iluminación. 01:02:28
En pantallas es este nits. Y nit, también por si queréis profundizar, significa candelas, que es otro nivel de emisión de luz por metro cuadrado. Entonces, en los niveles estándar de SDR llegan hasta los 100 nits. 01:02:49
Ese era el máximo, este 1 máximo. Y ya cuando se vaya trabajando, ya sé, cada vez se va trabajando más y son sistemas más complicados y hay que tener unos monitores HDR, que ya se están democratizando bastante, se incluso podrá ampliar la luminancia hasta los 10.000 nits. 01:03:02
No 10.000 nits es mucho, pero hasta los 1.000 nits, por ejemplo, se puede. ¿Qué significa esto? Que a medida que vayamos trabajando, iremos viendo que los equipos de medición pueden ir variando en función de la profundidad de bits o la amplitud máxima de luminosidad que puede emitir nuestra televisión o nuestro monitor. 01:03:22
Esto es un poco para introducir esto. Y que a medida que se vaya trabajando será necesario contar con más profundidad de bits, que cada información que se guarde tenga más unos y ceros, con el consecuente aumento de tamaño del archivo, por ejemplo, que nuevamente también se suple o se supera porque los ordenadores pueden procesar más información. 01:03:43
Entonces, digamos que el avance tecnológico va por ahí. Entonces, ojo, cuando estéis trabajando, en general, a menos que ya estéis trabajando con vídeos con más profundidad de bits, los suyos que la medición la hagáis en 8 bits, por ejemplo, aquí, o en 10 bits también puede ser. 01:04:06
Esto es lo mismo. Cuando vayáis a trabajar, según el formato en el que estáis trabajando, podéis ver en cuál estáis trabajando. Algunos admiten todo hasta el momento de la salida. Si en una cámara habéis grabado algo a 10 bits, pues lo mismo. A nivel teórico, todo lo que vais a poder trabajar como máximo es 10 bits. 01:04:23
Pero ojo, cuando vayáis haciendo variaciones de color, a nivel informático sí que existen esos valores intermedios, ¿vale? Entonces sí que se puede trabajar a 10 bits, pero lo mismo, si no tenéis un monitor HDR, lo lógico es que solo, por ejemplo, los monitores de ordenador normalmente son de 8 bits, a menos que ya tengáis HDR, que ahí va aumentando. 01:04:41
Y lo mismo, aquí tenemos otra indicación relacionada con el gamut 01:05:02
Que el gamut nuevamente es esto que tenemos aquí 01:05:11
De cuántos colores del espectro se pueden reproducir o gestionar en ese sistema 01:05:15
Si estáis trabajando aquí en Premiere, lo suyo es que lo pongáis en automático 01:05:24
Porque lo que va a hacer en automático es coger directamente el que tenga la secuencia. Si nos fijamos en la secuencia de las propiedades, ya va a tener un espacio de color. Si trabajamos para HD, lo estándar hasta ahora, habrá que trabajar en Rec. 709. 01:05:29
Porque el problema, aunque no va a distorsionar mucho, es que si este vectorscopio, y en este caso estamos hablando de color, por eso el que más nos interesa es el vectorscopio, si este vectorscopio lo vemos en un espacio de color mucho más amplio, como el 2100 que ya se refiere a Ultra HD TV, 2020 o que sea 2100 o 2020, vais a ver que aquí se reduce. 01:05:47
Entonces parece que la saturación es menor, pero el color sigue siendo el mismo, solo que dependerá de dónde estamos viendo este color. Mira, en 2020, ¿no? Fijaos que la tendencia hacia donde tende cada uno de los colores es una, pero cuando clico y se refresca parece que la saturación es menor. 01:06:13
Ojo, hay que verlo en función de cómo estamos trabajando el proyecto 01:06:27
Y en este caso lo mismo 01:06:31
Este proyecto lo estamos trabajando en 709 01:06:32
¿Por qué? 01:06:37
Pues esto es donde hay que equilibrar 01:06:38
Lo primero, si este vídeo lo estamos trabajando ya para televisiones para un destino 01:06:40
Que ya admite algo más allá que el REC 709 01:06:46
Que es lo que admite todo, ¿o no? 01:06:49
Y este vídeo, como se ha renderizado 01:06:50
Fijaos que este vídeo ya está renderizado 01:06:52
En un formato de distribución, que es en este mp4.mob, esto sería el formato, el contenedor, con este códec H.264 y un submuestro de 4.2.0. ¿Por qué? Porque cuando exportamos, a lo mejor, un H.264, si yo, por ejemplo, aquí cojo un H.264, ya este formato está pensado para distribución. 01:06:55
no es un formato no lo vais a encontrar en el listado como uno de los formatos de trabajo de 01:07:19
postproducción vale no va a estar ahí va a estar ya en los de masterización o mejor dicho casi más 01:07:24
de emisión o distribución vale el h 264 está ahí y no lo vamos a tocar entonces con que tenga la 01:07:30
información mínima vale aunque lo admite a veces según como lo trabajemos que pueda tener más 01:07:35
información porque muy muy versátil el 4 la distribución básicamente lo que queremos es 01:07:42
que se vea bien y que pese muy poquito vale entonces pues por ejemplo esa si ya estamos 01:07:48
trabajando en un archivo de que de origen es un h 264 con poca información de color que además está 01:07:53
en un espacio de color ya de rex 709 también vale pues no deberíamos ir a un espacio de color 01:08:00
superior vale deberíamos trabajar todo y por eso os digo de ponerlo automático que ya capta lo de 01:08:06
la secuencia en rec 709 porque cuando configuramos las secuencias vale aquí ya viene que lo llamen 01:08:11
vete es lo mismo vete 709 aquí ya vienen configuradas los ajustes del espacio de 01:08:20
color que aquí también lo vamos definiendo vale entonces por defecto rec 709 digamos que es un 01:08:25
poco la lo que tendríamos que tener como estándar si en algún momento hay que trabajar para ultra 01:08:31
HD, pues ahí hay que ir 01:08:39
estudiando un poco las especificaciones e irlas adaptando 01:08:41
teniendo en cuenta que las imágenes 01:08:43
que nos lleguen también deberían ser en 01:08:45
pues eso, en espacios de color 01:08:46
más amplios, ¿vale? 01:08:49
vale 01:08:52
hasta aquí más o menos 01:08:52
sigo tirando, con resolución se refiere 01:08:54
al máximo tamaño que pueda haber 01:08:57
de esto no voy a hablar mucho, pues un 4K 01:08:58
pues serán resoluciones 01:09:00
que veis que no pone 01:09:02
unas medidas concretas, ¿vale? 01:09:05
cuando aquí pone 1080, por ejemplo 01:09:06
HD 1080 se refiere a un Full HD 01:09:08
de 1920 por 1080 01:09:10
en progresivo, por eso la P 01:09:12
y casi todo ya va a ser progresivo, como os he dicho 01:09:14
aunque aquí ya 01:09:17
donde pone esto de I y P 01:09:18
se refiere a que puede estar tanto trabajando 01:09:20
en entrelazado como en progresivo 01:09:22
no sé si os acordáis en esa práctica 01:09:25
que os puse una I ahí metida 01:09:26
pues se refería a eso, ¿por qué? 01:09:28
porque todavía puede haber 01:09:30
material de archivo que está 01:09:32
en entrelazado y bueno 01:09:34
en la fase de postproducción 01:09:35
puede tener sentido, en la grabación ya vais a ver que el entrelazado no existe 01:09:38
antiguamente se hacía, incluso se usaba grabar entrelazado para hacer efectos 01:09:42
de cámara lenta, pero como ya también se puede grabar a más velocidades 01:09:46
de frame rate 01:09:50
pues ni eso hace falta, ya se graba en progresivo 01:09:53
eso, cuando pone 4K o 2K o 8K se refiere a que 01:09:58
el ancho de la imagen tiene 01:10:02
Algo aproximado a este número de puntos 01:10:05
Si pone 4K será un formato 01:10:08
Que es un 4000 algo 01:10:10
Por otro valor relacionado 01:10:12
¿Vale? De hecho es importante 01:10:14
Cuando vemos el tema 01:10:16
El principio ¿Vale? Fijaos que 01:10:20
En cine, en los DCPs 01:10:24
Solo hay 6 resoluciones estándares 01:10:26
Que se pueden usar ¿Vale? 01:10:28
Fijaos que cuando dice 4K pues eso 01:10:29
La anchura es siempre alrededor de los 4000 01:10:31
Si es 2K es alrededor de los 2000. Digo que aunque a veces no sepáis exactamente las medidas, es importante que sepáis qué quiere decir esto de 4K y cómo interpretarlo, ¿vale? Ya lo que es la altura dependerá de que sea 2K y también del aspect ratio, por ejemplo, ¿vale? Cuanto más ancho sea, pero menos alto, pues más panorámico, ¿no? Más horizontal va a ser la imagen. 01:10:34
si, me vais siguiendo 01:10:56
si tenéis dudas de algo 01:10:58
me vais diciendo, porfa 01:11:00
luego, lo mismo 01:11:01
vais a ver que en los códex de captación 01:11:04
todos son un píxel 01:11:06
aspect ratio de square pixel 01:11:08
¿vale? de 1.0, es decir 01:11:10
cuadrado, y es que es como 01:11:12
lo de progresivo y entrelazado, ya todo se trabaja 01:11:14
en cuadrado, antiguamente 01:11:16
se usaban los non-square 01:11:18
píxeles o se 01:11:20
anamorfizaban, es decir 01:11:21
cada píxel digamos que hace 01:11:24
el monitor o la imagen se ensanchaban 01:11:26
un poco porque los sensores 01:11:28
por construcción no podían ser más 01:11:30
anchos para grabar imágenes 01:11:32
con ciertas panorámicas 01:11:33
en ciertos formatos clásicos 01:11:36
de los western, el cinemascope 01:11:38
etcétera, entonces se hacían estos 01:11:40
procedimientos de ensanchar un poco la imagen 01:11:42
pero actualmente ya con las 01:11:44
resoluciones que tenemos, esto ya está quedando 01:11:46
obsoleto, sí que se puede usar 01:11:48
para ciertos 01:11:50
procesos de postproducción, pero en principio 01:11:52
¿Vale? Luego, sobre la compresión, bueno, vais a ver que aquí ponen compresión de tipo H2S4, ¿vale? Esos son algoritmos que pueden ser más o menos eficientes y no me voy a meter mucho en, digamos, este primero. 01:11:54
El wavelet es otro tipo de compresión, aún más eficiente y más avanzado para captación sobre todo que el H.264, ¿vale? 01:12:08
Entonces, pues por ejemplo, una compresión H.264 hará las compresiones de una forma menos eficiente que el wavelet, ¿vale? 01:12:18
Para que se os quede ahí un poco el concepto de que wavelet es una tecnología superior, ¿vale? 01:12:26
Pero lo que sí importa a lo mejor es esto de all-E o las que puede que ponga intraframe o las que ponga interframe, ¿vale? 01:12:30
El año pasado también se vio que las imágenes se podían comprimir de dos formas, principalmente, ¿vale? Con la compresión interframe y la compresión intraframe, ¿vale? Cuando se habla de la compresión intraframe se refiere a que cada uno de los cuadrados de la imagen es una compresión que lo que hace, bueno, lo estoy agrandando mucho porque es pequeñita la imagen, ¿vale? Espero que se vea. 01:12:38
Cada una de las imágenes, y podríamos hablar igual en fotografía, pues si por ejemplo tiene un cielo que tiene 8 píxeles pegados del mismo valor de azul, pues para comprimir y que ocupe menos, lo que hace por ejemplo un JPG sería, ¿hay 8 píxeles azules? Pues pongo en lenguaje informático, por supuesto, 8 píxeles azules. 01:13:02
En vez de poner este píxel es de este azul, bla, bla, bla, bla, bla, información. Otro píxel lo que hace es agruparlos y hacer bloques, ¿vale? Para que de forma sí que se pierda información y seguramente si no tuviéramos un ojo humano limitado, pues a nivel informático se vería que se ha degradado la imagen. 01:13:22
Pero bueno, si el ojo humano no lo percibe, pues para algo que es ya para procesos finales de emisión o de verlo, pues da igual, ¿no? Otra vez volvemos al mismo tema. Entonces, ese es el tipo de, que es más pensando casi en fotografía, de compresión, que es la compresión dentro del frame. En cada fotograma ya puede existir una cierta compresión, ¿vale? Pues como se hace en fotografía. 01:13:41
Pero en vídeo, aparte, como está el factor tiempo, que son fotogramas, distintas imágenes que se van reproduciendo durante el tiempo, lo que se puede hacer es una compresión relacionada con, veis que aquí está todo igual este fondo, es todo absolutamente igual porque está estático, menos la pelota que es la que se mueve. 01:14:04
¿Por qué hay que guardar toda la información de cada fotograma? Lo que se hace es que se guarda la información de cada fotograma que se marca como referencia, que se llama E-frame, y lo que se va haciendo es que cada ciertos píxeles se va haciendo un fotograma que se llama P, de Predictive. 01:14:20
se llama, ¿vale? El predictivo, que es una especie de analizando las imágenes que hay entre cada fotograma, se ponen como píxeles, como keyframes, digamos, de referencia, ¿vale? 01:14:43
Para que de ahí luego haya otros intermedios, que son estos de tipo B, que son los bidirectional. Entonces, cada cierto tiempo se va diciendo, vale, si no hay variación en el fondo 01:14:54
o no hay información, todo lo que 01:15:03
se repita pues se coge de este 01:15:07
iframe y lo que se va variando 01:15:10
para ir guardando menos información se va haciendo con esta especie 01:15:13
de cálculos en base a la 01:15:16
diferencia que hay, entonces se van guardando digamos solo los detalles 01:15:19
y como podremos también entender 01:15:22
se va comprimiendo y va ocupando menos la señal en el sentido de que 01:15:24
en cada fotograma no se guarda toda la imagen, solo se guarda en este caso 01:15:28
por ejemplo la pelota mucha menos información que guardar aquí que los dos píxeles son diferentes 01:15:31
los dos son y frames vale entonces cuando vemos en la tabla que habla de all y significa que es 01:15:35
un procedimiento de compresión intra frame porque porque no se hace compresión inter frame sino que 01:15:43
cada compresión se va haciendo fotograma fotograma da igual que a lo largo del tiempo se repitan o no 01:15:50
elementos, todo va a ser 01:15:55
intraframe, all i 01:15:57
es un poco la forma de leerlo 01:15:58
si luego vemos 01:16:01
por ejemplo 01:16:03
ipv, es una 01:16:05
forma de llamarlo a la compresión 01:16:07
interframe, son los píxeles 01:16:09
ipv que os he dicho 01:16:11
entonces está haciendo este procedimiento de comprimir 01:16:13
para que 01:16:15
en cada fotograma vaya guardando menos 01:16:16
información, lo de siempre 01:16:19
en principio 01:16:20
cuanta más información retengamos menos se comprime 01:16:22
y es mejor, pero dependiendo del 01:16:25
oficiente que sea el algoritmo, pues no 01:16:27
no tiene por qué 01:16:29
ser, digamos 01:16:31
destacado para el ojo 01:16:33
humano cuando lo ve. Para procesos de postproducción 01:16:35
sí, y ahora de hecho os doy un par de detalles 01:16:37
más, ¿vale? 01:16:39
Luego, NC por ejemplo es no compression 01:16:41
hay formatos de RAW 01:16:43
que no tienen ninguna compresión porque no es objetivo 01:16:45
hay otros de RAW que tienen cierta 01:16:47
compresión, pero es lossless, aunque 01:16:49
estemos bajando un poco lo que se guarda 01:16:51
digamos que el wavelet, lo que 01:16:53
intenta es, pues eso, guardar 01:16:55
toda la información, entonces es bastante 01:16:57
escasa. Intraframe, pues que 01:16:59
la compresión es, 01:17:01
no es interframe, sino que es 01:17:03
intraframe, que no se hace solo 01:17:05
la de la imagen a imagen. 01:17:07
Sí, alguien ha 01:17:09
levantado la mano, creo. Sí, sí, era yo, 01:17:10
justamente era eso, 01:17:13
en interframe lo que 01:17:15
hace es 01:17:17
coge el iframe, 01:17:18
así como está nativo, no varía 01:17:23
la calidad ni nada, simplemente 01:17:25
el iframe 01:17:27
y en las siguientes lo único que va haciendo es 01:17:28
modificando los píxeles 01:17:31
que no corresponden con 01:17:33
el programa anterior 01:17:35
más que modificando es guardando la información 01:17:37
¿vale? sí, es decir, el iframe 01:17:39
es un frame intraframe, es decir 01:17:41
se hace la compresión que tenga a nivel de 01:17:43
intraframe, ¿vale? de cada fotograma 01:17:45
luego cuando, si ese codec 01:17:47
admite compresión interframe 01:17:49
pues irá haciendo este proceso de 01:17:51
También, nuevamente, interpolación, que esta palabra la uso mucho, pero es esto, hacer la predicción de hacia dónde va y digamos que va haciendo esa, digamos, recreación del movimiento, o mejor dicho, más que recreación es que guarda solo la información que le es útil y el resto pues lo va rellenando frame a frame con los iframes, ¿vale? Sí, es eso. 01:17:53
Vale, entonces, por ejemplo, en un segundo sería un fotograma de iframe y luego los otros 24 de lo que haya guardado, ¿no? 01:18:15
Esto depende porque cuando nos metemos en formatos interframe, como estos que estamos diciendo, por ejemplo, H.264, se me ha puesto otro. 01:18:25
Claro, lo digo porque a lo mejor se puede hacer una escena de A2 o A3 o A4. 01:18:34
Sí, te lo voy a enseñar, dame un segundín. Cuando nosotros tenemos, vamos a, mira, H264, ¿no? Y pone que puede ser interframe, puede ser todo intraframe, puede ser variable, es decir, admite de todo, ¿vale? H264 nuevamente es muy versátil, permite muchas cosas, veis que todo tiene como siempre muchas posibilidades. 01:18:40
Entonces, si vamos, por ejemplo, a exportar algo en esta compresión, se puede hacer al exportar, claro, para que pese más o pese menos. 01:19:01
Hay un concepto que es el del GOP, que es la distancia de píxeles. 01:19:08
A ver, un segundo, si vamos bajando aquí, hay un ajustes avanzados que pone distancias entre fotogramas clave. 01:19:12
Y esto se refiere a los fotogramas clave que son cada cuánto tiempo tiene que hacer, sí o sí, si marcáramos esto, un inframe. 01:19:19
esto es lo que se llama el GOP 01:19:27
el Group of Pictures 01:19:30
de hecho aquí no lo pone 01:19:31
en ningún lado 01:19:34
pero hay un concepto referido a esto 01:19:35
que es el GOP 01:19:38
están saliendo los resultados 01:19:40
pero Group of Pictures 01:19:42
si nos metemos aquí 01:19:44
nosotros podemos decir 01:19:46
limitar a un software que cada ciertos 01:19:48
fotogramas, cada uno de estos es un fotograma 01:19:50
que cada 10 tiene que haber 01:19:52
sí o sí un intraframe para que refresque 01:19:54
digamos la calidad y no sea el algoritmo el que decida cuándo cambia no se puede poner un mínimo 01:19:56
o puede ser variable si no marcamos aquí aquí decimos cada 10 por narices tiene que haber un 01:20:02
frame si no lo ponemos lo irá haciendo de forma selectiva según vaya analizando la información y 01:20:08
si aquí le dijéramos que fuera cada fotograma básicamente le estamos diciendo que sea un all 01:20:14
y que todo sea intra frame entonces la compresión inter frame no la cargaríamos vale entonces sí que 01:20:19
se puede controlar. Si no marcamos 01:20:25
nada y cogemos un formato que admite 01:20:27
compresión interframe, 01:20:29
lo que hará será el 01:20:32
proceso ir haciendo lo que 01:20:32
considera más óptimo. 01:20:35
Por cierto, 01:20:39
me habéis escrito varias cosas y no las he leído. 01:20:40
Perdona. Bueno, 01:20:41
¿te he contestado a la duda? 01:20:43
Sí, sí, sí. 01:20:46
Gracias. Vale. Por cierto, 01:20:48
aquí, esto ya más avanzado, y de hecho 01:20:49
veis que está todo gris, pero esto 01:20:51
de candela, metros cuadrados, de los 01:20:53
nits que os he dicho antes, está relacionado 01:20:55
con el trabajo ya que se podría hacer 01:20:57
con HDR, ¿vale? 01:20:59
Pero eso es un poco más avanzado 01:21:01
Y una pregunta más, ¿y 01:21:03
habría una nomenclatura para ello? 01:21:05
En plan de, vas a hablar con 01:21:07
de editor a editor, pues mira 01:21:09
te voy a pasar un vídeo con Intraframe de 01:21:11
uno cada diez 01:21:13
o algo así, alguna manera de 01:21:15
es como quien dice, tengo una película 01:21:17
de 16 novenos 01:21:19
Sí, a ver, lo que pasa, igual que tú acabas de decir 01:21:21
de 16 novenos, que es una convención 01:21:23
16 novenos, pues porque se usa 01:21:25
y no es 24 séptimos 01:21:27
lo que se habla es, oye, pásame un 01:21:29
ProRes 422 y ya 01:21:31
más o menos 01:21:33
ya viene configurado 01:21:34
cuando tú coges un Codex 422 01:21:37
casi no hay que tocar nada, porque es 01:21:39
digamos como ya está, ya es como el estándar 01:21:41
del 422, ¿no? Pero si alguien 01:21:43
quisiera, sí, quiero un Intraframe 01:21:45
o sí, te diría, lo quiero 01:21:47
un Intraframe, o quiero un GOP 01:21:49
Que también puede ser largo, un long op, que a veces también hay formatos, pues sería que cada cierto tiempo hay que poner un iframe. 01:21:51
Pero yo te lo digo así de tú a tú, yo en todo lo que he trabajado jamás nadie me ha dicho, oye, ponme un iframe cada cinco frames. 01:22:01
Pues no, si te dice un H.264 se entiende que es porque queremos un formato que sea un codec, que sea interframe, 01:22:09
para que pese menos y se pueda gestionar mejor en redes, por ejemplo, o en donde se vaya a emitir. 01:22:16
Que, ojo, también es importante, esto es importante, que cuando se trabaja en intraframe, 01:22:23
hay que tener en cuenta que va a ser más pesado porque no está haciendo el interframe. 01:22:31
Es decir, cuando se dice intraframe es porque se está descartando un poco que es interframe, 01:22:35
si no se diría interframe. 01:22:39
Si en intraframe vamos guardando cada fotograma con la compresión de cada fotograma, 01:22:41
pero toda la información va a pesar más pero es verdad que cuando se trabaja en postproducción 01:22:45
se trabaja en intra frame vale las máquinas lo procesan más rápido porque cuando trabajamos en 01:22:49
inter frame al final la máquina lo que tiene que hacer en todo momento es ir como recreando estos 01:22:56
huecos porque no existe la información de cada frame entonces como consejo si vais a trabajar 01:23:00
en postproducción en un vídeo lo suyo lo suyo es que trabajéis con formatos en intra frame y 01:23:06
Y de hecho, si nos venimos aquí, casi todos van a ser intraframe, si os fijáis, los de intermediación postproducción. 01:23:13
Sin embargo, los de aquí ya pueden ser diferentes, pero fijaos que los intraframe son los que ganan. 01:23:21
Aquí es verdad que puede haber intraframe, si usamos una cámara más doméstica puede haber intraframe, 01:23:29
pero también va a ser normalmente, bueno, puede ser de cualquier tipo, en realidad, según lo configuremos, va a dar las posibilidades. 01:23:36
Pero cuando trabajemos con ordenadores que tienen que ir procesando para reproducir la señal, que no suelo guardarla en un disco duro, sino que es trabajar con ella, veréis que lo normal es trabajar con Intraframe. Cuando se envía algo a internet, pues se sube a YouTube o donde sea, aunque sea Interframe, como YouTube lo va a procesar, porque siempre hace un procesamiento para subirlo a la plataforma, pues un Interframe pesa mucho menos. Entonces ahí suelen ganar esos. 01:23:41
A ver, dudas que veo por ahí 01:24:07
Bueno, alguna duda más, ahora leo las que me habéis puesto en el foro 01:24:11
Más o menos ya está aquí todo dicho 01:24:14
Porque luego ya es hablar de, bueno, soportes 01:24:15
Son las tarjetas, esto sí que es un tema muy largo 01:24:18
Y creo que no me voy a meter 01:24:20
Y en relación un poco con lo que os he ido contando 01:24:22
Vais a ir viendo que la tasa de datos que admite 01:24:25
O lo que va a pesar también, que está un poco relacionado 01:24:28
Pues aumenta o no aumenta 01:24:30
Entonces ha sido una forma un poco rápida 01:24:34
para que sepáis interpretar una tabla como esta, ¿vale? 01:24:37
Una duda, me habéis escrito en el chat. 01:24:42
¿El formato .gif es como H.264? 01:24:45
Vale, cuando, mira, si de hecho... 01:24:49
Bueno, esto se lo han puesto desde hace poco. 01:24:52
Un .gif es un formato y un modo de codificar. 01:24:55
El formato .gif realmente es... 01:25:00
Yo no lo catalogaría tanto de vídeo como de informática. No sé, me explico. El formato GIF es un formato muy reducido de gama de color, que concentra una paleta de color muy reducida para optimizar. 01:25:05
Se pensó hace muchos años para que pesaran poco y admitieran un vídeo con muy poco peso y poder ponerlo en banners y poder ponerlo en internet sin que cuando tuviera que cargar la página, pues se quedara ahí atascado con la carga de una imagen muy pesada, ¿vale? 01:25:20
a nivel profesional no se usa 01:25:35
digo, a nivel de vídeo no se usa 01:25:40
en redes, en whatsapp, en eso, sí, por supuesto 01:25:42
entonces 01:25:45
la pregunta es 01:25:46
¿este contenedor está ligado al formato? Sí, el GIF 01:25:47
está muy restringido 01:25:50
por ejemplo, si nos fijamos aquí 01:25:51
pues vamos a ver, es que 01:25:54
en vídeo, por ejemplo, se hacen con adaptaciones a GIF 01:25:55
realmente es en Photoshop, por ejemplo 01:25:58
donde se puede hacer un GIF viendo todas las opciones 01:26:00
pero 01:26:02
sí es un formato que también se 01:26:03
puede usar para ciertas cosas. 01:26:05
Es decir, tu pregunta no sé por dónde va. 01:26:08
Me has preguntado, ¿este contenedor está ligado al formato? 01:26:09
Es un formato 01:26:12
distinto, .gif. Es decir, 01:26:14
una televisión o un canal 01:26:16
o incluso redes sociales 01:26:17
para contenido audiovisual 01:26:20
no te van a pedir un gif. 01:26:22
Si acaso van a pedir algo de apariencia gif, 01:26:23
que es eso, que tienen paletas de colores 01:26:26
reducidos. 01:26:28
A ver, ¿por qué? 01:26:30
La cosa es, si yo exporto esto, probablemente se vea medianamente bien. 01:26:33
Pero es que no es un formato para audiovisuales realmente, ¿vale? 01:26:40
Voy bajando a ver, ¿todo bien? 01:26:50
HDR, sí, denso, intraframe... 01:26:52
Vale, creo que más o menos he contestado todo. 01:26:54
Ah, vale. 01:26:59
Sí, es un formato, formato GIF, ¿vale? 01:27:02
Y luego ya tiene sus peculiaridades. 01:27:05
Ya os digo, el formato GIF es que de hecho es... aquí vienen opciones porque lo traduce desde lo que estamos trabajando en la línea de tiempo, pero es que es un formato sinformático, aunque admita vídeos, pero no sé, no es un formato de vídeo al uso. 01:27:06
¿Qué tal? ¿Cómo vais hasta aquí? ¿Me vais siguiendo? De hecho ya son las 8. 01:27:24
Sí, sí, todo bien. 01:27:31
Vale. 01:27:33
Yo tenía otra pregunta, Dani, pero bueno, a ver, sigue siendo casi una pregunta muy extensa, lo entiendo, porque... O sea, yo te lo he preguntado más que nada porque a mí me gusta, cuando estudio esto, me gusta conocer bien la base de lo que trabajo, ¿sabes? 01:27:33
Entonces, pues, por eso ha sido un poco la pregunta. Mi otra pregunta que tenía que apuntar también era respecto a las relaciones de aspecto, a los aspect ratios, ¿vale? 01:27:46
Sí. 01:27:56
Cuando estaba estudiando también estos temas me surgían las dudas un poco de cómo funcionan las relaciones de aspecto, porque claro, imagínate que estamos viendo una película o una serie en nuestro ordenador, sé que existen los llamados leather box, es decir, las franjas por arriba y por debajo y los pillar box, izquierda y derecha, ¿vale? 01:27:57
pero claro 01:28:18
mi duda es 01:28:20
¿las relaciones de aspecto 01:28:22
tienen que ver más bien con 01:28:24
la información de la imagen 01:28:27
o más con lo que ocupan en la pantalla? 01:28:28
es decir, por ejemplo 01:28:32
yo tengo un 239 01:28:34
un 239 a 1 que es un formato de cine 01:28:35
con un leather box, es decir 01:28:37
con franjas arriba y abajo 01:28:39
entiendo que la relación 01:28:40
el aspect ratio 01:28:43
es un 239 01:28:45
o es más grande porque tienes el everbox 01:28:47
o cómo es realmente cómo funciona 01:28:50
no, no, no 01:28:52
lo que es el aspect ratio 01:28:52
la proporción de aspecto 01:28:54
que eso además también da pista es 01:28:57
la proporción que hay entre el alto y el ancho 01:28:59
ya está, es decir, puede haber un 16 novenos 01:29:01
de 1920x1080 01:29:04
que también puede haber un 16 novenos 01:29:07
de 1280x720 01:29:10
que un, te voy diciendo más 01:29:13
Pero que un 4K, un Ultra HD, que sea un 4096x2160. Todos son proporcionales, más grandes o más pequeños, pero todos dibujan el mismo cuadrado, la misma apariencia de cuadrado, de proporción. 01:29:15
Son igual de 16 novenos todos. Al final, para lo que sirve el aspect ratio es para determinar cuánto de ancho o de alta es la imagen proporcionalmente en el conjunto de la imagen. 01:29:32
Igual que por ejemplo en los móviles es muy claro que cambia absolutamente que la pantalla sea un 16 novenos o un 9 dieciséisavos, que sería la versión horizontal o vertical, aquí es lo mismo. 01:29:47
Se refiere más a la proporción de las medidas, pero luego esas medidas pueden ser más grandes o más pequeñas, siempre y cuando el tamaño de la caja, ¿vale? Me refiero al tamaño con la proporción entre ancho y alto que salga. No sé si me estoy explicando. Al final lo que significa 16 novenos, por ejemplo, es 16 partes de ancho por 9 de alto. Mientras eso se cumpla, es un 16 novenos. 01:30:02
claro, pero mi duda va más 01:30:29
en cuanto a, ¿cuenta los 01:30:31
píxeles negros si hay 01:30:33
tenemos bandas arriba o por abajo? 01:30:35
es decir, tú si estás sacando 01:30:38
un contenido para una pantalla 01:30:39
16 novenos, pero tú 01:30:41
tienes una película que es panorámica 01:30:43
imagínate que 01:30:45
voy a poner una imagen aquí 01:30:47
con letterbox, que como bien has 01:30:49
dicho, son esas franjas negras que se pueden 01:30:51
añadir o encontrar en la parte 01:30:53
de abajo, ¿vale? esta imagen 01:30:55
Aquí, ahora mismo, si te fijas, de hecho viene muy bien marcado, esta imagen es 2.35 a 1. Si tú lo vas a enviar a una televisión, a ver cómo lo explico, porque la pregunta no es que sea complicada, pero hay que hilarlo fino. 01:30:57
esta imagen es 2.35 01:31:20
¿vale? y si tú lo envías 01:31:22
a un proyector de cine que va 01:31:24
a emitir a 2.35, no le tendrás 01:31:26
que poner letterbox, pero si ese 01:31:28
proyector de cine no puede 01:31:30
no admite 2.35 y si admite 01:31:31
1.85 que es más cuadradito 01:31:34
¿vale? más como lo que estamos viendo aquí 01:31:36
con estas dos franjas ¿vale? 01:31:38
ahí la imagen que le tienes que hacer llegar es 1.85 01:31:39
la solución es que hay que 01:31:42
hacer una adaptación de 2.35 01:31:44
a 1.85 metiéndole las franjas 01:31:45
¿vale? entonces a esa persona 01:31:48
si te le pide esa imagen 01:31:50
se la tienes que enviar ya con las franjas 01:31:52
más que nada porque a veces los reproductores 01:31:53
es que no pueden reproducir más aspect ratios 01:31:56
no están preparados 01:31:58
¿vale? no sé si te estoy contestando 01:31:59
si no, llévame más allá 01:32:02
no, no, no, es que te lo he preguntado 01:32:04
Dani, porque es que el otro día me pasó 01:32:06
o sea, yo que trabajo en postproducción 01:32:07
me surgió esta duda trabajando 01:32:09
porque el programa con el que trabajo yo 01:32:11
me estaba dando un aspect ratio 01:32:14
de unos 78 a 1, un full frame 01:32:16
¿sabes? y luego la imagen me aparecía así 01:32:18
como un 2.35 o un 2.39 01:32:20
entonces me sugiere la deuda y dije, joder 01:32:22
en plan de, ¿por qué 01:32:23
esta relación de aspecto 01:32:25
cuando realmente la imagen no es así? 01:32:28
es justo lo que acabas de explicar 01:32:31
que realmente en mastering 01:32:32
o sea, el master se ha hecho con un leather box 01:32:34
entonces el programa te detecta 01:32:36
que es un full frame 1.78 01:32:38
para que se adapte a tu reproductor 01:32:40
de la televisión, claro 01:32:42
por ejemplo, en cine, que es más restringido porque 01:32:43
que los proyectores son los proyectores. En teles hay millones de cosas, pero en proyectores de cine solo se pueden hacer DCPs, 01:32:45
es decir, contenidos para proyectores en estas seis resoluciones. Es decir, el estándar de cinema, que es el que está implantado, 01:32:51
solo admite estas seis medidas, que veis que en realidad son tres a nivel de aspect ratio, solo que una es para 4K y otra es 2K. 01:33:00
Si tú, por lo que sea, o porque tu cámara también graba a otro aspect ratio, cosa muy muy normal, 01:33:08
lo que habrá que hacer es adaptar el contenido para que ocupe lo que a ti le interesa. 01:33:14
Y es más, tú puede que para el cine tengas un 1.85.1 y luego a la adaptación de televisión habrá que recolocar y reencuadrar para que ocupe lo que te interesa. 01:33:18
Entonces siempre los márgenes, digamos los bordes, se pueden recortar un poco y eso hay que tenerlo en cuenta. 01:33:31
O, por ejemplo, si veis canales como Factoría de Ficción o The Infinity también, veréis que a veces echan contenido viejo, que era a cuatro tercios, ¿vale? Y de pronto lo veis con dos franjas a la derecha y a la izquierda, lo que se llama pillar box, que son las franjas en vez de arriba y abajo en los laterales, ¿vale? 01:33:37
Pues al final lo que tienen que hacer es una adaptación porque la tele se va a ver ya en 16 novenos, que son las teles de ahora, pero el contenido está a cuatro tercios porque en su momento se grabó así y a nadie le interesaba eso. 01:33:54
Ahí hay que pensar si se conserva todo ese cuadradito y se ponen las franjas en los laterales o se escala mucho recortando la parte de arriba y abajo y ocupa todo el ancho de la pantalla. 01:34:07
no sé por qué estoy haciéndolo sobre esta imagen 01:34:20
pero no sé si me entendéis 01:34:22
entonces a veces depende de 01:34:24
simplemente el sistema que se esté usando 01:34:26
pues oye, es que los proyectores 01:34:28
por ejemplo, lo que he dicho 01:34:30
es que solo admiten esas medidas 01:34:32
si no se lo das, te lo va a recortar solo 01:34:34
¿sabes? entonces a veces 01:34:36
se le incluye los letterbox ya directamente 01:34:37
para asegurarse que es esa medida 01:34:40
como tú se la das 01:34:42
al pixel 01:34:43
¿sí? 01:34:44
Sí, Dani, lo único que entiendo es que 01:34:48
el número que te aparece del aspect ratio 01:34:51
es el que se va a reproducir 01:34:54
en el proyector o en la pantalla 01:34:56
por ejemplo, la imagen que tenías antes 01:34:58
del gran cañón 01:35:00
no sé cuál será el aspect ratio 01:35:01
pero imaginemos que es 01:35:04
un 85 a 1, como has dicho 01:35:05
el aspect ratio de esa peli 01:35:08
o de esa imagen será un 85 a 1 01:35:10
claro, es que depende 01:35:12
tú imagínate que tú 01:35:14
lo que has exportado es 01:35:15
una imagen que su aspect ratio 01:35:17
es un 85 a 1, ¿vale? 01:35:21
Y entonces el vídeo, si es esta la imagen, 01:35:23
tiene estas dos franjas, ya el vídeo en sí. 01:35:25
Si tú esto luego lo lanzas 01:35:27
en una tele o en un monitor 01:35:29
que está configurado, que vamos, que tiene unas medidas 01:35:30
más panorámicas de 16 novenos 01:35:33
o de 2.35, si tú ya 01:35:35
le has metido las franjas, 01:35:37
se va a ver con las franjas. ¿Y qué es lo que va a hacer? 01:35:38
Y de hecho los televisores y los monitores 01:35:41
tienen varias opciones del scan mode, 01:35:43
que se llama, que puede ser que 01:35:45
todo se escale para que ocupe todo el ancho 01:35:46
y entonces se deformaría la imagen 01:35:49
o que recorte por arriba o abajo lo que le sobre para que entre uno de los laterales 01:35:50
y cubra entera la imagen, dependerá del monitor o el sistema que estés usando. 01:35:55
Pero si tú exportas la imagen con estos Letterboxd ya, 01:36:00
el vídeo que llega es con los Letterboxd, es el renderizado, ¿vale? 01:36:04
Es decir, si yo saco este fotograma, si yo en Premiere, por ejemplo, 01:36:08
saco para que saque estas bandas negras, esas bandas negras están. 01:36:13
Si tú tienes una imagen muy panorámica, ¿vale? Muy panorámica y lo emites una televisión así cuadrada, si tú pones un modo Fit, no, Fill, mejor dicho, para que ocupe esto, ocupará eso. 01:36:16
Pero mira, es que de hecho te voy a hacer el ejemplo aquí. Cuando tenemos aquí este vídeo, que es un 1920... A ver, espera, lo voy a poner en HDS4. Este vídeo, si voy aquí, sus proporciones son 1920 por 1080, un 16 novenos, ¿no? Sin más. 01:36:30
Y imagínate que yo lo voy a exportar para que en vez de ser su medida sea... ¿Por qué no me deja hacer la medida que yo...? Ah, personalizado. Quiero que sea, ¿vale? Y quito la cadenita para que deje de tener ese Aspelt Ratio. Y empiezo aquí a trastocar y digo, 5.000. Fíjate, aquí se han incorporado dos franjas. 01:36:49
Esto es lo que haría la televisión. 01:37:13
Lo que pasa es que, igual que tienen las televisiones, aquí tenemos varias opciones de, 01:37:15
oye, si no es exactamente las medidas del proyecto, del vídeo, con el de la exportación, ¿cómo hago el relleno? 01:37:18
¿Simplemente lo ajusto para que uno de los lados ocupe todo lo que pueda y ya el resto lo dejo en negro? 01:37:27
¿O hago esto? 01:37:32
Le doy aquí y lo que hago es que el relleno lo hago del ancho en vez del alto, como hacía antes. 01:37:34
Aquí lo que hace es el ancho. 01:37:40
O directamente no, lo que hago es que todo lo que tenía la imagen, todo, que ocupe el cuadro con la consecuente deformación. Esto lo hacen los monitores también. 01:37:42
los monitores me refiero 01:37:55
si tú le metieras el vídeo desde un archivo 01:37:59
por ejemplo, pero tú puedes 01:38:01
decirle también cómo se ajusta la imagen 01:38:03
¿vale? y en tu software donde has visto 01:38:05
eso, probablemente también hay opciones 01:38:07
cómo se 01:38:10
escala o se rellena la imagen 01:38:13
que estáis muy en silencio 01:38:15
más o menos me... 01:38:17
Sí, sí, Dani, no, no, perfecto 01:38:19
sí, era eso un poco la... 01:38:21
Eso, y en Factoría de Ficción yo lo he visto muchísimo 01:38:22
En plan, aquí no hay quien viva en cuatro tercios y lo que hacen es, pues lo pasa a otro formato de 1920x1080 o de 1280x720, que son 16 novenos, y han decidido que para que no se deforme, pues meto dos franjas a los laterales y ya está. 01:38:25
Queda horroroso, sí, porque parece que estás viendo una story más que la tele, pero bueno, pues no se preocuparon en el futuro o no lo sabían, aunque en esa época creo que sí, y lo hacían a cuatro tercios y no hicieron másteres a más resoluciones ni trabajaron de otra forma. 01:38:38
entonces pues tienes que sacrificar por algún lado vale pues en principio eso no así lo que 01:38:55
tenía preparado para hoy si no tenéis más dudas por supuesto era esto eso dudas que tengáis como 01:39:03
siempre me podéis escribir en el foro y si puedo la contesta en el foro y si no pues eso es la 01:39:09
próxima tutoría que no sé cuándo va a ser pero tampoco creo que sea en la semana que viene 01:39:14
imagino que será vale o la siguiente como muchísimo por si no ya son los exámenes vamos hablando 01:39:20
Entonces, muchas gracias por asistir y ánimo con ello. 01:39:26
Subido por:
Daniel M.
Licencia:
Todos los derechos reservados
Visualizaciones:
19
Fecha:
6 de mayo de 2024 - 21:01
Visibilidad:
Clave
Centro:
IES CIFP a Distancia Ignacio Ellacuría
Duración:
1h′ 39′ 36″
Relación de aspecto:
1.78:1
Resolución:
1920x1080 píxeles
Tamaño:
858.06 MBytes

Del mismo autor…

Ver más del mismo autor


EducaMadrid, Plataforma Educativa de la Comunidad de Madrid

Plataforma Educativa EducaMadrid