Tutoría 9 - RMPA - UT6 - Curso 23·24 - 6 de mayo - Contenido educativo
Ajuste de pantallaEl ajuste de pantalla se aprecia al ver el vídeo en pantalla completa. Elige la presentación que más te guste:
Grabación de la novena tutoría de RMPA
Es que lo estoy mirando aquí, que lo apunté en un blog de notas, en unidad 5, 1.2, tengo puesto lo de tono y saturación, creo que está al revés, pero es que no especifico más, entonces, es un poco vaga mi duda.
00:00:01
En RMPA, a ver, me meto y voy a compartir pantalla, ¿vale? Que entiendo que no la estáis viendo. Vale, ahora sí que deberíais, y tema 5, me has dicho.
00:00:15
Sí, el punto 1.2.
00:00:28
51.2 Vectorscopio
00:00:29
Sí, esto de aquí
00:00:32
¿O a qué te refieres?
00:00:34
Sí, imagino que es a esto
00:00:37
Creo que es donde pone el apartado A y apartado B
00:00:39
No sé, o a lo mejor yo lo entendí mal
00:00:42
O algo, pero me apunté justamente para esa tutoría
00:00:45
De que creo que estaba al revés
00:00:48
No, lo que quiere decir esto es
00:00:50
Dentro del Vectorscopio, ¿vale?
00:00:53
Este no es el mismo Vectorscopio
00:00:55
Bueno, este sí es el de Premiere, ¿vale?
00:00:56
Este es el de otro software
00:00:58
pero son bastante análogos. Lo que quiere decir es que muestra dos informaciones relacionadas con la señal de crominancia,
00:00:59
es decir, con el color. Hay dos cosas que ver. Una, en qué ángulo dentro de la circunferencia están
00:01:06
y también cuánto de largo es el vector, es decir, el punto en el que se asienta.
00:01:13
Digamos que el tono, la tonalidad, se ve mejor en el de Premier según el ángulo en el que esté,
00:01:20
que es a lo que se refiere la fase, la posición en grados, se referirá a rojo, a magenta, a azul, al tono, a la tonalidad, pero luego ya lo que es la saturación de ese tono depende de la longitud del vector,
00:01:25
es decir, de hasta dónde se extiende la indicación de dónde se está midiendo ese tono.
00:01:39
Es decir, tú puedes tener un tono rojo y que sea rojo como aquí con poca saturación, que aunque sea un rojo será un rojo muy apagado, con poca viveza de color.
00:01:47
Por ejemplo, si esta zona aquí tiene rojo, apenas se muestra lo que es el tono rojo, entonces la viveza, la saturación es baja.
00:01:58
No es lo mismo que si el tono está en esta longitud que va tendiendo a medida que nos vamos alejando del centro, ¿vale? Que es lo que sería la saturación nula, cero, ¿vale? Pues a medida que nos vamos alejando, que la longitud es mayor, a mayor cercanía con el borde, mayor saturación.
00:02:08
Así que creo que sí está bien, vaya.
00:02:28
¿Vale?
00:02:30
Lo que quiere decir es eso.
00:02:31
La fase es la posición, como la aguja de un reloj,
00:02:32
hacia la que apunta desde el centro ese vector, ¿vale?
00:02:35
Y luego es la longitud de ese vector,
00:02:39
que es cuánta saturación tiene dentro de ese tono hacia el que apunta.
00:02:42
¿Vale?
00:02:46
Vale.
00:02:47
Esto hay que tener en cuenta eso, que va por píxeles.
00:02:47
Que aquí hay como una especie de nebulosa de...
00:02:49
¿Veis mi pantalla, verdad?
00:02:53
Sí, sí, sí.
00:02:55
A ver si estoy aquí señalando algo.
00:02:56
Una cosa es, se ve aquí una nebulosa, pero realmente, digamos, cada punto que va aportando se refiere a un píxel que hay aquí, ¿vale?
00:02:58
Entonces, pues al final hace esta constelación nebulosa, como lo queramos llamar, pero que es un conjunto de píxeles.
00:03:05
De todos modos, ahora, si os parece, también hacemos, habiendo corregido la tarea del tema 5, un repaso.
00:03:11
Sobre todo me interesa, porque además, si no hay así... Digo, ¿te resuelvo un poco la duda ya con esto?
00:03:17
Sí, sí, sí.
00:03:23
En principio está bien, vamos, no veo que sea nada...
00:03:24
Lo habré entendido yo, ¿vale?
00:03:28
Eso es. Es decir, que no... Además, la fase del vector, longitud del vector son términos que, bueno, no son los más intuitivos, pero es así como se llama, ¿no?
00:03:30
Fase, el ángulo y la longitud, la distancia desde el centro.
00:03:38
Vale, ahora de todos modos si os parece eso, viendo la corrección de la tarea podemos incluso ver también algún equipo de medición porque me interesa que sepáis también interpretarlo y seguro que en el examen va a haber algo relacionado, no sé si el art de desarrollo o el art de tipo test, pero va a haber preguntas relacionadas un poco con la interpretación de los equipos de medición.
00:03:43
Bueno, en este caso va a ser en base a ámbitos de lumetri porque usamos Premier, pero bueno, es lo mismo, que en realidad este vectorscopio sí que tiene la desventaja, bueno, que sí que están, que aquí las letras que representan cada color y no es tan claro como aquí, que incluso te marca los cuadraditos de color y es fácil saber si va hacia el rojo o al amarillo, aquí es menos intuitivo, aunque la propia nebulosa está coloreada del propio color, pero bueno, que dependiendo del vectorscopio indican lo mismo en realidad, ¿sabes?
00:04:11
y es una información análoga a todos los equipos de medición de vectorscopia.
00:04:38
¿Alguna duda más que tengáis de las tareas o algo que queráis que veamos?
00:04:46
Si no, mira, de hecho podemos partir por analizar un par de imágenes
00:04:50
porque hay un par de cosas que quiero que queden aún más claras por lo que he visto.
00:04:54
Sí, oigo por ahí alguien hablando.
00:04:59
Yo tengo unas notas, tengo varias preguntas apuntadas.
00:05:01
pero no sé si, o sea, son de otros temas
00:05:06
vale
00:05:08
si no tenéis nada concreto
00:05:09
de este tema, podemos verlo
00:05:12
de cualquiera, es decir, yo incluso lo que
00:05:14
voy a hablar hoy
00:05:16
no es, está relacionado
00:05:17
con el último tema, que es muy amplio
00:05:20
sobre los delivery, las entregas
00:05:22
tiene que ver con los codecs
00:05:24
por ejemplo, etcétera
00:05:26
entonces no hay problema en que veamos
00:05:27
tus dudas
00:05:30
de hecho, yo creo que
00:05:33
lo más adecuado es que resolvamos las dudas
00:05:34
pendientes y luego ya vamos a otras cosas.
00:05:36
Así que si las tienes por ahí preparadas,
00:05:39
pues cuéntame.
00:05:40
Justo a más lo que acabas de decir.
00:05:42
Cuando he estado estudiando estos días
00:05:44
los temas, sí que me
00:05:46
costaba un poco llegar a entender la
00:05:48
diferencia, que aunque yo
00:05:50
no sé si es lo mismo o
00:05:52
hay cierta diferencia. Debo apuntar
00:05:54
aquí. Diferencia entre formato,
00:05:56
códec y contenedor.
00:05:58
Vale. Es decir, a veces me cuesta
00:06:00
llegar a...
00:06:02
Esa es muy buena, ¿no? Esa es muy buena.
00:06:04
Sí, porque yo que vengo del mundo del audio, yo pensaba que lo entendía, pero claro, en el vídeo veo que funciona todo de manera diferente.
00:06:06
Porque luego, también estudiando parte, creo que entra esto dentro del tema 2, entra el tema de la compresión, interframe, intraframe y todo eso.
00:06:15
Entonces, como que ya me ha costado llegar a profundizar, o sea, he profundizado en ese tema, pero me gustaría hacer la pregunta y lanzar la pregunta.
00:06:24
Me parece muy buena pregunta.
00:06:32
Porque creo que puede llegar a ciertas... o sea, a confundir un poco.
00:06:35
Vale, vamos a ello. Mira, de hecho, uno de los... espera que abro un documento que tenía aquí.
00:06:39
De hecho, mira, os lo he dejado aquí, habréis visto que debajo de lo que es el contenido del tema, ¿vale?
00:06:46
Aunque no lo voy a preguntar en el examen, ¿vale? Aunque esté en la zona de contenido, va a ser materia de examen directamente, ¿vale?
00:06:51
Hay unas tablas aquí que os he dejado de esta web, ¿vale?
00:06:57
Que de hecho la habréis visto en algún momento.
00:07:00
Hay, bueno, pues dos tablas de códex con diferentes especificaciones.
00:07:04
Voy a abrir una de ellas y así también me sirve un poco para ir viendo qué es cada cosa, ¿vale?
00:07:09
No sé si habéis visto este archivo, pero sobre todo es...
00:07:14
Sí, sí, lo he hecho un vistazo por encima.
00:07:18
También de investigación un poco, ¿vale?
00:07:20
Y si os parece, lo que podemos hacer es un poco desglosar a grandes rasgos qué quiere decir cada columna, porque eso además me va a servir para hablar de qué son códecs, de qué es la cápsula, de qué es el formato de la media, ¿vale?
00:07:22
Entonces, si os parece, lo vamos a enfocar por ahí, ¿vale? Pero la respuesta rápida es, el formato, digamos que es, el formato y el contenedor están íntimamente ligados, ¿vale?
00:07:37
Cuando tenemos un vídeo o una imagen, a ver, aquí solo tengo imágenes, pero voy a meter algún vídeo, por ejemplo, dame un segundo y meto en Premiere uno de los vídeos que me entregasteis, por ejemplo, la tarea 5, porque me da un poco igual.
00:07:49
esto por ejemplo, no meto en Premiere
00:08:05
vale, cuando metemos un vídeo
00:08:08
esto es la mezcla de sonido, así que entiendo que es
00:08:09
este, vale, cuando tenemos un vídeo
00:08:12
tiene
00:08:14
por definición un formato que es el que
00:08:16
además suele poner en
00:08:18
la extensión del archivo
00:08:20
si nos fijamos en
00:08:22
el nombre del archivo, vale
00:08:24
tiene un formato
00:08:26
mp4 o mp4, vale
00:08:27
cuando
00:08:30
estamos hablando de formato nos referimos
00:08:31
a esta extensión, ¿vale? Porque el formato y la cápsula, ¿vale? Cuando hablamos de la cápsula es que tiene una especie de, digamos, a ver cómo lo explico,
00:08:34
de configuración informática, ¿vale? Que se puede llamar .mp4, el MOV, el DNX, el MXF, ¿vale? Que permite que luego tenga una configuración
00:08:46
de elementos dentro vale es decir un contenedor barra formato lo que permite es distintos tipos
00:08:57
de configuraciones que puede tener luego el interior vale que se codificará de ciertas
00:09:05
maneras entonces dentro de un nivel superior estaría el formato vale si por ejemplo yo meto
00:09:10
este vídeo para trabajar vale y bueno ya se ha hecho aquí la edición etcétera cuando vamos a
00:09:15
exportar al dar a exportar al final tenemos dos puntos que hablan de lo mismo vale primero el
00:09:19
formato este h 264 porque es verdad que el formato de mp4 vale se llama h 264 pero veis que aquí hay
00:09:28
más formatos por ejemplo pues de los que os he dicho el open xr el incluso hay formatos específicos
00:09:35
de vídeo vale tú has dicho que habla cuando hablábamos de audio vale por ejemplo está el
00:09:41
El formato MP3 o el formato WAV, ¿vale? Digamos que son los que dan la base informática, la cápsula en la que se mete la información que luego se va a reproducir o atesorar en su interior, ¿vale?
00:09:48
Y otra cosa luego que hay en su interior, ¿vale? Y esto, por ejemplo, se vería más en un QuickTime, ¿vale? Si voy a un QuickTime, es que dentro del QuickTime puede haber, ¿vale?
00:10:03
Tenemos un formato QuickTime y puede haber distintos códecs.
00:10:13
Entonces, de hecho, aquí no está, pero incluso dentro de los QuickTimes, en Premiere no está justo, pero dentro de los QuickTimes, o no lo está, puede haber incluso H.264 también, ¿vale?
00:10:17
Es decir, hay veces que un formato y un códec están desarrollados de una forma tan íntimamente ligada, ¿vale?
00:10:29
Porque se desarrolló a la vez el MP4 con su codificación H.2.6.4, ¿no?
00:10:38
Que incluso un distinto contenedor puede estar preparado para codificar la información de distintas formas.
00:10:43
En esencia, creo que la forma para entenderlo es que los formatos se relacionan con esta extensión o con cápsula, ¿vale?
00:10:50
Que genera, digamos, la posibilidad de que tengamos un archivo cerrado con imagen o audio, ¿vale?
00:10:59
Pero luego dentro de cada uno, aparte de las propias configuraciones que le podamos dar, esas configuraciones están relacionadas con las posibilidades que da el códec. Por tanto, habrá un formato contenedor que en su interior puede tener muchos tipos de códecs, ¿vale? Otros, ¿vale? Este, por ejemplo, del QuickTime, puedes tener un códec, y ahora incluso vamos a hablar más de esto, un códec de Apple ProRes 444 o también un 422 o incluso uno que es DNxHR, ¿vale?
00:11:05
Y dices, eso lo ponen los códecs y si buscamos aquí, también sale como un formato, ¿vale? Entonces, una cosa es la cápsula, ¿vale? Incluso, fijaos aquí, esto que pone MXF, si me pongo en este Apple ProRes MXF, me pone que es un MXF el contenedor, ¿vale?
00:11:35
Y si me pongo en este DNXHRMXF, también es un MXF. Entonces, la cápsula es un MXF y, por tanto, el formato es un MXF, pero en su interior la codificación puede atender a distintos parámetros.
00:11:53
¿Vale? Dependiendo de quién haya desarrollado este códec, pues le habrá un número de posibilidades y de capacidades y, por ejemplo, hay códecs, pues por ejemplo, si vamos a un QuickTime, ¿no? Hay códecs dentro de este punto MOV, ¿vale?
00:12:09
Que aunque el formato sea un .mov, si yo le doy al 4, 2, 2, ¿vale? Por mucho que busque yo por aquí, ¿vale? No hay forma de meter un canal alfa, ¿vale? Vamos a poder meter el RGB, la información de lo que tienen los píxeles en cada uno de los tres canales, pero fíjate que luego yo si pongo, por ejemplo, un Apple ProRes 4, 4, 4, ¿vale?
00:12:25
Que tiene un cuarto número, ¿vale? Ahora vemos también eso. Yo si bajo y voy a la profundidad de bits, sí que me deja meterle otro canal, los tres del RGB, ¿vale? A 8 bits por canal, es decir, cada canal tiene sus 8 bits de profundidad, ¿vale? Y aparte le podemos meter un alfa. ¿Por qué? Porque a lo mejor tenemos una imagen que está ya recortada, como lo que hacíamos de los PNGs en la tarea 3, con los escudos, por ejemplo, ¿vale?
00:12:49
Que los PNG sí permiten, digamos que ese formato PNG sí permite transparencias, pero el JPG no, ¿no? Por ejemplo, aquí lo que permite el formato es que luego las distintas codificaciones también permitan hacer distintas cosas.
00:13:17
O incluso puede haber algunas que pueden contener diversos estándares incluso de rango dinámico, etc. Pues dependerá un poco de las capacidades que tenga el formato y en su interior el códec.
00:13:34
Por tanto, es un poco enrevesado contestar de forma general, aunque creo que es como lo he dado, en el sentido de decir, ¿cuáles son las diferencias entre formato y códec?
00:13:49
Pues es eso, el formato, digamos, que es el contenedor que da las condiciones para luego los códecs que puede desarrollar.
00:14:00
Pero en ocasiones, como este que os digo aquí de H.264, es que el códec que tiene es H.264 también.
00:14:07
Entonces, contenedor y códec están de la mano. Que ojo, este códec también es lo que os he dicho, se puede encontrar, por ejemplo, el DNX-NHR, que es otro de los que permite variar los códecs.
00:14:13
Este no creo que lo tenga, pero ya os digo que en ciertos momentos os puede aparecer incluso que el códec sea H.264 y guardará un H.264, pero en un contenedor de .do, .mov o .mxf.
00:14:30
Entonces, por aquí un poco la primera parte de la respuesta. Ahora seguimos. No sé si me estoy explicando más o menos.
00:14:42
Sí, sí, todo correcto.
00:14:52
Por eso cuando, por ejemplo, en este listado vemos los distintos códecs que tenemos aquí, cuando nos dice que el códec es, por ejemplo, voy a ir a los de intermediación, ahora paso.
00:14:53
Por ejemplo, este ProRes 444, en la parte de media cápsula, lo que hace es decirme cuáles son los formatos, los contenedores. Esto sería un poco lo relacionado con el formato y esto sería lo relacionado con el códec.
00:15:08
Estos son los... Pero fijaos que aún así, claro, si vemos esta columna, todo se resume casi en .mov y .mxf. Igual está un poco lejos, a ver si así lo veis mejor. Son .mov y .mxf, que esos son los contenedores, las cápsulas.
00:15:24
Pero luego los formatos tienen estos nombres genéricos que en su interior tienen ese códec. Entonces es un poco ir conociendo qué es cada uno. Aquí lo bueno de este listado, por ejemplo, es que tenemos dividido todo, y el otro listado también lo está, en códecs de captación, porque las cámaras cuando están grabando tienen que ir guardando la información informática, al final digital, en su tarjeta de memoria, en su disco duro, etc.
00:15:43
Entonces, tienen que ir usando unos códecs que sirvan para captar todo, o deberían tender a intentar captar la mayor información posible de la realidad, que es mucha, que no son los mismos propósitos que cuando, por ejemplo, estamos trabajando en una máquina que igual lo que queremos ya no es tener todos los colores posibles, sino algo más asumible o más manejable para a medida que vayamos trabajando, pues los ordenadores no mueran de tanto procesamiento que tienen que realizar.
00:16:10
Y luego, por supuesto, ya hay otros códecs de masterización o distribución, entre los que está, por ejemplo, la H2S4, cuya cápsula es el MP4, pero veis que también puede ser el .mov, que están limitados en parte, ya no porque tengan que representar más o menos fidelidad en el resultado, sino porque se tienen que atener a la propia plataforma o al propio elemento de distribuidor.
00:16:38
Si subes un vídeo a YouTube, no puedes subir algo con el tamaño que quieras ni con las especificaciones que quieras. Tiene ciertos límites y para eso existen algunos códecs que están optimizados para ser empleados en ciertas plataformas.
00:17:04
Entonces esta sería un poco la primera parte
00:17:19
Luego la complejidad viene
00:17:24
Porque como en toda guerra tecnológica
00:17:27
Hay muchísimos desarrolladores y fabricantes
00:17:30
Que van desarrollando sus estándares
00:17:33
Y luego que también se van aliando
00:17:35
Con ciertas plataformas de distribución
00:17:38
O con ciertas televisiones
00:17:41
Y al final unas van prevaleciendo sobre otras
00:17:43
Y bueno, pues van haciéndose unas más, digamos, más estándares que otras, ¿no? Aquí, por ejemplo, los códigos de captación cámara claramente están muy vinculadas, la mayoría, ¿vale? Con marcas comerciales. Red, por ejemplo, es una marca de cámaras de cine. Arri es otra. Sony, por supuesto, es otra que os sonará. Estas de aquí también son de Sony. Bueno, de hecho, estoy apuntando a donde no es porque aquí os ponen los fabricantes.
00:17:48
Apple incluso tiene, porque aunque en principio no trabaja, tiene sus cámaras, por ejemplo, tiene muchas en dispositivos móviles, pero incluso los desarrolladores de sistemas operativos también tienen que tener gestores de vídeo y de formas de codificar y de decodificar lo que es la información de imagen y de vídeo.
00:18:12
Entonces veis que todas están aquí desarrollando sus propios códecs. Además, quizá os sirva, esto viene de los apuntes, viene de la palabra codificador, decodificador.
00:18:36
Es el punto en el que se gestiona esa información informática. Esos son números 1 y 0 binarios que contienen al final la información con la que trabajamos.
00:18:54
Entonces, bueno, sí, decidme
00:19:05
Claro, Dani, pero sí, un apunte solo en este momento
00:19:10
También investigando, vi que estos códecs generan una compresión
00:19:13
Y claro, justo ahora que has hablado de lo de códec
00:19:21
Yo sí que evidentemente estudiando he aprendido que es codificación-descodificación
00:19:23
En este proceso de codificación-descodificación se produce una compresión de la imagen
00:19:28
Porque claro, yo que vengo del mundo del audio, yo sé que un archivo WAV es un archivo sin comprimir. Entonces, claro, investigando un poco sobre esto, creo que llegué a entender que todo archivo de vídeo, todo códec de vídeo, está comprimido en cierta parte.
00:19:33
Sí. Mira, os voy a enseñar una imagen. Un segundete. Sí, lo que varía es el tipo de compresión que tiene y también cómo se gestiona la señal que lleva, por ejemplo, en estos códices que estamos hablando aquí de cámara, cómo llega y gestiona la cámara.
00:19:50
Te voy a poner una imagen que tengo aquí, pero sí, hay compresión. Lo que pasa es que hay compresiones que se definen como, y estos son conceptos que se pueden buscar y podemos desarrollar ahora, como lossless, que es como una compresión que intenta, aunque la compresión al final existe en el sentido de que el propio procesamiento de la señal, aunque intente contener absolutamente todo detalle, ya hace una cierta compresión siempre.
00:20:07
Entonces siempre hay una pequeña compresión. Lo que pasa es que están las compresiones que se conocen como lossless, que son compresiones, pero bueno, que esto también existe en informática, que intentan mantener toda la información.
00:20:36
Y no es tanto lo que intentan priorizar, la compresión se suele hacer para reducir el peso de los archivos y que sean más manejables, pero incluso aunque pesara lo que tiene que pesar porque es algo muy grande, los LOSDES lo que intentan es que mantengan absolutamente toda la calidad.
00:20:52
Luego hay otros tipos de compresiones que intentan ser extremadamente eficientes, pero sí que reduciendo un poquito el peso, que son las compresiones que se llaman LOSI, que ahí sí que intentan sacrificar quizá cierta información que muchas veces no es perceptible para el ojo,
00:21:10
pero sí que reducen un poco la calidad realmente a nivel informático, porque tiene menos información, sí que reducen algo el peso.
00:21:31
Por ejemplo, la analogía con el audio es que el WAV, como dice, no tiene compresión, o tiene mínima, porque ya os digo que un simple algoritmo que está gestionando esta información hace cierta compresión siempre,
00:21:43
Pero el MP3, por ejemplo, aunque evidentemente es un formato que intenta comprimir la información para que se pueda generalizar su uso en cualquier tipo de soporte, al final lo que intenta es hacer una compresión selectiva que lo que comprima más sea lo que el oído humano no percibe.
00:21:57
Y por eso hay distintas, es adaptativa, por eso hay ciertas frecuencias que comprime más que otras.
00:22:18
Digamos que es un poco eso.
00:22:24
Los formatos que tienen poca compresión, que intentan no tenerla, son estas loss y lossless.
00:22:25
Pero compresión tienen todas.
00:22:30
Lo único que sí, y esto es importante, es que cuando captamos un vídeo o una fotografía,
00:22:32
está lo que se llama el concepto de la imagen en RAW, en crudo.
00:22:37
Y espera un segundo porque busco esta imagen.
00:22:41
Mientras lo busco, si quieres, digo que no sé si he complementado eso que habías leído o sigues teniendo dudas, pero eso, te voy a enseñar ahora una imagen.
00:22:43
Sí, sí, o sea que del propio proceso de la señal de analógica digital entiendo que ya genera cierta compresión, aunque evidentemente no la notemos.
00:22:54
Claro, cuando la compresión es simplemente, voy transcribiendo la señal, la onda del sistema analógico, que sea onda de sonido o ondas electro-luminosas, al final lo que hace intentar es traducirlo todo.
00:23:03
Pero si ya de primera descarta, y ahí hay cierta compresión en la información a la que va escribiendo, digamos que ya se van también a veces rechazando datos.
00:23:22
Pero si, a ver, espera que abro la imagen, si digamos que la compresión ya intenta reducir el número de archivos, digamos, de dígitos que tiene informáticos binarios que tiene esa imagen, ya hay estación de la compresión.
00:23:33
Entonces sí, si es selectiva, pues no se notará. Sí que se puede notar y a veces es lo importante entender que aunque para el ojo humano sea muy, muy válida la imagen y la comprensión la haga muy bien, se entiende que si se van a hacer procesos de postproducción profesionales o muy avanzados, contar con toda la información, aunque incluso luego ni se emplee, es preferible a desecharla, a comprimirla,
00:23:50
porque cuando vamos variando los valores o se va haciendo, por ejemplo, una corrección de color,
00:24:15
al ir virando los colores, en este caso la información de crominancia,
00:24:21
cuanta más información tengas intermedia, más posibilidades tienes de ir variando el color,
00:24:26
en este caso, en este ejemplo, sin que se afecten los artefactos.
00:24:31
Por ejemplo, por poner la analogía con el audio, la frecuencia de muestreo típica es 48 kHz
00:24:35
y a nivel teórico el oído humano lo va a escuchar ya todo, porque a partir de los 20 kHz ya no escucha nada.
00:24:43
Entonces por el Nyquist se capta todo, ya está ahí recogido los 48 y los 4400 también kHz.
00:24:53
Pero existen, por ejemplo, frecuencias de muestreo como el 96 kHz,
00:25:00
que aparte de que para
00:25:05
audiófilos
00:25:07
gente que tiene equipos
00:25:10
extremadamente buenos
00:25:11
y bueno que sí que hay frecuencias que incluso
00:25:12
también se pueden sentir con el cuerpo
00:25:15
etcétera, sobre todo es porque a nivel
00:25:17
luego de postproducción pues si metes
00:25:19
por ejemplo un
00:25:21
pues si ralentizamos
00:25:23
¿vale? o hacemos una
00:25:25
conversión que ralentice digamos
00:25:27
la velocidad del pitch ¿no? la velocidad de
00:25:29
reproducción del audio, al final
00:25:31
tener más
00:25:33
sampleo, lo que hace es que
00:25:34
aunque lo estires, claro, el sampleo, la subida
00:25:37
y bajada de la amplitud, al extenderla
00:25:38
pues sí que guarda más
00:25:41
información y se degrada menos, ¿no?
00:25:42
O tiene más posibilidades. Pues digamos que aquí
00:25:44
pasa un poco lo mismo a nivel de
00:25:46
información.
00:25:48
¿Vale? Pero ya incluso
00:25:51
que esto
00:25:53
se adelantó como el año
00:25:54
pasado, ¿vale? Y se ven otras asignaturas
00:25:56
pero entiendo que sabéis lo que es
00:25:58
la matriz de Bayer, ¿vale? Esto
00:26:00
Entiendo que sí que sabemos lo que es
00:26:02
Si no, decidme
00:26:05
Porfa
00:26:06
No, yo no, Dani, pero si te he visto el año pasado
00:26:08
No, bueno, sí que se vio
00:26:11
Pero es de esas cosas que
00:26:13
Como es un poco técnica se vio y probablemente
00:26:14
La gente no lo recuerde mucho
00:26:17
Pero básicamente, los sensores de la cámara
00:26:18
¿Vale? De una cámara de vídeo
00:26:21
Que capta imagen, o de foto
00:26:23
También sería lo mismo, se compone de lo que se llaman
00:26:25
Fotositos, que son distintos cuadraditos
00:26:27
¿Vale? Que hacen lo que se llama una matriz
00:26:29
de Bayer. Y la matriz de Bayer se llama así porque cuando Bayer la desarrollara, entiendo
00:26:31
que fue Bayer, la verdad que creo que es este el motivo, lo que se optó por hacer es que
00:26:36
las cámaras, se entendió que lo que había que hacer era captar por separado las distintas
00:26:46
frecuencias de luz. El ojo humano está compuesto por distintos tipos de células, la retina,
00:26:51
Bueno, los conos y los bastones, que unas captan lo que son la luminosidad y otras las que captan la crominancia. Y estos conos que captan la crominancia, en la teoría tricromática, hay algunas otras, lo que dicen es que todos los colores en nuestro ojo, mejor dicho, casi en nuestro cerebro, se procesan en parte a la estimulación de tres tipos de conos que tenemos, que cada uno es sensible al rojo, al verde y al azul.
00:26:59
Bueno, lo que sí que pasa es que la proporción de conos que son sensibles a uno a otro no tiene por qué ser equilibrado, ¿vale? Y además, digamos que el color verde, por la evolución humana y también porque es el color que se encuentra en el centro, si vemos frecuencias visibles al ojo, bueno, ¿vale?
00:27:29
Si nos fijamos, si vemos este espectro de la luz visible, ¿vale? El color o los tonos que están en el centro son los verdosos, ¿no? El verde.
00:27:50
Entonces, por cálculos que se hicieran, se optó por que hubiera distintos fotositos sensibles a la luz, que también en algún momento se les puede llamar píxeles, ¿vale?
00:28:00
Y el sensor está compuesto por un conjunto de, digamos, fotositos de cavidades diminutas, ¿vale? Que tienen delante un filtro de un color.
00:28:11
Que puede ser verde, azul y rojo. ¿Por qué? Porque como he dicho, nosotros no es que veamos el color, un morado y nos llega el morado al ojo, sino que lo que está pasando en nuestro ojo es que distintos conos, distintas células sensibles a distintas frecuencias, se estimulan y dependiendo del nivel de cada uno de esos tres tipos de colores, pues nosotros lo percibimos como un color.
00:28:20
Es decir, somos sensibles solo a tres colores en realidad, ¿vale? Y dependiendo de la variación de sensibilidad que perciba nuestro ojo, pues se van interpretando o interpolando distintos colores, ¿vale? Hasta aquí más o menos me sigue entiendo, ¿vale?
00:28:46
Entonces, digamos que este sensor que tenía aquí una imagen, ¿vale? Si lo viéramos microscópicamente está compuesto por una matriz de colorines, ¿vale? ¿Por qué? Porque estos filtros solo dejan pasar la longitud de onda de este color, ¿vale? Cuando tenemos un filtro, bueno, aquí está.
00:29:03
Llega aquí la luz con toda la riqueza espectral de todas las frecuencias que contiene y solo dejará pasar el rojo. Entonces, cuando llega una luz que es muy verde, pues los fotositos que tengan el filtro verde sí se cargarán de energía, los de azul no, ¿vale? O los de rojo tampoco, o tendrán menos.
00:29:20
Y por tanto los píxeles finalmente se traducirán como más verdes, ¿vale? Porque es la, digamos, de la tricromía, pues es la que ahí se está estimulando más, la relativa al verde. ¿Vale? Pero ¿qué es lo que pasa? Y si nos quedamos aquí, que este sensor tiene esta matriz de Bayer, ¿vale? Que la tenía aquí.
00:29:39
Y entonces, a nivel informático, a nivel, bueno, a ver, rechazar la matriz de Bayer, la tenemos aquí, ¿vale? Si este es el sensor de nuestra cámara, al final lo que ha guardado nuestra cámara es un conjunto de píxeles, por decirlo así, ¿vale? De cuadraditos rojos, verdes y azules.
00:29:57
En primera instancia, lo que ve la cámara es esto. Una imagen parecida a esto, que corresponde. Dependiendo de cuánta intensidad, aquí se percibe que es un ojo, pero realmente es un conjunto de píxeles rojos, verdes y azules con más o menos intensidad.
00:30:21
¿no? En Domínica que ha captado. ¿Vale? Entonces, para la cámara, en primer paso, lo que tenemos es esto. Antes de hacer lo que se llama la debayerización, ¿vale?
00:30:42
Que es que esta matriz debayer se interpreta para que cada píxel coja el color, digamos, interpolado de lo que tenemos aquí. Al final esto es una especie de buscamina, ¿no?
00:30:54
Que si recordáis, si dábamos clic a uno nos decía cuántas de las casillas de alrededor tiene una mina.
00:31:03
Pues aquí es igual. Cuando vaya a hacer el siguiente proceso de aplicar esa interpolación de colores y convertirla en una imagen que se parece a lo que nosotros percibimos,
00:31:08
lo que está haciendo es interpolar cada casillita, cada fotosito, cada píxel con la información que tiene alrededor y así obtiene.
00:31:20
Ah, pues esto es un, yo qué sé, un verde apagado o un cian o un blanco si está completamente cargado, ¿vale? Que esto es lo que hablábamos el otro día de que cuando veíamos el monitor forma de onda, si los tres, digamos, canales están arriba, lo que están creando es un blanco, ¿vale?
00:31:27
Porque cuando se van sumando los tres colores, por suma aditiva, al final es un blanco.
00:31:45
Entonces, ¿qué es lo que pasa?
00:31:51
Que cuando estamos viendo, y vuelvo al listado que teníamos aquí, las tablas de códex,
00:31:52
hay muchas que hablan sistema de color RGB, ¿vale?
00:31:57
Y vais a ver que siempre están relacionadas las que pone RGB con el muestreo RAW o crudo, ¿vale?
00:32:01
Que ya algo se deja, se entrevé en los apuntes, ¿vale?
00:32:08
El formato RAW es guardar por completo, intentando que no haya comprensión ni iluminación, que a veces la hay, pero intentando que la información que ha llegado al sensor, es decir, parecida a esta, porque ojo, aquí también estamos viendo que esto está coloreado en rojo, en verde y en azul, en relación a los filtros que tiene cada uno de los fotositos del sensor.
00:32:12
Pero realmente la cámara tampoco está percibiendo los colores. Lo que percibe son blancos y negros. Lo que pasa es que el sensor está construido para que todo lo que llegue de esa luz a este cuadradito, este píxel, es rojo. Y si lo interpolas con el resto, pues dará otro tono.
00:32:34
Pero realmente los colores como tal para una cámara no existen. Existen en base a que hay tres canales que se mezclan y se interpretan en conjunto, pero realmente aquí se está cargando de una información relacionada con la intensidad que está llegando, una longitud de onda específica de la luz.
00:32:51
¿Vale? Hasta aquí estamos. Entonces, cuando vemos este tipo, sobre todo en la parte de captación, las cámaras, ¿vale? Y suelen ser las cámaras que pueden gestionar más información porque esto es muy pesado, guardar absolutamente toda la información de un sensor, ¿vale? Por píxel, ¿vale?
00:33:11
Esto es lo que nos permite guardar la información en crudo, por eso lo he errado en la traducción de crudo en inglés, y permite tener separado en los componentes de RGB toda la información antes de mezclarla y de hacer esa interpolación para que nosotros veamos la imagen como queremos.
00:33:29
¿Qué significa eso? Que tenemos exactamente la información que llega al sensor esperando a ser interpretada. ¿Y esto qué es lo que supone? Que nosotros luego podremos trabajar, por ejemplo, en Lumetri de Premiere, como habéis hecho el otro día, con mucha más capacidad de virar los colores.
00:33:47
cuando estuvierais haciendo la tarea 5, por ejemplo, la que estaban los dos chicos haciendo como una flexión,
00:34:05
si virabais un poco los colores, como esa imagen ya estaba codificada en un códec que ya había realizado la interpolación
00:34:16
y lo había convertido en un sistema de color basado en componentes U, ahora hablamos más de esto,
00:34:26
pues de pronto empezaban a aparecer bandings, es decir, como manchas o artefactos, ¿vale?
00:34:34
Como que el color no daba más de sí. ¿Por qué?
00:34:39
Porque digamos que ya está reducido, ya está comprimido, ya está interpretado para ocupar poca información.
00:34:41
Entonces, no hay mucho margen de maniobra.
00:34:46
Hay cierto margen, pero bueno, pues no...
00:34:48
Ya digamos que es como el ejemplo que yo he puesto en otras ocasiones, es como tener...
00:34:52
Igual no es el mejor ejemplo. A ver, bueno, como si vamos a hacer un gazpacho
00:34:57
y tenemos todos los ingredientes antes del gazpacho y es, en Rao, un gazpacho en potencia,
00:35:00
tenemos los tomates, el pan, el pepino, que es muy fácil todavía medir qué metemos de cada cosa,
00:35:06
pero una vez ya lo hemos mezclado y lo hemos hecho gazpacho, ya es casi imposible sacar el pepino,
00:35:12
ya no se puede volver atrás, entonces se le puede echar un poco más de pepino, un poco más de sal,
00:35:16
pero la mezcla está hecha, la maniobra está reducida.
00:35:21
Entonces, digamos que una forma también de trabajar de manera que comprenda lo máximo de información, independientemente ya de la compresión que puede tener, que en ocasiones puede tener ninguna, pero incluso algunos formatos ROSE, luego se puede ver cómo lo guarda, porque son estos formatos que son ROSE, pueden tener algo de codificación.
00:35:24
Y sigue siendo esa matriz de Bayer, digamos, guardada de la información del sensor. Pero bueno, hay ciertas compresiones, ¿vale? Estas compresiones lossy que se pueden considerar aceptables incluso para trabajar luego en postproducción, ¿vale? Como siempre, se supone que si no hay ninguna compresión, pues se completamente guarda todo y la flexibilidad es máxima, ¿vale? Digamos que tenemos todos los ingredientes antes de cocinarlos, ¿vale?
00:35:47
Luego ya una vez, y por eso a medida que vamos bajando y vamos yendo a sistemas que son más de distribución, ¿vale? Veremos que ya esta posibilidad de tenerlo por separado, la información RGB en este sistema tricromático, digamos, análogo al del ojo, ¿vale? Pasa a ser ya lo que son componentes JOOP, que también a veces se puede encontrar como C, bueno, esto creo que es más liar que otra cosa,
00:36:16
pero también CPBR, sistema de color, vamos allá, ¿vale? Bueno, creo que esta página no es la que más nos va a ayudar, pero vamos a, pues mira aquí, por ejemplo, esta es una, es otra, ¿vale?
00:36:43
Ya os dije el otro día que hubo un momento en el que la televisión, cuando empezó a ser televisión, no se basaba en los colores. La televisión y la fotografía eran blanco y negro.
00:37:05
Entonces en ese caso la matriz de Bayer no tenía ningún sentido, era simplemente, bueno para empezar porque no era digital en ese momento, pero aunque fuera digital lo que se captaba era que una película sensible llegara a la luz, la película sensible tradicional, esto me sirve un poco para presentar plata, lo que tenía era lo que se llaman aluros de plata, que eran sales de plata, que es un material reactivo a la luz.
00:37:17
Entonces, pues si le da la luz, si le da mucho, pues se irá oscureciendo y si no le da nada, pues se queda sin reaccionar, ¿no? Vale, esto podríamos profundizar más, pero bueno, es digamos el análogo a lo que estábamos hablando antes del sensor.
00:37:46
Esto lo que suponía en el blanco y negro es que era simplemente o que reaccionaba ante la luz o no
00:38:01
Y según eso era una gama de grises más oscura o más clara
00:38:08
Entonces la televisión y el cine primigenios que eran en blanco y negro
00:38:12
Pues no se preocupaban del RGB, no tenían que tener tres informaciones confluyendo
00:38:17
Con una de luminancia valía
00:38:22
Y el problema estaba en que a diferencia del cine que se desarrolló
00:38:23
Como veis aquí, más capas, digamos que cada una era sensible a un espectro de la luz, digamos que había una capa que era sensible al azul, otra al verde, otra al rojo, y luego cuando se combinaban las tres capas, al proyectarla por la luz se harían los colores.
00:38:28
En la televisión no existía el fotograma, lo que se distribuía era una señal de voltajes que luego se modulaba para enviarlo a través del aire en ondas hercianas, etc.
00:38:44
Pero al final lo que le llevaba la televisión eran ondas eléctricas, eran voltajes. No era algo físico con las tres diferencias de color.
00:38:58
Entonces, cuando esa señal que eran voltajes que solo representaban, oye, que cada luz, digamos, del televisor, cada, no luz, cada, a ver, cada, no, cada célula, no, ¿cómo se llamaba? Es que ahora no me va a salir la palabra, pero igual que en un monitor actualmente son un montón de píxeles pequeñitos o de LEDs, ¿vale? O de cristal líquido en las LCD.
00:39:10
En esa época lo que había era como bombillitas
00:39:35
Entonces según cuánto tuviera que encenderse cada bombillita
00:39:38
Pues el blanco y negro de cada punto de la pantalla
00:39:43
Pues se veía y creaba esa imagen en blanco y negro
00:39:45
¿Qué pasa? Que cuando de pronto se mete el color
00:39:49
Dijeron, vaya, ¿y qué hacemos?
00:39:51
Porque transmitir las tres señales de RGB
00:39:54
Por un lado da el problema de que no va a ser retrocompatible
00:39:56
Con las televisiones en blanco y negro
00:40:00
Y con las señales en blanco y negro
00:40:02
En ese momento que hubo de transición
00:40:03
que fue largo, pero tenemos que meter el color de alguna forma.
00:40:04
Entonces lo que hicieron fue meter la información de color, pero en relación a la luminancia,
00:40:09
para que si no había información de color, la Y, que es de luminancia,
00:40:15
pudiera seguir mostrando la televisión en blanco y negro, y lo que es el color,
00:40:20
esta imagen se desglosaba, se digregaba en esta imagen en blanco y negro, tradicional,
00:40:27
este y que tenemos aquí y luego había dos señales que se llaman de diferencia de color que veis que
00:40:31
además no tienen como mucho sentido digo que no no es ni rojo ni nada ni verde exactamente sino
00:40:37
que son dos señales que se mueven entre dos coordenadas vale que se puede llamar q e y en
00:40:44
ciertos momentos también uv también yo o incluso eso ya en señales digitales que han seguido
00:40:50
trabajando porque claro todo ha ido evolucionando en base a este sistema sobre todo en todo lo que
00:40:57
que es informático y televisión, porque han ido heredando esta forma de transmitir la señal,
00:41:01
que además era más eficiente a nivel de ancho de banda, porque, digamos, que podían, ahora la vamos a ver,
00:41:07
podían, digamos, a partir de la señal de iluminación, como ya dará tanta información del color que tenía que darse,
00:41:13
porque digamos que se combinaban las tres señales, que estas dos señales de crominancia se podía recoger o transmitir menos información.
00:41:21
No es como RGB que recogía, lo que os acabo de decir, por ejemplo, en el RAW, toda la información píxel a píxel,
00:41:31
sino que se podían comprimir algunos de los canales de este JOOV, ¿vale?
00:41:36
Para que la señal, incluso con menos información, ocupara menos ancho de banda y se pudiera transmitir con más facilidad, ¿no?
00:41:40
Cuando había restricciones de eso.
00:41:49
Entonces, ¿más o menos me vais siguiendo?
00:41:51
Sí, sí.
00:41:57
Vale, cuando ya digamos que se procesa la imagen a nivel informático, es cuando se habla de esas señales U, o por componentes U, a ver, aquí, ¿vale? Digamos que ya, que por supuesto también hay cámaras, ¿vale? Y cámaras que no son de alta gama lo que hacen es, evidentemente el proceso de llegar al sensor, ¿vale? Y con la matriz Bayer está en todos, pero claro, lo que hacen es inmediatamente la interpretan ya para que ocupe menos espacio, ¿vale?
00:41:57
En estos componentes Juve. Digamos, cuando hablo de componentes Juve, hablo de que ya es la imagen con los colores interpolados para que se vean como el ojo humano. Entonces ya está, digamos, con unas compresiones más fuertes porque pretenden retener menos información.
00:42:26
Y aparte, y aquí ya me sirve para hablar de esta columna que tenemos aquí, es que igual que hemos dicho que esta de RAW lo que hace es mantener absolutamente toda la información del sensor, existe, y tenía otra imagen por aquí, lo que se llama, y esto se vio el año pasado, en ese módulo que dije, pero si no lo hablo, que es el submuestreo de color o submuestreo de crominancia.
00:42:43
esto a medida que va avanzando la tecnología
00:43:04
pues será más innecesario
00:43:07
igual que cuando os hablé en su momento
00:43:09
hablamos de el entrelazado
00:43:11
y el progresivo, que el entrelazado ya
00:43:13
se está quedando
00:43:15
obsoleto, porque
00:43:17
digamos que la tecnología que tenemos
00:43:18
puede pintar
00:43:21
o enviar o reproducir
00:43:23
o hay anchos de banda que permiten que la imagen vaya
00:43:25
a cuadro completo y no se tenga
00:43:27
que hacer ese truquito que hacíamos
00:43:29
se hacen la mitad de las líneas primero y luego la otra mitad
00:43:30
Y así de forma intermitente, ¿no? Pues aquí pasaba lo mismo. Si nos fijamos, cada, digamos, píxel de la imagen o de la señal de vídeo, etc., aquí lo vemos compuesto por tres señales. No voy a decir canales, voy a decir señales, ¿vale?
00:43:33
Igual que en el RGB decimos que es rojo, verde y azul
00:43:49
Y según la cantidad de información que tenga cada uno
00:43:52
Pues será un color u otro, ¿vale?
00:43:56
Cuando digo un color u otro también puede ser
00:43:57
Que sea más brillante o menos brillante
00:43:59
O más blanco o menos blanco
00:44:01
Porque os recuerdo que en los sistemas RGB
00:44:02
Al final, si los tres colores están apagados es un negro
00:44:05
Y si los tres colores están RGB encendidos simultáneamente
00:44:09
A un 50% dará un gris intermedio, ¿vale?
00:44:14
Que esto es importante ver
00:44:16
Y ahora lo vemos también en el propio Premiere. Y si los tres están completamente brillantes, dan un blanco. Que hay que pensar en cada píxel como ese conjunto de tres canales.
00:44:18
Aquí lo que se ha hecho es, este cuadradito gris sería la señal de luminancia, luego sería la diferencia de rojo y la diferencia de azul, se llamaría.
00:44:30
que lo que hace es que cuando se combina en relación a la luminancia da los colores, solo con dos señales de luminancia en sí, todo en relación a la luminancia.
00:44:40
Entonces, es posible transmitir la información con absolutamente toda la información o existen formatos, ya heredados también en la era digital, como vamos a ver ahora,
00:44:51
que para reducir, por ejemplo, a la mitad del tamaño de las dos señales que no son la de luminancia,
00:45:03
y estos números lo que dicen es la compresión que tendrán esas tres señales.
00:45:10
Si decimos que se llaman señales compuestas yub, siguiendo ese orden de las letras que tenemos,
00:45:15
la Y teniendo en cuenta que es la luminancia, la U la diferencia de color rojo y la V azul,
00:45:22
O volviendo a este esquema que teníamos aquí, aquí lo hace con IQ, pero si vemos, si lo buscamos por aquí, pues va a haber, bueno, es que en realidad todas beben de esta, ¿no?
00:45:29
A ver si hay alguna que lo nombre como yuf. Si os fijáis, este R-I se refiere a la V y este B-I es a la I. Por eso a veces también lo veréis como R, R-I, B-I, porque el R es el rojo, el B es el azul y es B-I, que es la luminancia.
00:45:50
Y con esa descomposición, luego si se suma, ya se obtiene el color. Incluso estos son el eje de coordenadas que tendríamos de las dos señales de crominancia.
00:46:12
Entonces, si volvemos a esta imagen que tengo aquí, lo que se puede hacer es ir reduciendo información de cada uno de los píxeles para que también se interpolen entre ellos.
00:46:24
Digamos que la luminancia se considera como básica, porque en este sistema Juke todo reside en que en base a la luminancia, si sumamos otros dos ingredientes a esta señal de luminancia de blancos y negros original, de escala de grises de la televisión en blanco y negro, por tener el ejemplo en la cabeza, si le sumamos esto podemos obtener los colores.
00:46:32
Pero no es necesario tener esa información de diferencia de luminancia en cada píxel, en cada cuadrado, en cada bombillita. Se puede ir reduciendo. Incluso, fijaos, 4, 2, 2 es que todos los píxeles tienen esa señal de luminancia y luego cada dos hay una de diferencia de rojo y otra de diferencia de azul.
00:46:53
O incluso hay algunos, como el 411, que lo va haciendo por filas, ¿vale? Y vais viendo la distribución. Esto lo que hace es que, claro, el archivo resultante pese bastante menos, porque tiene que guardar bastante menos información, que supone que, como os he dicho antes, a medida que vamos eliminando información, a lo mejor para el destino final sí que vale, porque ya está el vídeo hecho y lo único que hay que hacer es verse y que se vea en las especificaciones de la plataforma o distribución que tengamos.
00:47:19
Pero si vamos a hacer labores de postproducción, a medida que vamos desechando información, pues tenemos menos posibilidades. Por eso, cuando estamos en Premiere, por ejemplo, uno de los formatos, por ejemplo el QuickTime, aunque en otros también va a aparecer, pero QuickTime es uno de los que más claro se va a ver.
00:47:45
Hay formatos, ahí va, perdón, QuickTime, que dentro de sus códecs tienen estos números, que pone 422, ¿vale? Y esto se refiere a su descomposición en las señales, ¿vale? Y vuelvo un momento al esquema.
00:48:04
Perdona que vaya saltando de un lado a otro, pero, bueno, digamos que estoy intentando hilar varias cosas, dudas que tenga y me decís. Fijaos que los ProRes, ¿vale? Los formatos, los códecs, fijaos que a veces lo digo de manera indistinta, ¿vale? Sería lo correcto, serían los códecs, ¿no?
00:48:20
dentro del formato QuickTime los ProRes
00:48:38
los Codecs ProRes
00:48:41
hay algunos que guardan en
00:48:44
RAW y otros que no guardan
00:48:45
en RAW, que ya están en los componentes
00:48:47
y aquí va poniendo
00:48:49
que los que son RAW no hacen este submuestro
00:48:51
porque guardan toda la información y de hecho es que
00:48:53
no tiene sentido porque RGB guarda
00:48:55
señal roja, verde y azul
00:48:58
en Hue, Luminancia y dos señales
00:49:00
de diferencia que digamos
00:49:02
que descomponen para recuperar los colores, hemos dicho
00:49:03
si vamos viendo
00:49:06
Esto, según la calidad que tengamos, fijaos que el 4.4.4 y el 4 último es una pista de que hay otro canal más, que se refiere a un canal de alfa, que también puede guardar información.
00:49:07
Lo que va a hacer es que a medida que vamos subiendo vais a ver que el peso del archivo va subiendo.
00:49:19
Fijaos que el proxy tiene su muestra de grominancia de 4.2.2, porque no está destinado, está destinado a ser proxy, es de baja calidad.
00:49:25
Pues el peso es mucho menor que, por ejemplo, el 4-4-4-4, ¿vale? Que pesa pues como, no sé, no sé sacar la proporción, pero como 10, bueno, como 7 veces más, ¿vale?
00:49:34
Entonces fijaos eso, que esto sirve para también ir discriminando que cuando vayamos a seguir trabajando en postproducción y estamos haciendo un vídeo,
00:49:49
Por ejemplo, hemos montado un vídeo de un Chroma
00:49:57
Que tiene un Chroma y todavía no se ha extraído el Chroma
00:50:00
Si se lo vamos a pasar a un compañero
00:50:03
Y tenemos que codificarlo de nuevo
00:50:05
Y no partir del original por algún motivo
00:50:07
Pues lo suyo es meterle la máxima información posible
00:50:10
Y en este caso, por ejemplo
00:50:14
Dentro de la familia Apple ProRes
00:50:16
Tenemos los distintos niveles de calidades
00:50:18
Con sus distintos pesos
00:50:21
Y además, este que tiene el cuarto valor
00:50:22
Significa que aparte de los canales
00:50:24
también podemos incluir este alfa, ¿vale? Porque un canal alfa, me salgo un segundo del tema, no deja de ser, bueno, lo he escrito, un canal alfa no deja de ser una imagen en blancos y negros, ¿vale?
00:50:26
Que va diciendo, esto ya lo hemos visto, qué parte es opaca y qué parte es sólida y qué parte es traslúcida, ¿vale? Entonces es otro canal de información de blancos y negros,
00:50:41
Porque nuevamente, cada uno de esos canales es blancos y negros. Lo que pasa es que ya los sistemas informáticos saben que el primer valor es el de rojo, el segundo el de verde y el tercero el de azul, ¿vale? Pero siempre es blancos y negros. Sí, alguien me quería preguntar algo, perdona.
00:50:51
Sí, yo Dani, mira, me surge una duda
00:51:06
cuando estás hablando de los
00:51:09
4.2.2 y 4.4.4 y demás
00:51:10
mi pregunta es
00:51:12
claro, porque yo sé
00:51:16
viniendo del mundo del audio
00:51:17
por ejemplo, te pongo el ejemplo
00:51:18
en el mundo del audio yo sé que por ejemplo
00:51:20
mi pregunta va sobre el tema
00:51:22
de tú puedes pasar
00:51:25
de un 4.2.2 a un 4.4.4
00:51:25
es decir, hay alguna manera de hacer un retorno
00:51:28
hacia atrás, es decir
00:51:30
si tú grabas un archivo en un 4.4.4
00:51:31
Lo bajas de resolución
00:51:34
Para trabajar en postproducción
00:51:38
No, no se puede
00:51:39
Imagínate
00:51:39
Entiendo que es como en el audio
00:51:40
Por ejemplo, yo sé que en el audio
00:51:43
Si comprimo un archivo a un mp3
00:51:45
No lo puedo volver a convertir a un WAV
00:51:47
Es decir, es una manera de compresión destructiva
00:51:49
Efectivamente, eso es
00:51:52
En el vídeo es igual, ¿no?
00:51:53
Eso es, sí
00:51:55
A ver, hay una cosa que has dicho
00:51:56
Que entiendo lo que quieres decir
00:51:59
Pero por poder, tú sí puedes volver
00:52:01
a algo más grande. Lo que pasa es que se va a llenar
00:52:03
de información vacía. ¿Sabes lo que te quiero decir?
00:52:05
Claro, sí. De información inútil.
00:52:07
Sí, yo sé que
00:52:09
por pura informática
00:52:10
yo sé que puedo volver atrás.
00:52:13
Pero no tiene ningún sentido porque el archivo
00:52:15
te va a ocupar más sin información.
00:52:17
Eso es. Y al final es un poco lo mismo también
00:52:19
que con las propias resoluciones.
00:52:21
Si tenemos un Full HD y lo subimos
00:52:24
a un 4K,
00:52:25
sí, el 4K incluso se va a interpolar
00:52:26
y va a intentarlo. Incluso hay algoritmos
00:52:29
Y bueno, tú cuando te metes en Premiere, tú si haces más grande la imagen, pues se va viendo más grande. Es decir, si yo esta la meto ahora en un 4K, se ve qué es lo que pasa. Que claro, tiene que duplicar ciertos píxeles porque tiene que llenar la información. Ahí es cuando empiezan a aparecer los pixelados.
00:52:31
sí que hay a veces algoritmos o hay procedimientos que hacen simulaciones o hacen digamos rellenados
00:52:50
de esa interpolación para que los nuevos píxeles sean como mezclas intermedias a veces si se pueden
00:52:56
hacer ciertas cosas entonces no te puedo decir que nunca se puede volver lo que sí te puedo decir es
00:53:02
que no es la información original es una información que a lo mejor se ha recreado vale
00:53:07
pues eso
00:53:12
Claro, pero respecto a toda la metadata
00:53:15
¿es destructivo? O sea, si tú bajas
00:53:16
la información
00:53:19
Es destructivo. Luego ya es
00:53:21
pues confiar un poco
00:53:24
en los propios softwares que tenemos
00:53:26
pues que a veces pueden ampliar
00:53:28
las posibilidades, pero sí
00:53:30
la respuesta es que no se puede volver, y si se vuelve
00:53:31
es eso, a base de procesos
00:53:34
de recreación o procesos de
00:53:36
con inteligencia artificial también pasará
00:53:38
pues que intenta recuperar la información
00:53:40
pero sí, es un proceso destructivo
00:53:41
Es decir, tú has perdido esa información. Que luego la puedes recuperar recreando con procesos de refinado, no sé. Se puede, pero no. Es como lo que tú has descrito del MP3, exacto. ¿Qué tal hasta aquí? ¿Me vais siguiendo? ¿Alguna duda más? ¿Así por el camino? Vale.
00:53:43
Luego, sigo
00:54:07
La profundidad de bits, esto que hablamos de 8 bits
00:54:09
Y esto es importante una cosa, primera
00:54:12
Que es que cuando se habla de 8 bits
00:54:14
O de 10 bits, o de 12 bits
00:54:16
Se habla de bits por cada canal
00:54:18
¿Vale?
00:54:20
Lo digo nuevamente porque si nos metemos
00:54:22
En Premiere, y vamos aquí
00:54:24
Al ámbito de Lumetri
00:54:26
Y ponemos en 8 bits, ¿vale?
00:54:27
Ojo, que a veces
00:54:30
Puede haber ciertos márgenes, ¿vale?
00:54:31
Para ver si se sale la señal o no
00:54:34
Pero la señal llega hasta el 100
00:54:35
entre el 0 y el 100 es donde se mueve la señal, ¿verdad?
00:54:37
Si vemos una señal de 8 bits, el valor máximo que da es 255, ¿no?
00:54:40
Porque puede dar 256.
00:54:46
Pero ojo, eso se refiere a cada canal.
00:54:48
Realmente, y de hecho, mira, cuando antes daba a exportar,
00:54:50
lo que ponía aquí es 8 bits por canal, ¿vale?
00:54:53
Como tenemos 3 canales en un RGB, en realidad son 24 bits,
00:54:55
que también lo podéis encontrar como una señal de 24 bits.
00:54:59
Lo que pasa es que ahí está sumando lo de las 3 señales.
00:55:02
Pero por convención, se habla que cada señal, cada canal, puede tener una profundidad de bits. Eso es lo primero que quería aclarar. ¿Para qué sirve la profundidad de bits? Voy a poneros un ejemplo que tengo aquí.
00:55:04
Si no me equivoco... Vale, aquí. Básicamente, a medida que vamos aumentando la calidad y el detalle de nuestras imágenes, tenemos que ir subiendo el número de bits, de posibilidades que podemos escribir a nivel informático.
00:55:19
¿Por qué? Normalmente los monitores que hemos tenido hasta ahora, de toda la vida,
00:55:37
se trabajaban en 8 bits y se estaba tan tranquilamente.
00:55:42
Y bueno, podía aparecer algún procedimiento de banding, que es esto que a veces podemos ver,
00:55:45
como que aparecen como artefactos, como que junta varios colores.
00:55:49
Esto pasa a veces si grabamos un cielo, por ejemplo, que hay muchos azules degradados poco a poco de un azul a otro,
00:55:53
y como que faltan detalles en el medio, porque no tiene la capacidad de recrear todo ese número de colores.
00:55:58
Lo que pasa es que el otro día hablamos de que a medida que la tecnología va avanzando, el número de colores y de viveza, de saturación que tenemos, así como el rango dinámico, van creciendo, ¿vale? Entonces, lo que pasa es que esto es a costa de que tenemos sistemas de trabajo audiovisual y de representación a través de monitores, televisores, etcétera, que pueden recrear muchos más niveles de brillo, ¿vale? Y muchos más niveles, muchos más colores, ¿no? En esencia.
00:56:04
¿Qué pasa? Que si vamos metiendo muchos colores y cada vez más, mayor capacidad de colores, pero el monitor que tenemos o la señal que lo transmite no permite ir muestrando el número de colores que hay en medio.
00:56:31
A ver, ¿dónde está esta imagen que tenía yo aquí abierta? A ver, un segundo, aquí, ¿vale? Pues sí, están los colores, pero faltan gradación. Al final lo que hacen los bits es que cada color, cada píxel se representa, o lo que sea, en realidad una profundidad de bits se puede destinar a cualquier elemento, pero significa que son más números, más números de información que puede tener una información, ¿no?
00:56:45
Entonces hay más valores intermedios entre los que moverse. Por eso cuando en los ámbitos de Lumetri nos metemos aquí y lo ponemos como una señal de 10 bits, realmente la señal es la misma, fijaos, ¿vale? Y aquí, muevo un poco, es lo mismo, ¿vale? O más o menos, puede cambiar un poco, pero si yo cambio de... es que tengo que ir un píxel para atrás y para adelante.
00:57:12
Lo que vais a ver que cambia sobre todo es la escala, ¿vale? Porque aquí lo que estamos variando es el número de puntos intermedios que pueden representar esa gradación para que, por ejemplo, no aparezca ese banding, ¿no? Si os fijáis ahora mismo con 8 bits, el máximo son 255, no sé si lo veis, que igual se ve muy pequeño.
00:57:33
Si lo pongo a 10 bits, la representación es la misma y el blanco y el negro son los mismos, pero hay como cuatro veces más números intermedios para gestionar estos valores intermedios.
00:57:51
Un poco como lo que acaba de decir el compañero, a medida que tenemos más valores intermedios o aunque hagamos gestiones destructivas, si tenemos más valores intermedios podemos afinar más también a nivel de postproducción.
00:58:03
Y ojo, esto no sirve para la captación, sino que mientras trabajamos, cuando vamos generando colores o degradados nosotros o hacemos correcciones de color, al ir subiendo el número de bits que están también relacionados con los formatos o con los códecs, si vamos viendo aquí en la tabla, pues también podemos ver la cuantificación, que es el procedimiento de ir asignando distintos valores de bits a la señal.
00:58:22
lo que significa cuantificación, pues pueden tener
00:58:46
según el formato y vais a ver
00:58:49
otra vez que a medida que vamos bajando
00:58:51
la cadena de distribución hasta ya la entrega
00:58:52
en teoría va bajando
00:58:55
es verdad que hay algunos que sí que tienen
00:58:56
mucha profundidad de bits
00:58:58
pues aquí iremos viendo
00:59:00
cuáles son las
00:59:02
profundidades de bits que tienen
00:59:04
hasta ahora todo se ha ido trabajando
00:59:06
normalmente con 8 bits
00:59:08
en lo que se llama SDR
00:59:10
que es Standard
00:59:12
Dynamic Range
00:59:13
No sé si os suenan los sistemas SDR y HDR, ya digo de haber comprado algún monitor, pero la tendencia que se está haciendo es que cada vez se van a tener monitores que son capaces de reproducir más brillo, tener mucho más brillo y aparte que los negros sean más apagados.
00:59:16
Hasta ahora, digamos que las bombillitas o los LEDs, aunque viéramos un negro en la pantalla, aunque yo ponga aquí un negro, este negro, por la construcción que tenían, nuevamente una limitación tecnológica, no llegan a ser negros del todo, no se apagan del todo.
00:59:38
Pero bueno, poco a poco se están desarrollando tecnologías que permiten, la OLED por ejemplo es una de las más famosas, que lo que permite es que los píxeles que no se usen, que estén en blanco puro, pues directamente se apaguen.
00:59:52
Entonces, digamos que el contraste, la distancia que hay entre el negro más negro que se puede ver en una pantalla y el blanco más blanco que se puede ver en una pantalla va aumentando. Y a medida que va aumentando, os vuelvo a recordar que el color al final se basa en la cantidad de brillo que va teniendo cada uno de los píxeles de cada canal.
01:00:03
Si vamos aumentando ese rango dinámico, tiene que ir acompañado o debería ir acompañado nuevamente de este aumento de colores. Todo va un poco de la mano. Por eso, cuando ya llegamos a la ultra alta definición, con esta norma 2020, que lo que hace es ampliar las resoluciones, también el gamut de los colores que puede representar, también se aumenta el rango dinámico, que es otra norma, que es la 2100.
01:00:24
Bueno, no me voy a meter mucho más en esto porque ya es demasiado avanzado, pero digamos que la tecnología va aumentando para que el blanco más blanco que puede dar una televisión, pero que cada vez es más brillante, además tenga entre los valores más gradación, ¿vale?
01:00:51
¿Vale? Luego, de hecho, estos tres primeros, si nos vamos metiendo aquí, ¿vale? Y es una de las cosas también que tenéis que tener en cuenta cuando vayamos trabajando es que hay incluso sistemas de trabajo, como el flotante, de coma flotante, ¿vale? Que lo que hace es que ni siquiera, que tiene valores teóricos a nivel informático absolutos, ¿vale? Por eso va del 0 al 1 con estos decimales, pero no te da un valor de 255, 247 o 1000, como aquí, por ejemplo, en el 10 bits, ¿vale?
01:01:06
Sino que a nivel informático, claro, cuando generamos colores artificiales al ir corrigiendo la señal, ¿vale? Cuando empezamos a variar los colores, digamos que informáticamente se pueden generar otros colores, ¿vale? Que no están captados en la señal.
01:01:35
Entonces, a nivel informático incluso se puede trabajar con valores que en las cámaras no existen, son inexistentes, son a nivel informático. Y luego está lo que se llama el HDR, que ya os digo, no me voy a meter mucho ahí, que ya es un sistema que lo que hace es ampliar hacia arriba, digamos, la capacidad de luminancia que pueden tener como máximo los píxeles.
01:01:51
Si os fijáis, el SDR, que son, por ejemplo, los trabajos en profundidad de bits relacionados con estos tres primeros sistemas de profundidad de bits. El máximo es este uno, que son los 100 nits. Suelto más información por si os la queréis apuntar.
01:02:11
Cuando tenemos un monitor y queremos ver cuál es el brillo máximo que puede emitir una pantalla, se mide en nits, es un valor de medida, que es valor de luminosidad emitida, que no es lo mismo que reflejada como en el cine, que es lo que hace reflejar una tela la iluminación.
01:02:28
En pantallas es este nits. Y nit, también por si queréis profundizar, significa candelas, que es otro nivel de emisión de luz por metro cuadrado. Entonces, en los niveles estándar de SDR llegan hasta los 100 nits.
01:02:49
Ese era el máximo, este 1 máximo. Y ya cuando se vaya trabajando, ya sé, cada vez se va trabajando más y son sistemas más complicados y hay que tener unos monitores HDR, que ya se están democratizando bastante, se incluso podrá ampliar la luminancia hasta los 10.000 nits.
01:03:02
No 10.000 nits es mucho, pero hasta los 1.000 nits, por ejemplo, se puede. ¿Qué significa esto? Que a medida que vayamos trabajando, iremos viendo que los equipos de medición pueden ir variando en función de la profundidad de bits o la amplitud máxima de luminosidad que puede emitir nuestra televisión o nuestro monitor.
01:03:22
Esto es un poco para introducir esto. Y que a medida que se vaya trabajando será necesario contar con más profundidad de bits, que cada información que se guarde tenga más unos y ceros, con el consecuente aumento de tamaño del archivo, por ejemplo, que nuevamente también se suple o se supera porque los ordenadores pueden procesar más información.
01:03:43
Entonces, digamos que el avance tecnológico va por ahí. Entonces, ojo, cuando estéis trabajando, en general, a menos que ya estéis trabajando con vídeos con más profundidad de bits, los suyos que la medición la hagáis en 8 bits, por ejemplo, aquí, o en 10 bits también puede ser.
01:04:06
Esto es lo mismo. Cuando vayáis a trabajar, según el formato en el que estáis trabajando, podéis ver en cuál estáis trabajando. Algunos admiten todo hasta el momento de la salida. Si en una cámara habéis grabado algo a 10 bits, pues lo mismo. A nivel teórico, todo lo que vais a poder trabajar como máximo es 10 bits.
01:04:23
Pero ojo, cuando vayáis haciendo variaciones de color, a nivel informático sí que existen esos valores intermedios, ¿vale? Entonces sí que se puede trabajar a 10 bits, pero lo mismo, si no tenéis un monitor HDR, lo lógico es que solo, por ejemplo, los monitores de ordenador normalmente son de 8 bits, a menos que ya tengáis HDR, que ahí va aumentando.
01:04:41
Y lo mismo, aquí tenemos otra indicación relacionada con el gamut
01:05:02
Que el gamut nuevamente es esto que tenemos aquí
01:05:11
De cuántos colores del espectro se pueden reproducir o gestionar en ese sistema
01:05:15
Si estáis trabajando aquí en Premiere, lo suyo es que lo pongáis en automático
01:05:24
Porque lo que va a hacer en automático es coger directamente el que tenga la secuencia. Si nos fijamos en la secuencia de las propiedades, ya va a tener un espacio de color. Si trabajamos para HD, lo estándar hasta ahora, habrá que trabajar en Rec. 709.
01:05:29
Porque el problema, aunque no va a distorsionar mucho, es que si este vectorscopio, y en este caso estamos hablando de color, por eso el que más nos interesa es el vectorscopio, si este vectorscopio lo vemos en un espacio de color mucho más amplio, como el 2100 que ya se refiere a Ultra HD TV, 2020 o que sea 2100 o 2020, vais a ver que aquí se reduce.
01:05:47
Entonces parece que la saturación es menor, pero el color sigue siendo el mismo, solo que dependerá de dónde estamos viendo este color. Mira, en 2020, ¿no? Fijaos que la tendencia hacia donde tende cada uno de los colores es una, pero cuando clico y se refresca parece que la saturación es menor.
01:06:13
Ojo, hay que verlo en función de cómo estamos trabajando el proyecto
01:06:27
Y en este caso lo mismo
01:06:31
Este proyecto lo estamos trabajando en 709
01:06:32
¿Por qué?
01:06:37
Pues esto es donde hay que equilibrar
01:06:38
Lo primero, si este vídeo lo estamos trabajando ya para televisiones para un destino
01:06:40
Que ya admite algo más allá que el REC 709
01:06:46
Que es lo que admite todo, ¿o no?
01:06:49
Y este vídeo, como se ha renderizado
01:06:50
Fijaos que este vídeo ya está renderizado
01:06:52
En un formato de distribución, que es en este mp4.mob, esto sería el formato, el contenedor, con este códec H.264 y un submuestro de 4.2.0. ¿Por qué? Porque cuando exportamos, a lo mejor, un H.264, si yo, por ejemplo, aquí cojo un H.264, ya este formato está pensado para distribución.
01:06:55
no es un formato no lo vais a encontrar en el listado como uno de los formatos de trabajo de
01:07:19
postproducción vale no va a estar ahí va a estar ya en los de masterización o mejor dicho casi más
01:07:24
de emisión o distribución vale el h 264 está ahí y no lo vamos a tocar entonces con que tenga la
01:07:30
información mínima vale aunque lo admite a veces según como lo trabajemos que pueda tener más
01:07:35
información porque muy muy versátil el 4 la distribución básicamente lo que queremos es
01:07:42
que se vea bien y que pese muy poquito vale entonces pues por ejemplo esa si ya estamos
01:07:48
trabajando en un archivo de que de origen es un h 264 con poca información de color que además está
01:07:53
en un espacio de color ya de rex 709 también vale pues no deberíamos ir a un espacio de color
01:08:00
superior vale deberíamos trabajar todo y por eso os digo de ponerlo automático que ya capta lo de
01:08:06
la secuencia en rec 709 porque cuando configuramos las secuencias vale aquí ya viene que lo llamen
01:08:11
vete es lo mismo vete 709 aquí ya vienen configuradas los ajustes del espacio de
01:08:20
color que aquí también lo vamos definiendo vale entonces por defecto rec 709 digamos que es un
01:08:25
poco la lo que tendríamos que tener como estándar si en algún momento hay que trabajar para ultra
01:08:31
HD, pues ahí hay que ir
01:08:39
estudiando un poco las especificaciones e irlas adaptando
01:08:41
teniendo en cuenta que las imágenes
01:08:43
que nos lleguen también deberían ser en
01:08:45
pues eso, en espacios de color
01:08:46
más amplios, ¿vale?
01:08:49
vale
01:08:52
hasta aquí más o menos
01:08:52
sigo tirando, con resolución se refiere
01:08:54
al máximo tamaño que pueda haber
01:08:57
de esto no voy a hablar mucho, pues un 4K
01:08:58
pues serán resoluciones
01:09:00
que veis que no pone
01:09:02
unas medidas concretas, ¿vale?
01:09:05
cuando aquí pone 1080, por ejemplo
01:09:06
HD 1080 se refiere a un Full HD
01:09:08
de 1920 por 1080
01:09:10
en progresivo, por eso la P
01:09:12
y casi todo ya va a ser progresivo, como os he dicho
01:09:14
aunque aquí ya
01:09:17
donde pone esto de I y P
01:09:18
se refiere a que puede estar tanto trabajando
01:09:20
en entrelazado como en progresivo
01:09:22
no sé si os acordáis en esa práctica
01:09:25
que os puse una I ahí metida
01:09:26
pues se refería a eso, ¿por qué?
01:09:28
porque todavía puede haber
01:09:30
material de archivo que está
01:09:32
en entrelazado y bueno
01:09:34
en la fase de postproducción
01:09:35
puede tener sentido, en la grabación ya vais a ver que el entrelazado no existe
01:09:38
antiguamente se hacía, incluso se usaba grabar entrelazado para hacer efectos
01:09:42
de cámara lenta, pero como ya también se puede grabar a más velocidades
01:09:46
de frame rate
01:09:50
pues ni eso hace falta, ya se graba en progresivo
01:09:53
eso, cuando pone 4K o 2K o 8K se refiere a que
01:09:58
el ancho de la imagen tiene
01:10:02
Algo aproximado a este número de puntos
01:10:05
Si pone 4K será un formato
01:10:08
Que es un 4000 algo
01:10:10
Por otro valor relacionado
01:10:12
¿Vale? De hecho es importante
01:10:14
Cuando vemos el tema
01:10:16
6
01:10:18
En
01:10:19
El principio ¿Vale? Fijaos que
01:10:20
En cine, en los DCPs
01:10:24
Solo hay 6 resoluciones estándares
01:10:26
Que se pueden usar ¿Vale?
01:10:28
Fijaos que cuando dice 4K pues eso
01:10:29
La anchura es siempre alrededor de los 4000
01:10:31
Si es 2K es alrededor de los 2000. Digo que aunque a veces no sepáis exactamente las medidas, es importante que sepáis qué quiere decir esto de 4K y cómo interpretarlo, ¿vale? Ya lo que es la altura dependerá de que sea 2K y también del aspect ratio, por ejemplo, ¿vale? Cuanto más ancho sea, pero menos alto, pues más panorámico, ¿no? Más horizontal va a ser la imagen.
01:10:34
si, me vais siguiendo
01:10:56
si tenéis dudas de algo
01:10:58
me vais diciendo, porfa
01:11:00
luego, lo mismo
01:11:01
vais a ver que en los códex de captación
01:11:04
todos son un píxel
01:11:06
aspect ratio de square pixel
01:11:08
¿vale? de 1.0, es decir
01:11:10
cuadrado, y es que es como
01:11:12
lo de progresivo y entrelazado, ya todo se trabaja
01:11:14
en cuadrado, antiguamente
01:11:16
se usaban los non-square
01:11:18
píxeles o se
01:11:20
anamorfizaban, es decir
01:11:21
cada píxel digamos que hace
01:11:24
el monitor o la imagen se ensanchaban
01:11:26
un poco porque los sensores
01:11:28
por construcción no podían ser más
01:11:30
anchos para grabar imágenes
01:11:32
con ciertas panorámicas
01:11:33
en ciertos formatos clásicos
01:11:36
de los western, el cinemascope
01:11:38
etcétera, entonces se hacían estos
01:11:40
procedimientos de ensanchar un poco la imagen
01:11:42
pero actualmente ya con las
01:11:44
resoluciones que tenemos, esto ya está quedando
01:11:46
obsoleto, sí que se puede usar
01:11:48
para ciertos
01:11:50
procesos de postproducción, pero en principio
01:11:52
¿Vale? Luego, sobre la compresión, bueno, vais a ver que aquí ponen compresión de tipo H2S4, ¿vale? Esos son algoritmos que pueden ser más o menos eficientes y no me voy a meter mucho en, digamos, este primero.
01:11:54
El wavelet es otro tipo de compresión, aún más eficiente y más avanzado para captación sobre todo que el H.264, ¿vale?
01:12:08
Entonces, pues por ejemplo, una compresión H.264 hará las compresiones de una forma menos eficiente que el wavelet, ¿vale?
01:12:18
Para que se os quede ahí un poco el concepto de que wavelet es una tecnología superior, ¿vale?
01:12:26
Pero lo que sí importa a lo mejor es esto de all-E o las que puede que ponga intraframe o las que ponga interframe, ¿vale?
01:12:30
El año pasado también se vio que las imágenes se podían comprimir de dos formas, principalmente, ¿vale? Con la compresión interframe y la compresión intraframe, ¿vale? Cuando se habla de la compresión intraframe se refiere a que cada uno de los cuadrados de la imagen es una compresión que lo que hace, bueno, lo estoy agrandando mucho porque es pequeñita la imagen, ¿vale? Espero que se vea.
01:12:38
Cada una de las imágenes, y podríamos hablar igual en fotografía, pues si por ejemplo tiene un cielo que tiene 8 píxeles pegados del mismo valor de azul, pues para comprimir y que ocupe menos, lo que hace por ejemplo un JPG sería, ¿hay 8 píxeles azules? Pues pongo en lenguaje informático, por supuesto, 8 píxeles azules.
01:13:02
En vez de poner este píxel es de este azul, bla, bla, bla, bla, bla, información. Otro píxel lo que hace es agruparlos y hacer bloques, ¿vale? Para que de forma sí que se pierda información y seguramente si no tuviéramos un ojo humano limitado, pues a nivel informático se vería que se ha degradado la imagen.
01:13:22
Pero bueno, si el ojo humano no lo percibe, pues para algo que es ya para procesos finales de emisión o de verlo, pues da igual, ¿no? Otra vez volvemos al mismo tema. Entonces, ese es el tipo de, que es más pensando casi en fotografía, de compresión, que es la compresión dentro del frame. En cada fotograma ya puede existir una cierta compresión, ¿vale? Pues como se hace en fotografía.
01:13:41
Pero en vídeo, aparte, como está el factor tiempo, que son fotogramas, distintas imágenes que se van reproduciendo durante el tiempo, lo que se puede hacer es una compresión relacionada con, veis que aquí está todo igual este fondo, es todo absolutamente igual porque está estático, menos la pelota que es la que se mueve.
01:14:04
¿Por qué hay que guardar toda la información de cada fotograma? Lo que se hace es que se guarda la información de cada fotograma que se marca como referencia, que se llama E-frame, y lo que se va haciendo es que cada ciertos píxeles se va haciendo un fotograma que se llama P, de Predictive.
01:14:20
se llama, ¿vale? El predictivo, que es una especie de analizando las imágenes que hay entre cada fotograma, se ponen como píxeles, como keyframes, digamos, de referencia, ¿vale?
01:14:43
Para que de ahí luego haya otros intermedios, que son estos de tipo B, que son los bidirectional. Entonces, cada cierto tiempo se va diciendo, vale, si no hay variación en el fondo
01:14:54
o no hay información, todo lo que
01:15:03
se repita pues se coge de este
01:15:07
iframe y lo que se va variando
01:15:10
para ir guardando menos información se va haciendo con esta especie
01:15:13
de cálculos en base a la
01:15:16
diferencia que hay, entonces se van guardando digamos solo los detalles
01:15:19
y como podremos también entender
01:15:22
se va comprimiendo y va ocupando menos la señal en el sentido de que
01:15:24
en cada fotograma no se guarda toda la imagen, solo se guarda en este caso
01:15:28
por ejemplo la pelota mucha menos información que guardar aquí que los dos píxeles son diferentes
01:15:31
los dos son y frames vale entonces cuando vemos en la tabla que habla de all y significa que es
01:15:35
un procedimiento de compresión intra frame porque porque no se hace compresión inter frame sino que
01:15:43
cada compresión se va haciendo fotograma fotograma da igual que a lo largo del tiempo se repitan o no
01:15:50
elementos, todo va a ser
01:15:55
intraframe, all i
01:15:57
es un poco la forma de leerlo
01:15:58
si luego vemos
01:16:01
por ejemplo
01:16:03
ipv, es una
01:16:05
forma de llamarlo a la compresión
01:16:07
interframe, son los píxeles
01:16:09
ipv que os he dicho
01:16:11
entonces está haciendo este procedimiento de comprimir
01:16:13
para que
01:16:15
en cada fotograma vaya guardando menos
01:16:16
información, lo de siempre
01:16:19
en principio
01:16:20
cuanta más información retengamos menos se comprime
01:16:22
y es mejor, pero dependiendo del
01:16:25
oficiente que sea el algoritmo, pues no
01:16:27
no tiene por qué
01:16:29
ser, digamos
01:16:31
destacado para el ojo
01:16:33
humano cuando lo ve. Para procesos de postproducción
01:16:35
sí, y ahora de hecho os doy un par de detalles
01:16:37
más, ¿vale?
01:16:39
Luego, NC por ejemplo es no compression
01:16:41
hay formatos de RAW
01:16:43
que no tienen ninguna compresión porque no es objetivo
01:16:45
hay otros de RAW que tienen cierta
01:16:47
compresión, pero es lossless, aunque
01:16:49
estemos bajando un poco lo que se guarda
01:16:51
digamos que el wavelet, lo que
01:16:53
intenta es, pues eso, guardar
01:16:55
toda la información, entonces es bastante
01:16:57
escasa. Intraframe, pues que
01:16:59
la compresión es,
01:17:01
no es interframe, sino que es
01:17:03
intraframe, que no se hace solo
01:17:05
la de la imagen a imagen.
01:17:07
Sí, alguien ha
01:17:09
levantado la mano, creo. Sí, sí, era yo,
01:17:10
justamente era eso,
01:17:13
en interframe lo que
01:17:15
hace es
01:17:17
coge el iframe,
01:17:18
así como está nativo, no varía
01:17:23
la calidad ni nada, simplemente
01:17:25
el iframe
01:17:27
y en las siguientes lo único que va haciendo es
01:17:28
modificando los píxeles
01:17:31
que no corresponden con
01:17:33
el programa anterior
01:17:35
más que modificando es guardando la información
01:17:37
¿vale? sí, es decir, el iframe
01:17:39
es un frame intraframe, es decir
01:17:41
se hace la compresión que tenga a nivel de
01:17:43
intraframe, ¿vale? de cada fotograma
01:17:45
luego cuando, si ese codec
01:17:47
admite compresión interframe
01:17:49
pues irá haciendo este proceso de
01:17:51
También, nuevamente, interpolación, que esta palabra la uso mucho, pero es esto, hacer la predicción de hacia dónde va y digamos que va haciendo esa, digamos, recreación del movimiento, o mejor dicho, más que recreación es que guarda solo la información que le es útil y el resto pues lo va rellenando frame a frame con los iframes, ¿vale? Sí, es eso.
01:17:53
Vale, entonces, por ejemplo, en un segundo sería un fotograma de iframe y luego los otros 24 de lo que haya guardado, ¿no?
01:18:15
Esto depende porque cuando nos metemos en formatos interframe, como estos que estamos diciendo, por ejemplo, H.264, se me ha puesto otro.
01:18:25
Claro, lo digo porque a lo mejor se puede hacer una escena de A2 o A3 o A4.
01:18:34
Sí, te lo voy a enseñar, dame un segundín. Cuando nosotros tenemos, vamos a, mira, H264, ¿no? Y pone que puede ser interframe, puede ser todo intraframe, puede ser variable, es decir, admite de todo, ¿vale? H264 nuevamente es muy versátil, permite muchas cosas, veis que todo tiene como siempre muchas posibilidades.
01:18:40
Entonces, si vamos, por ejemplo, a exportar algo en esta compresión, se puede hacer al exportar, claro, para que pese más o pese menos.
01:19:01
Hay un concepto que es el del GOP, que es la distancia de píxeles.
01:19:08
A ver, un segundo, si vamos bajando aquí, hay un ajustes avanzados que pone distancias entre fotogramas clave.
01:19:12
Y esto se refiere a los fotogramas clave que son cada cuánto tiempo tiene que hacer, sí o sí, si marcáramos esto, un inframe.
01:19:19
esto es lo que se llama el GOP
01:19:27
el Group of Pictures
01:19:30
de hecho aquí no lo pone
01:19:31
en ningún lado
01:19:34
pero hay un concepto referido a esto
01:19:35
que es el GOP
01:19:38
están saliendo los resultados
01:19:40
pero Group of Pictures
01:19:42
si nos metemos aquí
01:19:44
nosotros podemos decir
01:19:46
limitar a un software que cada ciertos
01:19:48
fotogramas, cada uno de estos es un fotograma
01:19:50
que cada 10 tiene que haber
01:19:52
sí o sí un intraframe para que refresque
01:19:54
digamos la calidad y no sea el algoritmo el que decida cuándo cambia no se puede poner un mínimo
01:19:56
o puede ser variable si no marcamos aquí aquí decimos cada 10 por narices tiene que haber un
01:20:02
frame si no lo ponemos lo irá haciendo de forma selectiva según vaya analizando la información y
01:20:08
si aquí le dijéramos que fuera cada fotograma básicamente le estamos diciendo que sea un all
01:20:14
y que todo sea intra frame entonces la compresión inter frame no la cargaríamos vale entonces sí que
01:20:19
se puede controlar. Si no marcamos
01:20:25
nada y cogemos un formato que admite
01:20:27
compresión interframe,
01:20:29
lo que hará será el
01:20:32
proceso ir haciendo lo que
01:20:32
considera más óptimo.
01:20:35
Por cierto,
01:20:39
me habéis escrito varias cosas y no las he leído.
01:20:40
Perdona. Bueno,
01:20:41
¿te he contestado a la duda?
01:20:43
Sí, sí, sí.
01:20:46
Gracias. Vale. Por cierto,
01:20:48
aquí, esto ya más avanzado, y de hecho
01:20:49
veis que está todo gris, pero esto
01:20:51
de candela, metros cuadrados, de los
01:20:53
nits que os he dicho antes, está relacionado
01:20:55
con el trabajo ya que se podría hacer
01:20:57
con HDR, ¿vale?
01:20:59
Pero eso es un poco más avanzado
01:21:01
Y una pregunta más, ¿y
01:21:03
habría una nomenclatura para ello?
01:21:05
En plan de, vas a hablar con
01:21:07
de editor a editor, pues mira
01:21:09
te voy a pasar un vídeo con Intraframe de
01:21:11
uno cada diez
01:21:13
o algo así, alguna manera de
01:21:15
es como quien dice, tengo una película
01:21:17
de 16 novenos
01:21:19
Sí, a ver, lo que pasa, igual que tú acabas de decir
01:21:21
de 16 novenos, que es una convención
01:21:23
16 novenos, pues porque se usa
01:21:25
y no es 24 séptimos
01:21:27
lo que se habla es, oye, pásame un
01:21:29
ProRes 422 y ya
01:21:31
más o menos
01:21:33
ya viene configurado
01:21:34
cuando tú coges un Codex 422
01:21:37
casi no hay que tocar nada, porque es
01:21:39
digamos como ya está, ya es como el estándar
01:21:41
del 422, ¿no? Pero si alguien
01:21:43
quisiera, sí, quiero un Intraframe
01:21:45
o sí, te diría, lo quiero
01:21:47
un Intraframe, o quiero un GOP
01:21:49
Que también puede ser largo, un long op, que a veces también hay formatos, pues sería que cada cierto tiempo hay que poner un iframe.
01:21:51
Pero yo te lo digo así de tú a tú, yo en todo lo que he trabajado jamás nadie me ha dicho, oye, ponme un iframe cada cinco frames.
01:22:01
Pues no, si te dice un H.264 se entiende que es porque queremos un formato que sea un codec, que sea interframe,
01:22:09
para que pese menos y se pueda gestionar mejor en redes, por ejemplo, o en donde se vaya a emitir.
01:22:16
Que, ojo, también es importante, esto es importante, que cuando se trabaja en intraframe,
01:22:23
hay que tener en cuenta que va a ser más pesado porque no está haciendo el interframe.
01:22:31
Es decir, cuando se dice intraframe es porque se está descartando un poco que es interframe,
01:22:35
si no se diría interframe.
01:22:39
Si en intraframe vamos guardando cada fotograma con la compresión de cada fotograma,
01:22:41
pero toda la información va a pesar más pero es verdad que cuando se trabaja en postproducción
01:22:45
se trabaja en intra frame vale las máquinas lo procesan más rápido porque cuando trabajamos en
01:22:49
inter frame al final la máquina lo que tiene que hacer en todo momento es ir como recreando estos
01:22:56
huecos porque no existe la información de cada frame entonces como consejo si vais a trabajar
01:23:00
en postproducción en un vídeo lo suyo lo suyo es que trabajéis con formatos en intra frame y
01:23:06
Y de hecho, si nos venimos aquí, casi todos van a ser intraframe, si os fijáis, los de intermediación postproducción.
01:23:13
Sin embargo, los de aquí ya pueden ser diferentes, pero fijaos que los intraframe son los que ganan.
01:23:21
Aquí es verdad que puede haber intraframe, si usamos una cámara más doméstica puede haber intraframe,
01:23:29
pero también va a ser normalmente, bueno, puede ser de cualquier tipo, en realidad, según lo configuremos, va a dar las posibilidades.
01:23:36
Pero cuando trabajemos con ordenadores que tienen que ir procesando para reproducir la señal, que no suelo guardarla en un disco duro, sino que es trabajar con ella, veréis que lo normal es trabajar con Intraframe. Cuando se envía algo a internet, pues se sube a YouTube o donde sea, aunque sea Interframe, como YouTube lo va a procesar, porque siempre hace un procesamiento para subirlo a la plataforma, pues un Interframe pesa mucho menos. Entonces ahí suelen ganar esos.
01:23:41
A ver, dudas que veo por ahí
01:24:07
Bueno, alguna duda más, ahora leo las que me habéis puesto en el foro
01:24:11
Más o menos ya está aquí todo dicho
01:24:14
Porque luego ya es hablar de, bueno, soportes
01:24:15
Son las tarjetas, esto sí que es un tema muy largo
01:24:18
Y creo que no me voy a meter
01:24:20
Y en relación un poco con lo que os he ido contando
01:24:22
Vais a ir viendo que la tasa de datos que admite
01:24:25
O lo que va a pesar también, que está un poco relacionado
01:24:28
Pues aumenta o no aumenta
01:24:30
Entonces ha sido una forma un poco rápida
01:24:34
para que sepáis interpretar una tabla como esta, ¿vale?
01:24:37
Una duda, me habéis escrito en el chat.
01:24:42
¿El formato .gif es como H.264?
01:24:45
Vale, cuando, mira, si de hecho...
01:24:49
Bueno, esto se lo han puesto desde hace poco.
01:24:52
Un .gif es un formato y un modo de codificar.
01:24:55
El formato .gif realmente es...
01:25:00
Yo no lo catalogaría tanto de vídeo como de informática. No sé, me explico. El formato GIF es un formato muy reducido de gama de color, que concentra una paleta de color muy reducida para optimizar.
01:25:05
Se pensó hace muchos años para que pesaran poco y admitieran un vídeo con muy poco peso y poder ponerlo en banners y poder ponerlo en internet sin que cuando tuviera que cargar la página, pues se quedara ahí atascado con la carga de una imagen muy pesada, ¿vale?
01:25:20
a nivel profesional no se usa
01:25:35
digo, a nivel de vídeo no se usa
01:25:40
en redes, en whatsapp, en eso, sí, por supuesto
01:25:42
entonces
01:25:45
la pregunta es
01:25:46
¿este contenedor está ligado al formato? Sí, el GIF
01:25:47
está muy restringido
01:25:50
por ejemplo, si nos fijamos aquí
01:25:51
pues vamos a ver, es que
01:25:54
en vídeo, por ejemplo, se hacen con adaptaciones a GIF
01:25:55
realmente es en Photoshop, por ejemplo
01:25:58
donde se puede hacer un GIF viendo todas las opciones
01:26:00
pero
01:26:02
sí es un formato que también se
01:26:03
puede usar para ciertas cosas.
01:26:05
Es decir, tu pregunta no sé por dónde va.
01:26:08
Me has preguntado, ¿este contenedor está ligado al formato?
01:26:09
Es un formato
01:26:12
distinto, .gif. Es decir,
01:26:14
una televisión o un canal
01:26:16
o incluso redes sociales
01:26:17
para contenido audiovisual
01:26:20
no te van a pedir un gif.
01:26:22
Si acaso van a pedir algo de apariencia gif,
01:26:23
que es eso, que tienen paletas de colores
01:26:26
reducidos.
01:26:28
A ver, ¿por qué?
01:26:30
La cosa es, si yo exporto esto, probablemente se vea medianamente bien.
01:26:33
Pero es que no es un formato para audiovisuales realmente, ¿vale?
01:26:40
Voy bajando a ver, ¿todo bien?
01:26:50
HDR, sí, denso, intraframe...
01:26:52
Vale, creo que más o menos he contestado todo.
01:26:54
Ah, vale.
01:26:59
Sí, es un formato, formato GIF, ¿vale?
01:27:02
Y luego ya tiene sus peculiaridades.
01:27:05
Ya os digo, el formato GIF es que de hecho es... aquí vienen opciones porque lo traduce desde lo que estamos trabajando en la línea de tiempo, pero es que es un formato sinformático, aunque admita vídeos, pero no sé, no es un formato de vídeo al uso.
01:27:06
¿Qué tal? ¿Cómo vais hasta aquí? ¿Me vais siguiendo? De hecho ya son las 8.
01:27:24
Sí, sí, todo bien.
01:27:31
Vale.
01:27:33
Yo tenía otra pregunta, Dani, pero bueno, a ver, sigue siendo casi una pregunta muy extensa, lo entiendo, porque... O sea, yo te lo he preguntado más que nada porque a mí me gusta, cuando estudio esto, me gusta conocer bien la base de lo que trabajo, ¿sabes?
01:27:33
Entonces, pues, por eso ha sido un poco la pregunta. Mi otra pregunta que tenía que apuntar también era respecto a las relaciones de aspecto, a los aspect ratios, ¿vale?
01:27:46
Sí.
01:27:56
Cuando estaba estudiando también estos temas me surgían las dudas un poco de cómo funcionan las relaciones de aspecto, porque claro, imagínate que estamos viendo una película o una serie en nuestro ordenador, sé que existen los llamados leather box, es decir, las franjas por arriba y por debajo y los pillar box, izquierda y derecha, ¿vale?
01:27:57
pero claro
01:28:18
mi duda es
01:28:20
¿las relaciones de aspecto
01:28:22
tienen que ver más bien con
01:28:24
la información de la imagen
01:28:27
o más con lo que ocupan en la pantalla?
01:28:28
es decir, por ejemplo
01:28:32
yo tengo un 239
01:28:34
un 239 a 1 que es un formato de cine
01:28:35
con un leather box, es decir
01:28:37
con franjas arriba y abajo
01:28:39
entiendo que la relación
01:28:40
el aspect ratio
01:28:43
es un 239
01:28:45
o es más grande porque tienes el everbox
01:28:47
o cómo es realmente cómo funciona
01:28:50
no, no, no
01:28:52
lo que es el aspect ratio
01:28:52
la proporción de aspecto
01:28:54
que eso además también da pista es
01:28:57
la proporción que hay entre el alto y el ancho
01:28:59
ya está, es decir, puede haber un 16 novenos
01:29:01
de 1920x1080
01:29:04
que también puede haber un 16 novenos
01:29:07
de 1280x720
01:29:10
que un, te voy diciendo más
01:29:13
Pero que un 4K, un Ultra HD, que sea un 4096x2160. Todos son proporcionales, más grandes o más pequeños, pero todos dibujan el mismo cuadrado, la misma apariencia de cuadrado, de proporción.
01:29:15
Son igual de 16 novenos todos. Al final, para lo que sirve el aspect ratio es para determinar cuánto de ancho o de alta es la imagen proporcionalmente en el conjunto de la imagen.
01:29:32
Igual que por ejemplo en los móviles es muy claro que cambia absolutamente que la pantalla sea un 16 novenos o un 9 dieciséisavos, que sería la versión horizontal o vertical, aquí es lo mismo.
01:29:47
Se refiere más a la proporción de las medidas, pero luego esas medidas pueden ser más grandes o más pequeñas, siempre y cuando el tamaño de la caja, ¿vale? Me refiero al tamaño con la proporción entre ancho y alto que salga. No sé si me estoy explicando. Al final lo que significa 16 novenos, por ejemplo, es 16 partes de ancho por 9 de alto. Mientras eso se cumpla, es un 16 novenos.
01:30:02
claro, pero mi duda va más
01:30:29
en cuanto a, ¿cuenta los
01:30:31
píxeles negros si hay
01:30:33
tenemos bandas arriba o por abajo?
01:30:35
es decir, tú si estás sacando
01:30:38
un contenido para una pantalla
01:30:39
16 novenos, pero tú
01:30:41
tienes una película que es panorámica
01:30:43
imagínate que
01:30:45
voy a poner una imagen aquí
01:30:47
con letterbox, que como bien has
01:30:49
dicho, son esas franjas negras que se pueden
01:30:51
añadir o encontrar en la parte
01:30:53
de abajo, ¿vale? esta imagen
01:30:55
Aquí, ahora mismo, si te fijas, de hecho viene muy bien marcado, esta imagen es 2.35 a 1. Si tú lo vas a enviar a una televisión, a ver cómo lo explico, porque la pregunta no es que sea complicada, pero hay que hilarlo fino.
01:30:57
esta imagen es 2.35
01:31:20
¿vale? y si tú lo envías
01:31:22
a un proyector de cine que va
01:31:24
a emitir a 2.35, no le tendrás
01:31:26
que poner letterbox, pero si ese
01:31:28
proyector de cine no puede
01:31:30
no admite 2.35 y si admite
01:31:31
1.85 que es más cuadradito
01:31:34
¿vale? más como lo que estamos viendo aquí
01:31:36
con estas dos franjas ¿vale?
01:31:38
ahí la imagen que le tienes que hacer llegar es 1.85
01:31:39
la solución es que hay que
01:31:42
hacer una adaptación de 2.35
01:31:44
a 1.85 metiéndole las franjas
01:31:45
¿vale? entonces a esa persona
01:31:48
si te le pide esa imagen
01:31:50
se la tienes que enviar ya con las franjas
01:31:52
más que nada porque a veces los reproductores
01:31:53
es que no pueden reproducir más aspect ratios
01:31:56
no están preparados
01:31:58
¿vale? no sé si te estoy contestando
01:31:59
si no, llévame más allá
01:32:02
no, no, no, es que te lo he preguntado
01:32:04
Dani, porque es que el otro día me pasó
01:32:06
o sea, yo que trabajo en postproducción
01:32:07
me surgió esta duda trabajando
01:32:09
porque el programa con el que trabajo yo
01:32:11
me estaba dando un aspect ratio
01:32:14
de unos 78 a 1, un full frame
01:32:16
¿sabes? y luego la imagen me aparecía así
01:32:18
como un 2.35 o un 2.39
01:32:20
entonces me sugiere la deuda y dije, joder
01:32:22
en plan de, ¿por qué
01:32:23
esta relación de aspecto
01:32:25
cuando realmente la imagen no es así?
01:32:28
es justo lo que acabas de explicar
01:32:31
que realmente en mastering
01:32:32
o sea, el master se ha hecho con un leather box
01:32:34
entonces el programa te detecta
01:32:36
que es un full frame 1.78
01:32:38
para que se adapte a tu reproductor
01:32:40
de la televisión, claro
01:32:42
por ejemplo, en cine, que es más restringido porque
01:32:43
que los proyectores son los proyectores. En teles hay millones de cosas, pero en proyectores de cine solo se pueden hacer DCPs,
01:32:45
es decir, contenidos para proyectores en estas seis resoluciones. Es decir, el estándar de cinema, que es el que está implantado,
01:32:51
solo admite estas seis medidas, que veis que en realidad son tres a nivel de aspect ratio, solo que una es para 4K y otra es 2K.
01:33:00
Si tú, por lo que sea, o porque tu cámara también graba a otro aspect ratio, cosa muy muy normal,
01:33:08
lo que habrá que hacer es adaptar el contenido para que ocupe lo que a ti le interesa.
01:33:14
Y es más, tú puede que para el cine tengas un 1.85.1 y luego a la adaptación de televisión habrá que recolocar y reencuadrar para que ocupe lo que te interesa.
01:33:18
Entonces siempre los márgenes, digamos los bordes, se pueden recortar un poco y eso hay que tenerlo en cuenta.
01:33:31
O, por ejemplo, si veis canales como Factoría de Ficción o The Infinity también, veréis que a veces echan contenido viejo, que era a cuatro tercios, ¿vale? Y de pronto lo veis con dos franjas a la derecha y a la izquierda, lo que se llama pillar box, que son las franjas en vez de arriba y abajo en los laterales, ¿vale?
01:33:37
Pues al final lo que tienen que hacer es una adaptación porque la tele se va a ver ya en 16 novenos, que son las teles de ahora, pero el contenido está a cuatro tercios porque en su momento se grabó así y a nadie le interesaba eso.
01:33:54
Ahí hay que pensar si se conserva todo ese cuadradito y se ponen las franjas en los laterales o se escala mucho recortando la parte de arriba y abajo y ocupa todo el ancho de la pantalla.
01:34:07
no sé por qué estoy haciéndolo sobre esta imagen
01:34:20
pero no sé si me entendéis
01:34:22
entonces a veces depende de
01:34:24
simplemente el sistema que se esté usando
01:34:26
pues oye, es que los proyectores
01:34:28
por ejemplo, lo que he dicho
01:34:30
es que solo admiten esas medidas
01:34:32
si no se lo das, te lo va a recortar solo
01:34:34
¿sabes? entonces a veces
01:34:36
se le incluye los letterbox ya directamente
01:34:37
para asegurarse que es esa medida
01:34:40
como tú se la das
01:34:42
al pixel
01:34:43
¿sí?
01:34:44
Sí, Dani, lo único que entiendo es que
01:34:48
el número que te aparece del aspect ratio
01:34:51
es el que se va a reproducir
01:34:54
en el proyector o en la pantalla
01:34:56
por ejemplo, la imagen que tenías antes
01:34:58
del gran cañón
01:35:00
no sé cuál será el aspect ratio
01:35:01
pero imaginemos que es
01:35:04
un 85 a 1, como has dicho
01:35:05
el aspect ratio de esa peli
01:35:08
o de esa imagen será un 85 a 1
01:35:10
claro, es que depende
01:35:12
tú imagínate que tú
01:35:14
lo que has exportado es
01:35:15
una imagen que su aspect ratio
01:35:17
es un 85 a 1, ¿vale?
01:35:21
Y entonces el vídeo, si es esta la imagen,
01:35:23
tiene estas dos franjas, ya el vídeo en sí.
01:35:25
Si tú esto luego lo lanzas
01:35:27
en una tele o en un monitor
01:35:29
que está configurado, que vamos, que tiene unas medidas
01:35:30
más panorámicas de 16 novenos
01:35:33
o de 2.35, si tú ya
01:35:35
le has metido las franjas,
01:35:37
se va a ver con las franjas. ¿Y qué es lo que va a hacer?
01:35:38
Y de hecho los televisores y los monitores
01:35:41
tienen varias opciones del scan mode,
01:35:43
que se llama, que puede ser que
01:35:45
todo se escale para que ocupe todo el ancho
01:35:46
y entonces se deformaría la imagen
01:35:49
o que recorte por arriba o abajo lo que le sobre para que entre uno de los laterales
01:35:50
y cubra entera la imagen, dependerá del monitor o el sistema que estés usando.
01:35:55
Pero si tú exportas la imagen con estos Letterboxd ya,
01:36:00
el vídeo que llega es con los Letterboxd, es el renderizado, ¿vale?
01:36:04
Es decir, si yo saco este fotograma, si yo en Premiere, por ejemplo,
01:36:08
saco para que saque estas bandas negras, esas bandas negras están.
01:36:13
Si tú tienes una imagen muy panorámica, ¿vale? Muy panorámica y lo emites una televisión así cuadrada, si tú pones un modo Fit, no, Fill, mejor dicho, para que ocupe esto, ocupará eso.
01:36:16
Pero mira, es que de hecho te voy a hacer el ejemplo aquí. Cuando tenemos aquí este vídeo, que es un 1920... A ver, espera, lo voy a poner en HDS4. Este vídeo, si voy aquí, sus proporciones son 1920 por 1080, un 16 novenos, ¿no? Sin más.
01:36:30
Y imagínate que yo lo voy a exportar para que en vez de ser su medida sea... ¿Por qué no me deja hacer la medida que yo...? Ah, personalizado. Quiero que sea, ¿vale? Y quito la cadenita para que deje de tener ese Aspelt Ratio. Y empiezo aquí a trastocar y digo, 5.000. Fíjate, aquí se han incorporado dos franjas.
01:36:49
Esto es lo que haría la televisión.
01:37:13
Lo que pasa es que, igual que tienen las televisiones, aquí tenemos varias opciones de,
01:37:15
oye, si no es exactamente las medidas del proyecto, del vídeo, con el de la exportación, ¿cómo hago el relleno?
01:37:18
¿Simplemente lo ajusto para que uno de los lados ocupe todo lo que pueda y ya el resto lo dejo en negro?
01:37:27
¿O hago esto?
01:37:32
Le doy aquí y lo que hago es que el relleno lo hago del ancho en vez del alto, como hacía antes.
01:37:34
Aquí lo que hace es el ancho.
01:37:40
O directamente no, lo que hago es que todo lo que tenía la imagen, todo, que ocupe el cuadro con la consecuente deformación. Esto lo hacen los monitores también.
01:37:42
los monitores me refiero
01:37:55
si tú le metieras el vídeo desde un archivo
01:37:59
por ejemplo, pero tú puedes
01:38:01
decirle también cómo se ajusta la imagen
01:38:03
¿vale? y en tu software donde has visto
01:38:05
eso, probablemente también hay opciones
01:38:07
de
01:38:09
cómo se
01:38:10
escala o se rellena la imagen
01:38:13
que estáis muy en silencio
01:38:15
más o menos me...
01:38:17
Sí, sí, Dani, no, no, perfecto
01:38:19
sí, era eso un poco la...
01:38:21
Eso, y en Factoría de Ficción yo lo he visto muchísimo
01:38:22
En plan, aquí no hay quien viva en cuatro tercios y lo que hacen es, pues lo pasa a otro formato de 1920x1080 o de 1280x720, que son 16 novenos, y han decidido que para que no se deforme, pues meto dos franjas a los laterales y ya está.
01:38:25
Queda horroroso, sí, porque parece que estás viendo una story más que la tele, pero bueno, pues no se preocuparon en el futuro o no lo sabían, aunque en esa época creo que sí, y lo hacían a cuatro tercios y no hicieron másteres a más resoluciones ni trabajaron de otra forma.
01:38:38
entonces pues tienes que sacrificar por algún lado vale pues en principio eso no así lo que
01:38:55
tenía preparado para hoy si no tenéis más dudas por supuesto era esto eso dudas que tengáis como
01:39:03
siempre me podéis escribir en el foro y si puedo la contesta en el foro y si no pues eso es la
01:39:09
próxima tutoría que no sé cuándo va a ser pero tampoco creo que sea en la semana que viene
01:39:14
imagino que será vale o la siguiente como muchísimo por si no ya son los exámenes vamos hablando
01:39:20
Entonces, muchas gracias por asistir y ánimo con ello.
01:39:26
- Subido por:
- Daniel M.
- Licencia:
- Todos los derechos reservados
- Visualizaciones:
- 19
- Fecha:
- 6 de mayo de 2024 - 21:01
- Visibilidad:
- Clave
- Centro:
- IES CIFP a Distancia Ignacio Ellacuría
- Duración:
- 1h′ 39′ 36″
- Relación de aspecto:
- 1.78:1
- Resolución:
- 1920x1080 píxeles
- Tamaño:
- 858.06 MBytes