1 00:00:01,459 --> 00:00:14,960 Es que lo estoy mirando aquí, que lo apunté en un blog de notas, en unidad 5, 1.2, tengo puesto lo de tono y saturación, creo que está al revés, pero es que no especifico más, entonces, es un poco vaga mi duda. 2 00:00:15,619 --> 00:00:27,280 En RMPA, a ver, me meto y voy a compartir pantalla, ¿vale? Que entiendo que no la estáis viendo. Vale, ahora sí que deberíais, y tema 5, me has dicho. 3 00:00:28,019 --> 00:00:29,820 Sí, el punto 1.2. 4 00:00:29,820 --> 00:00:32,420 51.2 Vectorscopio 5 00:00:32,420 --> 00:00:34,100 Sí, esto de aquí 6 00:00:34,100 --> 00:00:37,060 ¿O a qué te refieres? 7 00:00:37,740 --> 00:00:39,060 Sí, imagino que es a esto 8 00:00:39,060 --> 00:00:42,200 Creo que es donde pone el apartado A y apartado B 9 00:00:42,200 --> 00:00:45,000 No sé, o a lo mejor yo lo entendí mal 10 00:00:45,000 --> 00:00:48,880 O algo, pero me apunté justamente para esa tutoría 11 00:00:48,880 --> 00:00:50,320 De que creo que estaba al revés 12 00:00:50,320 --> 00:00:53,619 No, lo que quiere decir esto es 13 00:00:53,619 --> 00:00:55,060 Dentro del Vectorscopio, ¿vale? 14 00:00:55,259 --> 00:00:56,759 Este no es el mismo Vectorscopio 15 00:00:56,759 --> 00:00:58,299 Bueno, este sí es el de Premiere, ¿vale? 16 00:00:58,320 --> 00:00:59,240 Este es el de otro software 17 00:00:59,240 --> 00:01:06,420 pero son bastante análogos. Lo que quiere decir es que muestra dos informaciones relacionadas con la señal de crominancia, 18 00:01:06,620 --> 00:01:13,739 es decir, con el color. Hay dos cosas que ver. Una, en qué ángulo dentro de la circunferencia están 19 00:01:13,739 --> 00:01:19,680 y también cuánto de largo es el vector, es decir, el punto en el que se asienta. 20 00:01:20,280 --> 00:01:25,560 Digamos que el tono, la tonalidad, se ve mejor en el de Premier según el ángulo en el que esté, 21 00:01:25,560 --> 00:01:39,200 que es a lo que se refiere la fase, la posición en grados, se referirá a rojo, a magenta, a azul, al tono, a la tonalidad, pero luego ya lo que es la saturación de ese tono depende de la longitud del vector, 22 00:01:39,340 --> 00:01:47,459 es decir, de hasta dónde se extiende la indicación de dónde se está midiendo ese tono. 23 00:01:47,459 --> 00:01:58,280 Es decir, tú puedes tener un tono rojo y que sea rojo como aquí con poca saturación, que aunque sea un rojo será un rojo muy apagado, con poca viveza de color. 24 00:01:58,819 --> 00:02:08,639 Por ejemplo, si esta zona aquí tiene rojo, apenas se muestra lo que es el tono rojo, entonces la viveza, la saturación es baja. 25 00:02:08,639 --> 00:02:28,000 No es lo mismo que si el tono está en esta longitud que va tendiendo a medida que nos vamos alejando del centro, ¿vale? Que es lo que sería la saturación nula, cero, ¿vale? Pues a medida que nos vamos alejando, que la longitud es mayor, a mayor cercanía con el borde, mayor saturación. 26 00:02:28,000 --> 00:02:29,939 Así que creo que sí está bien, vaya. 27 00:02:30,580 --> 00:02:30,759 ¿Vale? 28 00:02:31,240 --> 00:02:32,340 Lo que quiere decir es eso. 29 00:02:32,400 --> 00:02:35,039 La fase es la posición, como la aguja de un reloj, 30 00:02:35,340 --> 00:02:39,300 hacia la que apunta desde el centro ese vector, ¿vale? 31 00:02:39,300 --> 00:02:41,939 Y luego es la longitud de ese vector, 32 00:02:42,080 --> 00:02:44,960 que es cuánta saturación tiene dentro de ese tono hacia el que apunta. 33 00:02:46,039 --> 00:02:46,439 ¿Vale? 34 00:02:47,219 --> 00:02:47,620 Vale. 35 00:02:47,860 --> 00:02:49,680 Esto hay que tener en cuenta eso, que va por píxeles. 36 00:02:49,680 --> 00:02:53,180 Que aquí hay como una especie de nebulosa de... 37 00:02:53,180 --> 00:02:54,919 ¿Veis mi pantalla, verdad? 38 00:02:55,560 --> 00:02:56,199 Sí, sí, sí. 39 00:02:56,280 --> 00:02:57,740 A ver si estoy aquí señalando algo. 40 00:02:58,000 --> 00:03:05,180 Una cosa es, se ve aquí una nebulosa, pero realmente, digamos, cada punto que va aportando se refiere a un píxel que hay aquí, ¿vale? 41 00:03:05,300 --> 00:03:10,439 Entonces, pues al final hace esta constelación nebulosa, como lo queramos llamar, pero que es un conjunto de píxeles. 42 00:03:11,340 --> 00:03:17,340 De todos modos, ahora, si os parece, también hacemos, habiendo corregido la tarea del tema 5, un repaso. 43 00:03:17,639 --> 00:03:23,080 Sobre todo me interesa, porque además, si no hay así... Digo, ¿te resuelvo un poco la duda ya con esto? 44 00:03:23,759 --> 00:03:24,539 Sí, sí, sí. 45 00:03:24,539 --> 00:03:28,340 En principio está bien, vamos, no veo que sea nada... 46 00:03:28,340 --> 00:03:30,000 Lo habré entendido yo, ¿vale? 47 00:03:30,120 --> 00:03:38,680 Eso es. Es decir, que no... Además, la fase del vector, longitud del vector son términos que, bueno, no son los más intuitivos, pero es así como se llama, ¿no? 48 00:03:38,680 --> 00:03:43,580 Fase, el ángulo y la longitud, la distancia desde el centro. 49 00:03:43,580 --> 00:04:11,520 Vale, ahora de todos modos si os parece eso, viendo la corrección de la tarea podemos incluso ver también algún equipo de medición porque me interesa que sepáis también interpretarlo y seguro que en el examen va a haber algo relacionado, no sé si el art de desarrollo o el art de tipo test, pero va a haber preguntas relacionadas un poco con la interpretación de los equipos de medición. 50 00:04:11,520 --> 00:04:38,300 Bueno, en este caso va a ser en base a ámbitos de lumetri porque usamos Premier, pero bueno, es lo mismo, que en realidad este vectorscopio sí que tiene la desventaja, bueno, que sí que están, que aquí las letras que representan cada color y no es tan claro como aquí, que incluso te marca los cuadraditos de color y es fácil saber si va hacia el rojo o al amarillo, aquí es menos intuitivo, aunque la propia nebulosa está coloreada del propio color, pero bueno, que dependiendo del vectorscopio indican lo mismo en realidad, ¿sabes? 51 00:04:38,300 --> 00:04:45,300 y es una información análoga a todos los equipos de medición de vectorscopia. 52 00:04:46,100 --> 00:04:50,420 ¿Alguna duda más que tengáis de las tareas o algo que queráis que veamos? 53 00:04:50,839 --> 00:04:54,519 Si no, mira, de hecho podemos partir por analizar un par de imágenes 54 00:04:54,519 --> 00:04:58,500 porque hay un par de cosas que quiero que queden aún más claras por lo que he visto. 55 00:04:59,639 --> 00:05:01,759 Sí, oigo por ahí alguien hablando. 56 00:05:01,759 --> 00:05:06,519 Yo tengo unas notas, tengo varias preguntas apuntadas. 57 00:05:06,519 --> 00:05:08,459 pero no sé si, o sea, son de otros temas 58 00:05:08,459 --> 00:05:09,259 vale 59 00:05:09,259 --> 00:05:12,480 si no tenéis nada concreto 60 00:05:12,480 --> 00:05:14,420 de este tema, podemos verlo 61 00:05:14,420 --> 00:05:16,379 de cualquiera, es decir, yo incluso lo que 62 00:05:16,379 --> 00:05:17,100 voy a hablar hoy 63 00:05:17,100 --> 00:05:20,480 no es, está relacionado 64 00:05:20,480 --> 00:05:22,040 con el último tema, que es muy amplio 65 00:05:22,040 --> 00:05:24,139 sobre los delivery, las entregas 66 00:05:24,139 --> 00:05:26,139 tiene que ver con los codecs 67 00:05:26,139 --> 00:05:27,899 por ejemplo, etcétera 68 00:05:27,899 --> 00:05:30,519 entonces no hay problema en que veamos 69 00:05:30,519 --> 00:05:33,100 tus dudas 70 00:05:33,100 --> 00:05:34,420 de hecho, yo creo que 71 00:05:34,420 --> 00:05:36,339 lo más adecuado es que resolvamos las dudas 72 00:05:36,339 --> 00:05:38,439 pendientes y luego ya vamos a otras cosas. 73 00:05:39,060 --> 00:05:40,519 Así que si las tienes por ahí preparadas, 74 00:05:40,660 --> 00:05:41,699 pues cuéntame. 75 00:05:42,439 --> 00:05:43,839 Justo a más lo que acabas de decir. 76 00:05:44,579 --> 00:05:46,560 Cuando he estado estudiando estos días 77 00:05:46,560 --> 00:05:48,420 los temas, sí que me 78 00:05:48,420 --> 00:05:50,199 costaba un poco llegar a entender la 79 00:05:50,199 --> 00:05:52,279 diferencia, que aunque yo 80 00:05:52,279 --> 00:05:54,680 no sé si es lo mismo o 81 00:05:54,680 --> 00:05:56,620 hay cierta diferencia. Debo apuntar 82 00:05:56,620 --> 00:05:58,259 aquí. Diferencia entre formato, 83 00:05:58,759 --> 00:06:00,800 códec y contenedor. 84 00:06:00,800 --> 00:06:02,560 Vale. Es decir, a veces me cuesta 85 00:06:02,560 --> 00:06:04,160 llegar a... 86 00:06:04,160 --> 00:06:06,420 Esa es muy buena, ¿no? Esa es muy buena. 87 00:06:06,819 --> 00:06:14,980 Sí, porque yo que vengo del mundo del audio, yo pensaba que lo entendía, pero claro, en el vídeo veo que funciona todo de manera diferente. 88 00:06:15,199 --> 00:06:24,439 Porque luego, también estudiando parte, creo que entra esto dentro del tema 2, entra el tema de la compresión, interframe, intraframe y todo eso. 89 00:06:24,920 --> 00:06:32,879 Entonces, como que ya me ha costado llegar a profundizar, o sea, he profundizado en ese tema, pero me gustaría hacer la pregunta y lanzar la pregunta. 90 00:06:32,879 --> 00:06:35,040 Me parece muy buena pregunta. 91 00:06:35,060 --> 00:06:39,660 Porque creo que puede llegar a ciertas... o sea, a confundir un poco. 92 00:06:39,959 --> 00:06:45,480 Vale, vamos a ello. Mira, de hecho, uno de los... espera que abro un documento que tenía aquí. 93 00:06:46,040 --> 00:06:50,959 De hecho, mira, os lo he dejado aquí, habréis visto que debajo de lo que es el contenido del tema, ¿vale? 94 00:06:51,480 --> 00:06:57,360 Aunque no lo voy a preguntar en el examen, ¿vale? Aunque esté en la zona de contenido, va a ser materia de examen directamente, ¿vale? 95 00:06:57,360 --> 00:07:00,660 Hay unas tablas aquí que os he dejado de esta web, ¿vale? 96 00:07:00,680 --> 00:07:03,600 Que de hecho la habréis visto en algún momento. 97 00:07:04,500 --> 00:07:09,199 Hay, bueno, pues dos tablas de códex con diferentes especificaciones. 98 00:07:09,319 --> 00:07:14,600 Voy a abrir una de ellas y así también me sirve un poco para ir viendo qué es cada cosa, ¿vale? 99 00:07:14,600 --> 00:07:18,959 No sé si habéis visto este archivo, pero sobre todo es... 100 00:07:18,959 --> 00:07:20,300 Sí, sí, lo he hecho un vistazo por encima. 101 00:07:20,519 --> 00:07:22,180 También de investigación un poco, ¿vale? 102 00:07:22,180 --> 00:07:36,779 Y si os parece, lo que podemos hacer es un poco desglosar a grandes rasgos qué quiere decir cada columna, porque eso además me va a servir para hablar de qué son códecs, de qué es la cápsula, de qué es el formato de la media, ¿vale? 103 00:07:37,199 --> 00:07:49,339 Entonces, si os parece, lo vamos a enfocar por ahí, ¿vale? Pero la respuesta rápida es, el formato, digamos que es, el formato y el contenedor están íntimamente ligados, ¿vale? 104 00:07:49,339 --> 00:08:05,800 Cuando tenemos un vídeo o una imagen, a ver, aquí solo tengo imágenes, pero voy a meter algún vídeo, por ejemplo, dame un segundo y meto en Premiere uno de los vídeos que me entregasteis, por ejemplo, la tarea 5, porque me da un poco igual. 105 00:08:05,800 --> 00:08:08,199 esto por ejemplo, no meto en Premiere 106 00:08:08,199 --> 00:08:09,540 vale, cuando metemos un vídeo 107 00:08:09,540 --> 00:08:12,500 esto es la mezcla de sonido, así que entiendo que es 108 00:08:12,500 --> 00:08:14,660 este, vale, cuando tenemos un vídeo 109 00:08:14,660 --> 00:08:16,220 tiene 110 00:08:16,220 --> 00:08:18,480 por definición un formato que es el que 111 00:08:18,480 --> 00:08:20,519 además suele poner en 112 00:08:20,519 --> 00:08:22,680 la extensión del archivo 113 00:08:22,680 --> 00:08:24,560 si nos fijamos en 114 00:08:24,560 --> 00:08:26,120 el nombre del archivo, vale 115 00:08:26,120 --> 00:08:27,540 tiene un formato 116 00:08:27,540 --> 00:08:30,339 mp4 o mp4, vale 117 00:08:30,339 --> 00:08:31,879 cuando 118 00:08:31,879 --> 00:08:34,379 estamos hablando de formato nos referimos 119 00:08:34,379 --> 00:08:45,740 a esta extensión, ¿vale? Porque el formato y la cápsula, ¿vale? Cuando hablamos de la cápsula es que tiene una especie de, digamos, a ver cómo lo explico, 120 00:08:46,179 --> 00:08:57,700 de configuración informática, ¿vale? Que se puede llamar .mp4, el MOV, el DNX, el MXF, ¿vale? Que permite que luego tenga una configuración 121 00:08:57,700 --> 00:09:05,080 de elementos dentro vale es decir un contenedor barra formato lo que permite es distintos tipos 122 00:09:05,080 --> 00:09:10,059 de configuraciones que puede tener luego el interior vale que se codificará de ciertas 123 00:09:10,059 --> 00:09:15,100 maneras entonces dentro de un nivel superior estaría el formato vale si por ejemplo yo meto 124 00:09:15,100 --> 00:09:19,960 este vídeo para trabajar vale y bueno ya se ha hecho aquí la edición etcétera cuando vamos a 125 00:09:19,960 --> 00:09:28,600 exportar al dar a exportar al final tenemos dos puntos que hablan de lo mismo vale primero el 126 00:09:28,600 --> 00:09:35,019 formato este h 264 porque es verdad que el formato de mp4 vale se llama h 264 pero veis que aquí hay 127 00:09:35,019 --> 00:09:41,620 más formatos por ejemplo pues de los que os he dicho el open xr el incluso hay formatos específicos 128 00:09:41,620 --> 00:09:48,480 de vídeo vale tú has dicho que habla cuando hablábamos de audio vale por ejemplo está el 129 00:09:48,480 --> 00:10:02,779 El formato MP3 o el formato WAV, ¿vale? Digamos que son los que dan la base informática, la cápsula en la que se mete la información que luego se va a reproducir o atesorar en su interior, ¿vale? 130 00:10:03,059 --> 00:10:13,360 Y otra cosa luego que hay en su interior, ¿vale? Y esto, por ejemplo, se vería más en un QuickTime, ¿vale? Si voy a un QuickTime, es que dentro del QuickTime puede haber, ¿vale? 131 00:10:13,360 --> 00:10:16,539 Tenemos un formato QuickTime y puede haber distintos códecs. 132 00:10:17,820 --> 00:10:29,700 Entonces, de hecho, aquí no está, pero incluso dentro de los QuickTimes, en Premiere no está justo, pero dentro de los QuickTimes, o no lo está, puede haber incluso H.264 también, ¿vale? 133 00:10:29,700 --> 00:10:38,200 Es decir, hay veces que un formato y un códec están desarrollados de una forma tan íntimamente ligada, ¿vale? 134 00:10:38,200 --> 00:10:42,860 Porque se desarrolló a la vez el MP4 con su codificación H.2.6.4, ¿no? 135 00:10:43,360 --> 00:10:49,679 Que incluso un distinto contenedor puede estar preparado para codificar la información de distintas formas. 136 00:10:50,340 --> 00:10:59,320 En esencia, creo que la forma para entenderlo es que los formatos se relacionan con esta extensión o con cápsula, ¿vale? 137 00:10:59,379 --> 00:11:05,960 Que genera, digamos, la posibilidad de que tengamos un archivo cerrado con imagen o audio, ¿vale? 138 00:11:05,960 --> 00:11:35,820 Pero luego dentro de cada uno, aparte de las propias configuraciones que le podamos dar, esas configuraciones están relacionadas con las posibilidades que da el códec. Por tanto, habrá un formato contenedor que en su interior puede tener muchos tipos de códecs, ¿vale? Otros, ¿vale? Este, por ejemplo, del QuickTime, puedes tener un códec, y ahora incluso vamos a hablar más de esto, un códec de Apple ProRes 444 o también un 422 o incluso uno que es DNxHR, ¿vale? 139 00:11:35,820 --> 00:11:53,620 Y dices, eso lo ponen los códecs y si buscamos aquí, también sale como un formato, ¿vale? Entonces, una cosa es la cápsula, ¿vale? Incluso, fijaos aquí, esto que pone MXF, si me pongo en este Apple ProRes MXF, me pone que es un MXF el contenedor, ¿vale? 140 00:11:53,620 --> 00:12:09,500 Y si me pongo en este DNXHRMXF, también es un MXF. Entonces, la cápsula es un MXF y, por tanto, el formato es un MXF, pero en su interior la codificación puede atender a distintos parámetros. 141 00:12:09,500 --> 00:12:25,200 ¿Vale? Dependiendo de quién haya desarrollado este códec, pues le habrá un número de posibilidades y de capacidades y, por ejemplo, hay códecs, pues por ejemplo, si vamos a un QuickTime, ¿no? Hay códecs dentro de este punto MOV, ¿vale? 142 00:12:25,200 --> 00:12:49,879 Que aunque el formato sea un .mov, si yo le doy al 4, 2, 2, ¿vale? Por mucho que busque yo por aquí, ¿vale? No hay forma de meter un canal alfa, ¿vale? Vamos a poder meter el RGB, la información de lo que tienen los píxeles en cada uno de los tres canales, pero fíjate que luego yo si pongo, por ejemplo, un Apple ProRes 4, 4, 4, ¿vale? 143 00:12:49,879 --> 00:13:17,799 Que tiene un cuarto número, ¿vale? Ahora vemos también eso. Yo si bajo y voy a la profundidad de bits, sí que me deja meterle otro canal, los tres del RGB, ¿vale? A 8 bits por canal, es decir, cada canal tiene sus 8 bits de profundidad, ¿vale? Y aparte le podemos meter un alfa. ¿Por qué? Porque a lo mejor tenemos una imagen que está ya recortada, como lo que hacíamos de los PNGs en la tarea 3, con los escudos, por ejemplo, ¿vale? 144 00:13:17,799 --> 00:13:34,980 Que los PNG sí permiten, digamos que ese formato PNG sí permite transparencias, pero el JPG no, ¿no? Por ejemplo, aquí lo que permite el formato es que luego las distintas codificaciones también permitan hacer distintas cosas. 145 00:13:34,980 --> 00:13:49,340 O incluso puede haber algunas que pueden contener diversos estándares incluso de rango dinámico, etc. Pues dependerá un poco de las capacidades que tenga el formato y en su interior el códec. 146 00:13:49,340 --> 00:14:00,559 Por tanto, es un poco enrevesado contestar de forma general, aunque creo que es como lo he dado, en el sentido de decir, ¿cuáles son las diferencias entre formato y códec? 147 00:14:00,980 --> 00:14:06,720 Pues es eso, el formato, digamos, que es el contenedor que da las condiciones para luego los códecs que puede desarrollar. 148 00:14:07,120 --> 00:14:13,340 Pero en ocasiones, como este que os digo aquí de H.264, es que el códec que tiene es H.264 también. 149 00:14:13,340 --> 00:14:29,659 Entonces, contenedor y códec están de la mano. Que ojo, este códec también es lo que os he dicho, se puede encontrar, por ejemplo, el DNX-NHR, que es otro de los que permite variar los códecs. 150 00:14:30,000 --> 00:14:42,519 Este no creo que lo tenga, pero ya os digo que en ciertos momentos os puede aparecer incluso que el códec sea H.264 y guardará un H.264, pero en un contenedor de .do, .mov o .mxf. 151 00:14:42,519 --> 00:14:50,039 Entonces, por aquí un poco la primera parte de la respuesta. Ahora seguimos. No sé si me estoy explicando más o menos. 152 00:14:52,039 --> 00:14:53,100 Sí, sí, todo correcto. 153 00:14:53,100 --> 00:15:08,559 Por eso cuando, por ejemplo, en este listado vemos los distintos códecs que tenemos aquí, cuando nos dice que el códec es, por ejemplo, voy a ir a los de intermediación, ahora paso. 154 00:15:08,559 --> 00:15:24,860 Por ejemplo, este ProRes 444, en la parte de media cápsula, lo que hace es decirme cuáles son los formatos, los contenedores. Esto sería un poco lo relacionado con el formato y esto sería lo relacionado con el códec. 155 00:15:24,860 --> 00:15:43,200 Estos son los... Pero fijaos que aún así, claro, si vemos esta columna, todo se resume casi en .mov y .mxf. Igual está un poco lejos, a ver si así lo veis mejor. Son .mov y .mxf, que esos son los contenedores, las cápsulas. 156 00:15:43,200 --> 00:16:10,759 Pero luego los formatos tienen estos nombres genéricos que en su interior tienen ese códec. Entonces es un poco ir conociendo qué es cada uno. Aquí lo bueno de este listado, por ejemplo, es que tenemos dividido todo, y el otro listado también lo está, en códecs de captación, porque las cámaras cuando están grabando tienen que ir guardando la información informática, al final digital, en su tarjeta de memoria, en su disco duro, etc. 157 00:16:10,759 --> 00:16:38,360 Entonces, tienen que ir usando unos códecs que sirvan para captar todo, o deberían tender a intentar captar la mayor información posible de la realidad, que es mucha, que no son los mismos propósitos que cuando, por ejemplo, estamos trabajando en una máquina que igual lo que queremos ya no es tener todos los colores posibles, sino algo más asumible o más manejable para a medida que vayamos trabajando, pues los ordenadores no mueran de tanto procesamiento que tienen que realizar. 158 00:16:38,360 --> 00:17:04,220 Y luego, por supuesto, ya hay otros códecs de masterización o distribución, entre los que está, por ejemplo, la H2S4, cuya cápsula es el MP4, pero veis que también puede ser el .mov, que están limitados en parte, ya no porque tengan que representar más o menos fidelidad en el resultado, sino porque se tienen que atener a la propia plataforma o al propio elemento de distribuidor. 159 00:17:04,220 --> 00:17:19,799 Si subes un vídeo a YouTube, no puedes subir algo con el tamaño que quieras ni con las especificaciones que quieras. Tiene ciertos límites y para eso existen algunos códecs que están optimizados para ser empleados en ciertas plataformas. 160 00:17:19,799 --> 00:17:24,619 Entonces esta sería un poco la primera parte 161 00:17:24,619 --> 00:17:27,420 Luego la complejidad viene 162 00:17:27,420 --> 00:17:30,480 Porque como en toda guerra tecnológica 163 00:17:30,480 --> 00:17:33,039 Hay muchísimos desarrolladores y fabricantes 164 00:17:33,039 --> 00:17:35,859 Que van desarrollando sus estándares 165 00:17:35,859 --> 00:17:38,500 Y luego que también se van aliando 166 00:17:38,500 --> 00:17:41,920 Con ciertas plataformas de distribución 167 00:17:41,920 --> 00:17:43,180 O con ciertas televisiones 168 00:17:43,180 --> 00:17:48,359 Y al final unas van prevaleciendo sobre otras 169 00:17:48,359 --> 00:18:12,299 Y bueno, pues van haciéndose unas más, digamos, más estándares que otras, ¿no? Aquí, por ejemplo, los códigos de captación cámara claramente están muy vinculadas, la mayoría, ¿vale? Con marcas comerciales. Red, por ejemplo, es una marca de cámaras de cine. Arri es otra. Sony, por supuesto, es otra que os sonará. Estas de aquí también son de Sony. Bueno, de hecho, estoy apuntando a donde no es porque aquí os ponen los fabricantes. 170 00:18:12,299 --> 00:18:36,799 Apple incluso tiene, porque aunque en principio no trabaja, tiene sus cámaras, por ejemplo, tiene muchas en dispositivos móviles, pero incluso los desarrolladores de sistemas operativos también tienen que tener gestores de vídeo y de formas de codificar y de decodificar lo que es la información de imagen y de vídeo. 171 00:18:36,799 --> 00:18:54,420 Entonces veis que todas están aquí desarrollando sus propios códecs. Además, quizá os sirva, esto viene de los apuntes, viene de la palabra codificador, decodificador. 172 00:18:54,420 --> 00:19:05,299 Es el punto en el que se gestiona esa información informática. Esos son números 1 y 0 binarios que contienen al final la información con la que trabajamos. 173 00:19:05,299 --> 00:19:10,200 Entonces, bueno, sí, decidme 174 00:19:10,200 --> 00:19:13,500 Claro, Dani, pero sí, un apunte solo en este momento 175 00:19:13,500 --> 00:19:21,059 También investigando, vi que estos códecs generan una compresión 176 00:19:21,059 --> 00:19:23,420 Y claro, justo ahora que has hablado de lo de códec 177 00:19:23,420 --> 00:19:28,240 Yo sí que evidentemente estudiando he aprendido que es codificación-descodificación 178 00:19:28,240 --> 00:19:33,400 En este proceso de codificación-descodificación se produce una compresión de la imagen 179 00:19:33,400 --> 00:19:50,099 Porque claro, yo que vengo del mundo del audio, yo sé que un archivo WAV es un archivo sin comprimir. Entonces, claro, investigando un poco sobre esto, creo que llegué a entender que todo archivo de vídeo, todo códec de vídeo, está comprimido en cierta parte. 180 00:19:50,099 --> 00:20:07,640 Sí. Mira, os voy a enseñar una imagen. Un segundete. Sí, lo que varía es el tipo de compresión que tiene y también cómo se gestiona la señal que lleva, por ejemplo, en estos códices que estamos hablando aquí de cámara, cómo llega y gestiona la cámara. 181 00:20:07,640 --> 00:20:36,259 Te voy a poner una imagen que tengo aquí, pero sí, hay compresión. Lo que pasa es que hay compresiones que se definen como, y estos son conceptos que se pueden buscar y podemos desarrollar ahora, como lossless, que es como una compresión que intenta, aunque la compresión al final existe en el sentido de que el propio procesamiento de la señal, aunque intente contener absolutamente todo detalle, ya hace una cierta compresión siempre. 182 00:20:36,259 --> 00:20:52,960 Entonces siempre hay una pequeña compresión. Lo que pasa es que están las compresiones que se conocen como lossless, que son compresiones, pero bueno, que esto también existe en informática, que intentan mantener toda la información. 183 00:20:52,960 --> 00:21:10,160 Y no es tanto lo que intentan priorizar, la compresión se suele hacer para reducir el peso de los archivos y que sean más manejables, pero incluso aunque pesara lo que tiene que pesar porque es algo muy grande, los LOSDES lo que intentan es que mantengan absolutamente toda la calidad. 184 00:21:10,160 --> 00:21:31,519 Luego hay otros tipos de compresiones que intentan ser extremadamente eficientes, pero sí que reduciendo un poquito el peso, que son las compresiones que se llaman LOSI, que ahí sí que intentan sacrificar quizá cierta información que muchas veces no es perceptible para el ojo, 185 00:21:31,519 --> 00:21:42,680 pero sí que reducen un poco la calidad realmente a nivel informático, porque tiene menos información, sí que reducen algo el peso. 186 00:21:43,099 --> 00:21:57,400 Por ejemplo, la analogía con el audio es que el WAV, como dice, no tiene compresión, o tiene mínima, porque ya os digo que un simple algoritmo que está gestionando esta información hace cierta compresión siempre, 187 00:21:57,400 --> 00:22:18,720 Pero el MP3, por ejemplo, aunque evidentemente es un formato que intenta comprimir la información para que se pueda generalizar su uso en cualquier tipo de soporte, al final lo que intenta es hacer una compresión selectiva que lo que comprima más sea lo que el oído humano no percibe. 188 00:22:18,720 --> 00:22:23,380 Y por eso hay distintas, es adaptativa, por eso hay ciertas frecuencias que comprime más que otras. 189 00:22:24,019 --> 00:22:25,140 Digamos que es un poco eso. 190 00:22:25,640 --> 00:22:30,140 Los formatos que tienen poca compresión, que intentan no tenerla, son estas loss y lossless. 191 00:22:30,440 --> 00:22:31,559 Pero compresión tienen todas. 192 00:22:32,259 --> 00:22:37,240 Lo único que sí, y esto es importante, es que cuando captamos un vídeo o una fotografía, 193 00:22:37,380 --> 00:22:41,539 está lo que se llama el concepto de la imagen en RAW, en crudo. 194 00:22:41,900 --> 00:22:43,500 Y espera un segundo porque busco esta imagen. 195 00:22:43,500 --> 00:22:53,640 Mientras lo busco, si quieres, digo que no sé si he complementado eso que habías leído o sigues teniendo dudas, pero eso, te voy a enseñar ahora una imagen. 196 00:22:54,660 --> 00:23:03,660 Sí, sí, o sea que del propio proceso de la señal de analógica digital entiendo que ya genera cierta compresión, aunque evidentemente no la notemos. 197 00:23:03,660 --> 00:23:22,299 Claro, cuando la compresión es simplemente, voy transcribiendo la señal, la onda del sistema analógico, que sea onda de sonido o ondas electro-luminosas, al final lo que hace intentar es traducirlo todo. 198 00:23:22,299 --> 00:23:33,420 Pero si ya de primera descarta, y ahí hay cierta compresión en la información a la que va escribiendo, digamos que ya se van también a veces rechazando datos. 199 00:23:33,420 --> 00:23:50,039 Pero si, a ver, espera que abro la imagen, si digamos que la compresión ya intenta reducir el número de archivos, digamos, de dígitos que tiene informáticos binarios que tiene esa imagen, ya hay estación de la compresión. 200 00:23:50,039 --> 00:24:15,500 Entonces sí, si es selectiva, pues no se notará. Sí que se puede notar y a veces es lo importante entender que aunque para el ojo humano sea muy, muy válida la imagen y la comprensión la haga muy bien, se entiende que si se van a hacer procesos de postproducción profesionales o muy avanzados, contar con toda la información, aunque incluso luego ni se emplee, es preferible a desecharla, a comprimirla, 201 00:24:15,500 --> 00:24:21,079 porque cuando vamos variando los valores o se va haciendo, por ejemplo, una corrección de color, 202 00:24:21,619 --> 00:24:26,059 al ir virando los colores, en este caso la información de crominancia, 203 00:24:26,640 --> 00:24:30,799 cuanta más información tengas intermedia, más posibilidades tienes de ir variando el color, 204 00:24:31,400 --> 00:24:35,279 en este caso, en este ejemplo, sin que se afecten los artefactos. 205 00:24:35,279 --> 00:24:43,220 Por ejemplo, por poner la analogía con el audio, la frecuencia de muestreo típica es 48 kHz 206 00:24:43,220 --> 00:24:52,819 y a nivel teórico el oído humano lo va a escuchar ya todo, porque a partir de los 20 kHz ya no escucha nada. 207 00:24:53,099 --> 00:24:59,740 Entonces por el Nyquist se capta todo, ya está ahí recogido los 48 y los 4400 también kHz. 208 00:25:00,420 --> 00:25:05,539 Pero existen, por ejemplo, frecuencias de muestreo como el 96 kHz, 209 00:25:05,539 --> 00:25:07,720 que aparte de que para 210 00:25:07,720 --> 00:25:10,039 audiófilos 211 00:25:10,039 --> 00:25:11,759 gente que tiene equipos 212 00:25:11,759 --> 00:25:12,839 extremadamente buenos 213 00:25:12,839 --> 00:25:15,640 y bueno que sí que hay frecuencias que incluso 214 00:25:15,640 --> 00:25:17,140 también se pueden sentir con el cuerpo 215 00:25:17,140 --> 00:25:19,640 etcétera, sobre todo es porque a nivel 216 00:25:19,640 --> 00:25:21,839 luego de postproducción pues si metes 217 00:25:21,839 --> 00:25:23,220 por ejemplo un 218 00:25:23,220 --> 00:25:25,920 pues si ralentizamos 219 00:25:25,920 --> 00:25:27,180 ¿vale? o hacemos una 220 00:25:27,180 --> 00:25:29,599 conversión que ralentice digamos 221 00:25:29,599 --> 00:25:31,599 la velocidad del pitch ¿no? la velocidad de 222 00:25:31,599 --> 00:25:33,420 reproducción del audio, al final 223 00:25:33,420 --> 00:25:34,579 tener más 224 00:25:34,579 --> 00:25:37,000 sampleo, lo que hace es que 225 00:25:37,000 --> 00:25:38,980 aunque lo estires, claro, el sampleo, la subida 226 00:25:38,980 --> 00:25:41,279 y bajada de la amplitud, al extenderla 227 00:25:41,279 --> 00:25:42,880 pues sí que guarda más 228 00:25:42,880 --> 00:25:44,480 información y se degrada menos, ¿no? 229 00:25:44,539 --> 00:25:46,960 O tiene más posibilidades. Pues digamos que aquí 230 00:25:46,960 --> 00:25:48,619 pasa un poco lo mismo a nivel de 231 00:25:48,619 --> 00:25:50,079 información. 232 00:25:51,299 --> 00:25:53,039 ¿Vale? Pero ya incluso 233 00:25:53,039 --> 00:25:54,640 que esto 234 00:25:54,640 --> 00:25:56,900 se adelantó como el año 235 00:25:56,900 --> 00:25:58,819 pasado, ¿vale? Y se ven otras asignaturas 236 00:25:58,819 --> 00:26:00,900 pero entiendo que sabéis lo que es 237 00:26:00,900 --> 00:26:02,720 la matriz de Bayer, ¿vale? Esto 238 00:26:02,720 --> 00:26:05,359 Entiendo que sí que sabemos lo que es 239 00:26:05,359 --> 00:26:06,900 Si no, decidme 240 00:26:06,900 --> 00:26:08,680 Porfa 241 00:26:08,680 --> 00:26:11,359 No, yo no, Dani, pero si te he visto el año pasado 242 00:26:11,359 --> 00:26:13,380 No, bueno, sí que se vio 243 00:26:13,380 --> 00:26:14,960 Pero es de esas cosas que 244 00:26:14,960 --> 00:26:17,079 Como es un poco técnica se vio y probablemente 245 00:26:17,079 --> 00:26:18,799 La gente no lo recuerde mucho 246 00:26:18,799 --> 00:26:21,640 Pero básicamente, los sensores de la cámara 247 00:26:21,640 --> 00:26:23,000 ¿Vale? De una cámara de vídeo 248 00:26:23,000 --> 00:26:25,220 Que capta imagen, o de foto 249 00:26:25,220 --> 00:26:27,319 También sería lo mismo, se compone de lo que se llaman 250 00:26:27,319 --> 00:26:29,539 Fotositos, que son distintos cuadraditos 251 00:26:29,539 --> 00:26:31,319 ¿Vale? Que hacen lo que se llama una matriz 252 00:26:31,319 --> 00:26:36,940 de Bayer. Y la matriz de Bayer se llama así porque cuando Bayer la desarrollara, entiendo 253 00:26:36,940 --> 00:26:46,319 que fue Bayer, la verdad que creo que es este el motivo, lo que se optó por hacer es que 254 00:26:46,319 --> 00:26:51,700 las cámaras, se entendió que lo que había que hacer era captar por separado las distintas 255 00:26:51,700 --> 00:26:59,299 frecuencias de luz. El ojo humano está compuesto por distintos tipos de células, la retina, 256 00:26:59,299 --> 00:27:28,319 Bueno, los conos y los bastones, que unas captan lo que son la luminosidad y otras las que captan la crominancia. Y estos conos que captan la crominancia, en la teoría tricromática, hay algunas otras, lo que dicen es que todos los colores en nuestro ojo, mejor dicho, casi en nuestro cerebro, se procesan en parte a la estimulación de tres tipos de conos que tenemos, que cada uno es sensible al rojo, al verde y al azul. 257 00:27:29,299 --> 00:27:50,839 Bueno, lo que sí que pasa es que la proporción de conos que son sensibles a uno a otro no tiene por qué ser equilibrado, ¿vale? Y además, digamos que el color verde, por la evolución humana y también porque es el color que se encuentra en el centro, si vemos frecuencias visibles al ojo, bueno, ¿vale? 258 00:27:50,839 --> 00:28:00,259 Si nos fijamos, si vemos este espectro de la luz visible, ¿vale? El color o los tonos que están en el centro son los verdosos, ¿no? El verde. 259 00:28:00,779 --> 00:28:11,319 Entonces, por cálculos que se hicieran, se optó por que hubiera distintos fotositos sensibles a la luz, que también en algún momento se les puede llamar píxeles, ¿vale? 260 00:28:11,319 --> 00:28:20,480 Y el sensor está compuesto por un conjunto de, digamos, fotositos de cavidades diminutas, ¿vale? Que tienen delante un filtro de un color. 261 00:28:20,839 --> 00:28:46,680 Que puede ser verde, azul y rojo. ¿Por qué? Porque como he dicho, nosotros no es que veamos el color, un morado y nos llega el morado al ojo, sino que lo que está pasando en nuestro ojo es que distintos conos, distintas células sensibles a distintas frecuencias, se estimulan y dependiendo del nivel de cada uno de esos tres tipos de colores, pues nosotros lo percibimos como un color. 262 00:28:46,680 --> 00:29:03,839 Es decir, somos sensibles solo a tres colores en realidad, ¿vale? Y dependiendo de la variación de sensibilidad que perciba nuestro ojo, pues se van interpretando o interpolando distintos colores, ¿vale? Hasta aquí más o menos me sigue entiendo, ¿vale? 263 00:29:03,839 --> 00:29:20,160 Entonces, digamos que este sensor que tenía aquí una imagen, ¿vale? Si lo viéramos microscópicamente está compuesto por una matriz de colorines, ¿vale? ¿Por qué? Porque estos filtros solo dejan pasar la longitud de onda de este color, ¿vale? Cuando tenemos un filtro, bueno, aquí está. 264 00:29:20,160 --> 00:29:39,720 Llega aquí la luz con toda la riqueza espectral de todas las frecuencias que contiene y solo dejará pasar el rojo. Entonces, cuando llega una luz que es muy verde, pues los fotositos que tengan el filtro verde sí se cargarán de energía, los de azul no, ¿vale? O los de rojo tampoco, o tendrán menos. 265 00:29:39,720 --> 00:29:57,380 Y por tanto los píxeles finalmente se traducirán como más verdes, ¿vale? Porque es la, digamos, de la tricromía, pues es la que ahí se está estimulando más, la relativa al verde. ¿Vale? Pero ¿qué es lo que pasa? Y si nos quedamos aquí, que este sensor tiene esta matriz de Bayer, ¿vale? Que la tenía aquí. 266 00:29:57,380 --> 00:30:21,180 Y entonces, a nivel informático, a nivel, bueno, a ver, rechazar la matriz de Bayer, la tenemos aquí, ¿vale? Si este es el sensor de nuestra cámara, al final lo que ha guardado nuestra cámara es un conjunto de píxeles, por decirlo así, ¿vale? De cuadraditos rojos, verdes y azules. 267 00:30:21,180 --> 00:30:42,000 En primera instancia, lo que ve la cámara es esto. Una imagen parecida a esto, que corresponde. Dependiendo de cuánta intensidad, aquí se percibe que es un ojo, pero realmente es un conjunto de píxeles rojos, verdes y azules con más o menos intensidad. 268 00:30:42,000 --> 00:30:54,640 ¿no? En Domínica que ha captado. ¿Vale? Entonces, para la cámara, en primer paso, lo que tenemos es esto. Antes de hacer lo que se llama la debayerización, ¿vale? 269 00:30:54,660 --> 00:31:03,160 Que es que esta matriz debayer se interpreta para que cada píxel coja el color, digamos, interpolado de lo que tenemos aquí. Al final esto es una especie de buscamina, ¿no? 270 00:31:03,160 --> 00:31:08,019 Que si recordáis, si dábamos clic a uno nos decía cuántas de las casillas de alrededor tiene una mina. 271 00:31:08,019 --> 00:31:20,220 Pues aquí es igual. Cuando vaya a hacer el siguiente proceso de aplicar esa interpolación de colores y convertirla en una imagen que se parece a lo que nosotros percibimos, 272 00:31:20,619 --> 00:31:27,180 lo que está haciendo es interpolar cada casillita, cada fotosito, cada píxel con la información que tiene alrededor y así obtiene. 273 00:31:27,180 --> 00:31:45,799 Ah, pues esto es un, yo qué sé, un verde apagado o un cian o un blanco si está completamente cargado, ¿vale? Que esto es lo que hablábamos el otro día de que cuando veíamos el monitor forma de onda, si los tres, digamos, canales están arriba, lo que están creando es un blanco, ¿vale? 274 00:31:45,799 --> 00:31:50,500 Porque cuando se van sumando los tres colores, por suma aditiva, al final es un blanco. 275 00:31:51,019 --> 00:31:52,539 Entonces, ¿qué es lo que pasa? 276 00:31:52,660 --> 00:31:57,140 Que cuando estamos viendo, y vuelvo al listado que teníamos aquí, las tablas de códex, 277 00:31:57,680 --> 00:32:01,079 hay muchas que hablan sistema de color RGB, ¿vale? 278 00:32:01,079 --> 00:32:08,059 Y vais a ver que siempre están relacionadas las que pone RGB con el muestreo RAW o crudo, ¿vale? 279 00:32:08,059 --> 00:32:12,000 Que ya algo se deja, se entrevé en los apuntes, ¿vale? 280 00:32:12,000 --> 00:32:34,119 El formato RAW es guardar por completo, intentando que no haya comprensión ni iluminación, que a veces la hay, pero intentando que la información que ha llegado al sensor, es decir, parecida a esta, porque ojo, aquí también estamos viendo que esto está coloreado en rojo, en verde y en azul, en relación a los filtros que tiene cada uno de los fotositos del sensor. 281 00:32:34,119 --> 00:32:51,180 Pero realmente la cámara tampoco está percibiendo los colores. Lo que percibe son blancos y negros. Lo que pasa es que el sensor está construido para que todo lo que llegue de esa luz a este cuadradito, este píxel, es rojo. Y si lo interpolas con el resto, pues dará otro tono. 282 00:32:51,180 --> 00:33:11,940 Pero realmente los colores como tal para una cámara no existen. Existen en base a que hay tres canales que se mezclan y se interpretan en conjunto, pero realmente aquí se está cargando de una información relacionada con la intensidad que está llegando, una longitud de onda específica de la luz. 283 00:33:11,940 --> 00:33:29,160 ¿Vale? Hasta aquí estamos. Entonces, cuando vemos este tipo, sobre todo en la parte de captación, las cámaras, ¿vale? Y suelen ser las cámaras que pueden gestionar más información porque esto es muy pesado, guardar absolutamente toda la información de un sensor, ¿vale? Por píxel, ¿vale? 284 00:33:29,160 --> 00:33:47,180 Esto es lo que nos permite guardar la información en crudo, por eso lo he errado en la traducción de crudo en inglés, y permite tener separado en los componentes de RGB toda la información antes de mezclarla y de hacer esa interpolación para que nosotros veamos la imagen como queremos. 285 00:33:47,180 --> 00:34:05,539 ¿Qué significa eso? Que tenemos exactamente la información que llega al sensor esperando a ser interpretada. ¿Y esto qué es lo que supone? Que nosotros luego podremos trabajar, por ejemplo, en Lumetri de Premiere, como habéis hecho el otro día, con mucha más capacidad de virar los colores. 286 00:34:05,539 --> 00:34:15,699 cuando estuvierais haciendo la tarea 5, por ejemplo, la que estaban los dos chicos haciendo como una flexión, 287 00:34:16,199 --> 00:34:26,820 si virabais un poco los colores, como esa imagen ya estaba codificada en un códec que ya había realizado la interpolación 288 00:34:26,820 --> 00:34:33,559 y lo había convertido en un sistema de color basado en componentes U, ahora hablamos más de esto, 289 00:34:34,360 --> 00:34:39,320 pues de pronto empezaban a aparecer bandings, es decir, como manchas o artefactos, ¿vale? 290 00:34:39,519 --> 00:34:41,360 Como que el color no daba más de sí. ¿Por qué? 291 00:34:41,420 --> 00:34:46,179 Porque digamos que ya está reducido, ya está comprimido, ya está interpretado para ocupar poca información. 292 00:34:46,699 --> 00:34:48,619 Entonces, no hay mucho margen de maniobra. 293 00:34:48,619 --> 00:34:52,019 Hay cierto margen, pero bueno, pues no... 294 00:34:52,019 --> 00:34:56,619 Ya digamos que es como el ejemplo que yo he puesto en otras ocasiones, es como tener... 295 00:34:57,239 --> 00:35:00,739 Igual no es el mejor ejemplo. A ver, bueno, como si vamos a hacer un gazpacho 296 00:35:00,739 --> 00:35:05,900 y tenemos todos los ingredientes antes del gazpacho y es, en Rao, un gazpacho en potencia, 297 00:35:06,039 --> 00:35:11,739 tenemos los tomates, el pan, el pepino, que es muy fácil todavía medir qué metemos de cada cosa, 298 00:35:12,059 --> 00:35:15,940 pero una vez ya lo hemos mezclado y lo hemos hecho gazpacho, ya es casi imposible sacar el pepino, 299 00:35:16,159 --> 00:35:20,679 ya no se puede volver atrás, entonces se le puede echar un poco más de pepino, un poco más de sal, 300 00:35:21,139 --> 00:35:24,599 pero la mezcla está hecha, la maniobra está reducida. 301 00:35:24,599 --> 00:35:47,179 Entonces, digamos que una forma también de trabajar de manera que comprenda lo máximo de información, independientemente ya de la compresión que puede tener, que en ocasiones puede tener ninguna, pero incluso algunos formatos ROSE, luego se puede ver cómo lo guarda, porque son estos formatos que son ROSE, pueden tener algo de codificación. 302 00:35:47,179 --> 00:36:16,619 Y sigue siendo esa matriz de Bayer, digamos, guardada de la información del sensor. Pero bueno, hay ciertas compresiones, ¿vale? Estas compresiones lossy que se pueden considerar aceptables incluso para trabajar luego en postproducción, ¿vale? Como siempre, se supone que si no hay ninguna compresión, pues se completamente guarda todo y la flexibilidad es máxima, ¿vale? Digamos que tenemos todos los ingredientes antes de cocinarlos, ¿vale? 303 00:36:16,619 --> 00:36:43,739 Luego ya una vez, y por eso a medida que vamos bajando y vamos yendo a sistemas que son más de distribución, ¿vale? Veremos que ya esta posibilidad de tenerlo por separado, la información RGB en este sistema tricromático, digamos, análogo al del ojo, ¿vale? Pasa a ser ya lo que son componentes JOOP, que también a veces se puede encontrar como C, bueno, esto creo que es más liar que otra cosa, 304 00:36:43,739 --> 00:37:05,880 pero también CPBR, sistema de color, vamos allá, ¿vale? Bueno, creo que esta página no es la que más nos va a ayudar, pero vamos a, pues mira aquí, por ejemplo, esta es una, es otra, ¿vale? 305 00:37:05,880 --> 00:37:17,340 Ya os dije el otro día que hubo un momento en el que la televisión, cuando empezó a ser televisión, no se basaba en los colores. La televisión y la fotografía eran blanco y negro. 306 00:37:17,340 --> 00:37:46,579 Entonces en ese caso la matriz de Bayer no tenía ningún sentido, era simplemente, bueno para empezar porque no era digital en ese momento, pero aunque fuera digital lo que se captaba era que una película sensible llegara a la luz, la película sensible tradicional, esto me sirve un poco para presentar plata, lo que tenía era lo que se llaman aluros de plata, que eran sales de plata, que es un material reactivo a la luz. 307 00:37:46,579 --> 00:38:01,019 Entonces, pues si le da la luz, si le da mucho, pues se irá oscureciendo y si no le da nada, pues se queda sin reaccionar, ¿no? Vale, esto podríamos profundizar más, pero bueno, es digamos el análogo a lo que estábamos hablando antes del sensor. 308 00:38:01,019 --> 00:38:08,780 Esto lo que suponía en el blanco y negro es que era simplemente o que reaccionaba ante la luz o no 309 00:38:08,780 --> 00:38:12,119 Y según eso era una gama de grises más oscura o más clara 310 00:38:12,119 --> 00:38:17,320 Entonces la televisión y el cine primigenios que eran en blanco y negro 311 00:38:17,320 --> 00:38:22,539 Pues no se preocupaban del RGB, no tenían que tener tres informaciones confluyendo 312 00:38:22,539 --> 00:38:23,920 Con una de luminancia valía 313 00:38:23,920 --> 00:38:28,699 Y el problema estaba en que a diferencia del cine que se desarrolló 314 00:38:28,699 --> 00:38:44,460 Como veis aquí, más capas, digamos que cada una era sensible a un espectro de la luz, digamos que había una capa que era sensible al azul, otra al verde, otra al rojo, y luego cuando se combinaban las tres capas, al proyectarla por la luz se harían los colores. 315 00:38:44,460 --> 00:38:58,719 En la televisión no existía el fotograma, lo que se distribuía era una señal de voltajes que luego se modulaba para enviarlo a través del aire en ondas hercianas, etc. 316 00:38:58,880 --> 00:39:10,920 Pero al final lo que le llevaba la televisión eran ondas eléctricas, eran voltajes. No era algo físico con las tres diferencias de color. 317 00:39:10,920 --> 00:39:35,679 Entonces, cuando esa señal que eran voltajes que solo representaban, oye, que cada luz, digamos, del televisor, cada, no luz, cada, a ver, cada, no, cada célula, no, ¿cómo se llamaba? Es que ahora no me va a salir la palabra, pero igual que en un monitor actualmente son un montón de píxeles pequeñitos o de LEDs, ¿vale? O de cristal líquido en las LCD. 318 00:39:35,679 --> 00:39:38,920 En esa época lo que había era como bombillitas 319 00:39:38,920 --> 00:39:43,019 Entonces según cuánto tuviera que encenderse cada bombillita 320 00:39:43,019 --> 00:39:45,440 Pues el blanco y negro de cada punto de la pantalla 321 00:39:45,440 --> 00:39:49,019 Pues se veía y creaba esa imagen en blanco y negro 322 00:39:49,019 --> 00:39:51,960 ¿Qué pasa? Que cuando de pronto se mete el color 323 00:39:51,960 --> 00:39:54,219 Dijeron, vaya, ¿y qué hacemos? 324 00:39:54,400 --> 00:39:56,920 Porque transmitir las tres señales de RGB 325 00:39:56,920 --> 00:40:00,139 Por un lado da el problema de que no va a ser retrocompatible 326 00:40:00,139 --> 00:40:02,099 Con las televisiones en blanco y negro 327 00:40:02,099 --> 00:40:03,340 Y con las señales en blanco y negro 328 00:40:03,340 --> 00:40:04,800 En ese momento que hubo de transición 329 00:40:04,800 --> 00:40:09,019 que fue largo, pero tenemos que meter el color de alguna forma. 330 00:40:09,480 --> 00:40:15,159 Entonces lo que hicieron fue meter la información de color, pero en relación a la luminancia, 331 00:40:15,400 --> 00:40:19,539 para que si no había información de color, la Y, que es de luminancia, 332 00:40:20,199 --> 00:40:26,599 pudiera seguir mostrando la televisión en blanco y negro, y lo que es el color, 333 00:40:27,019 --> 00:40:31,960 esta imagen se desglosaba, se digregaba en esta imagen en blanco y negro, tradicional, 334 00:40:31,960 --> 00:40:37,420 este y que tenemos aquí y luego había dos señales que se llaman de diferencia de color que veis que 335 00:40:37,420 --> 00:40:44,320 además no tienen como mucho sentido digo que no no es ni rojo ni nada ni verde exactamente sino 336 00:40:44,320 --> 00:40:50,139 que son dos señales que se mueven entre dos coordenadas vale que se puede llamar q e y en 337 00:40:50,139 --> 00:40:57,219 ciertos momentos también uv también yo o incluso eso ya en señales digitales que han seguido 338 00:40:57,219 --> 00:41:01,460 trabajando porque claro todo ha ido evolucionando en base a este sistema sobre todo en todo lo que 339 00:41:01,460 --> 00:41:06,940 que es informático y televisión, porque han ido heredando esta forma de transmitir la señal, 340 00:41:07,340 --> 00:41:13,659 que además era más eficiente a nivel de ancho de banda, porque, digamos, que podían, ahora la vamos a ver, 341 00:41:13,760 --> 00:41:21,840 podían, digamos, a partir de la señal de iluminación, como ya dará tanta información del color que tenía que darse, 342 00:41:21,840 --> 00:41:30,980 porque digamos que se combinaban las tres señales, que estas dos señales de crominancia se podía recoger o transmitir menos información. 343 00:41:31,460 --> 00:41:36,019 No es como RGB que recogía, lo que os acabo de decir, por ejemplo, en el RAW, toda la información píxel a píxel, 344 00:41:36,340 --> 00:41:40,579 sino que se podían comprimir algunos de los canales de este JOOV, ¿vale? 345 00:41:40,579 --> 00:41:48,059 Para que la señal, incluso con menos información, ocupara menos ancho de banda y se pudiera transmitir con más facilidad, ¿no? 346 00:41:49,260 --> 00:41:50,860 Cuando había restricciones de eso. 347 00:41:51,820 --> 00:41:55,079 Entonces, ¿más o menos me vais siguiendo? 348 00:41:57,530 --> 00:41:57,989 Sí, sí. 349 00:41:57,989 --> 00:42:26,469 Vale, cuando ya digamos que se procesa la imagen a nivel informático, es cuando se habla de esas señales U, o por componentes U, a ver, aquí, ¿vale? Digamos que ya, que por supuesto también hay cámaras, ¿vale? Y cámaras que no son de alta gama lo que hacen es, evidentemente el proceso de llegar al sensor, ¿vale? Y con la matriz Bayer está en todos, pero claro, lo que hacen es inmediatamente la interpretan ya para que ocupe menos espacio, ¿vale? 350 00:42:26,469 --> 00:42:43,170 En estos componentes Juve. Digamos, cuando hablo de componentes Juve, hablo de que ya es la imagen con los colores interpolados para que se vean como el ojo humano. Entonces ya está, digamos, con unas compresiones más fuertes porque pretenden retener menos información. 351 00:42:43,170 --> 00:43:04,429 Y aparte, y aquí ya me sirve para hablar de esta columna que tenemos aquí, es que igual que hemos dicho que esta de RAW lo que hace es mantener absolutamente toda la información del sensor, existe, y tenía otra imagen por aquí, lo que se llama, y esto se vio el año pasado, en ese módulo que dije, pero si no lo hablo, que es el submuestreo de color o submuestreo de crominancia. 352 00:43:04,429 --> 00:43:07,449 esto a medida que va avanzando la tecnología 353 00:43:07,449 --> 00:43:09,269 pues será más innecesario 354 00:43:09,269 --> 00:43:11,150 igual que cuando os hablé en su momento 355 00:43:11,150 --> 00:43:13,469 hablamos de el entrelazado 356 00:43:13,469 --> 00:43:15,309 y el progresivo, que el entrelazado ya 357 00:43:15,309 --> 00:43:17,630 se está quedando 358 00:43:17,630 --> 00:43:18,789 obsoleto, porque 359 00:43:18,789 --> 00:43:21,190 digamos que la tecnología que tenemos 360 00:43:21,190 --> 00:43:23,030 puede pintar 361 00:43:23,030 --> 00:43:25,610 o enviar o reproducir 362 00:43:25,610 --> 00:43:27,610 o hay anchos de banda que permiten que la imagen vaya 363 00:43:27,610 --> 00:43:29,449 a cuadro completo y no se tenga 364 00:43:29,449 --> 00:43:30,969 que hacer ese truquito que hacíamos 365 00:43:30,969 --> 00:43:33,349 se hacen la mitad de las líneas primero y luego la otra mitad 366 00:43:33,349 --> 00:43:49,710 Y así de forma intermitente, ¿no? Pues aquí pasaba lo mismo. Si nos fijamos, cada, digamos, píxel de la imagen o de la señal de vídeo, etc., aquí lo vemos compuesto por tres señales. No voy a decir canales, voy a decir señales, ¿vale? 367 00:43:49,710 --> 00:43:52,849 Igual que en el RGB decimos que es rojo, verde y azul 368 00:43:52,849 --> 00:43:56,389 Y según la cantidad de información que tenga cada uno 369 00:43:56,389 --> 00:43:57,769 Pues será un color u otro, ¿vale? 370 00:43:57,889 --> 00:43:59,849 Cuando digo un color u otro también puede ser 371 00:43:59,849 --> 00:44:01,630 Que sea más brillante o menos brillante 372 00:44:01,630 --> 00:44:02,670 O más blanco o menos blanco 373 00:44:02,670 --> 00:44:05,989 Porque os recuerdo que en los sistemas RGB 374 00:44:05,989 --> 00:44:09,070 Al final, si los tres colores están apagados es un negro 375 00:44:09,070 --> 00:44:14,070 Y si los tres colores están RGB encendidos simultáneamente 376 00:44:14,070 --> 00:44:16,610 A un 50% dará un gris intermedio, ¿vale? 377 00:44:16,630 --> 00:44:18,150 Que esto es importante ver 378 00:44:18,150 --> 00:44:30,150 Y ahora lo vemos también en el propio Premiere. Y si los tres están completamente brillantes, dan un blanco. Que hay que pensar en cada píxel como ese conjunto de tres canales. 379 00:44:30,570 --> 00:44:40,710 Aquí lo que se ha hecho es, este cuadradito gris sería la señal de luminancia, luego sería la diferencia de rojo y la diferencia de azul, se llamaría. 380 00:44:40,710 --> 00:44:50,690 que lo que hace es que cuando se combina en relación a la luminancia da los colores, solo con dos señales de luminancia en sí, todo en relación a la luminancia. 381 00:44:51,429 --> 00:45:03,329 Entonces, es posible transmitir la información con absolutamente toda la información o existen formatos, ya heredados también en la era digital, como vamos a ver ahora, 382 00:45:03,329 --> 00:45:10,429 que para reducir, por ejemplo, a la mitad del tamaño de las dos señales que no son la de luminancia, 383 00:45:10,530 --> 00:45:15,090 y estos números lo que dicen es la compresión que tendrán esas tres señales. 384 00:45:15,849 --> 00:45:22,670 Si decimos que se llaman señales compuestas yub, siguiendo ese orden de las letras que tenemos, 385 00:45:22,670 --> 00:45:29,170 la Y teniendo en cuenta que es la luminancia, la U la diferencia de color rojo y la V azul, 386 00:45:29,170 --> 00:45:50,860 O volviendo a este esquema que teníamos aquí, aquí lo hace con IQ, pero si vemos, si lo buscamos por aquí, pues va a haber, bueno, es que en realidad todas beben de esta, ¿no? 387 00:45:50,860 --> 00:46:12,960 A ver si hay alguna que lo nombre como yuf. Si os fijáis, este R-I se refiere a la V y este B-I es a la I. Por eso a veces también lo veréis como R, R-I, B-I, porque el R es el rojo, el B es el azul y es B-I, que es la luminancia. 388 00:46:12,960 --> 00:46:23,460 Y con esa descomposición, luego si se suma, ya se obtiene el color. Incluso estos son el eje de coordenadas que tendríamos de las dos señales de crominancia. 389 00:46:24,039 --> 00:46:32,539 Entonces, si volvemos a esta imagen que tengo aquí, lo que se puede hacer es ir reduciendo información de cada uno de los píxeles para que también se interpolen entre ellos. 390 00:46:32,539 --> 00:46:53,760 Digamos que la luminancia se considera como básica, porque en este sistema Juke todo reside en que en base a la luminancia, si sumamos otros dos ingredientes a esta señal de luminancia de blancos y negros original, de escala de grises de la televisión en blanco y negro, por tener el ejemplo en la cabeza, si le sumamos esto podemos obtener los colores. 391 00:46:53,760 --> 00:47:19,500 Pero no es necesario tener esa información de diferencia de luminancia en cada píxel, en cada cuadrado, en cada bombillita. Se puede ir reduciendo. Incluso, fijaos, 4, 2, 2 es que todos los píxeles tienen esa señal de luminancia y luego cada dos hay una de diferencia de rojo y otra de diferencia de azul. 392 00:47:19,500 --> 00:47:45,960 O incluso hay algunos, como el 411, que lo va haciendo por filas, ¿vale? Y vais viendo la distribución. Esto lo que hace es que, claro, el archivo resultante pese bastante menos, porque tiene que guardar bastante menos información, que supone que, como os he dicho antes, a medida que vamos eliminando información, a lo mejor para el destino final sí que vale, porque ya está el vídeo hecho y lo único que hay que hacer es verse y que se vea en las especificaciones de la plataforma o distribución que tengamos. 393 00:47:45,960 --> 00:48:04,699 Pero si vamos a hacer labores de postproducción, a medida que vamos desechando información, pues tenemos menos posibilidades. Por eso, cuando estamos en Premiere, por ejemplo, uno de los formatos, por ejemplo el QuickTime, aunque en otros también va a aparecer, pero QuickTime es uno de los que más claro se va a ver. 394 00:48:04,699 --> 00:48:20,500 Hay formatos, ahí va, perdón, QuickTime, que dentro de sus códecs tienen estos números, que pone 422, ¿vale? Y esto se refiere a su descomposición en las señales, ¿vale? Y vuelvo un momento al esquema. 395 00:48:20,500 --> 00:48:38,860 Perdona que vaya saltando de un lado a otro, pero, bueno, digamos que estoy intentando hilar varias cosas, dudas que tenga y me decís. Fijaos que los ProRes, ¿vale? Los formatos, los códecs, fijaos que a veces lo digo de manera indistinta, ¿vale? Sería lo correcto, serían los códecs, ¿no? 396 00:48:38,860 --> 00:48:41,739 dentro del formato QuickTime los ProRes 397 00:48:41,739 --> 00:48:44,079 los Codecs ProRes 398 00:48:44,079 --> 00:48:45,860 hay algunos que guardan en 399 00:48:45,860 --> 00:48:47,960 RAW y otros que no guardan 400 00:48:47,960 --> 00:48:49,860 en RAW, que ya están en los componentes 401 00:48:49,860 --> 00:48:51,320 y aquí va poniendo 402 00:48:51,320 --> 00:48:53,880 que los que son RAW no hacen este submuestro 403 00:48:53,880 --> 00:48:55,679 porque guardan toda la información y de hecho es que 404 00:48:55,679 --> 00:48:58,260 no tiene sentido porque RGB guarda 405 00:48:58,260 --> 00:49:00,000 señal roja, verde y azul 406 00:49:00,000 --> 00:49:02,000 en Hue, Luminancia y dos señales 407 00:49:02,000 --> 00:49:03,460 de diferencia que digamos 408 00:49:03,460 --> 00:49:06,000 que descomponen para recuperar los colores, hemos dicho 409 00:49:06,000 --> 00:49:07,579 si vamos viendo 410 00:49:07,579 --> 00:49:18,320 Esto, según la calidad que tengamos, fijaos que el 4.4.4 y el 4 último es una pista de que hay otro canal más, que se refiere a un canal de alfa, que también puede guardar información. 411 00:49:19,840 --> 00:49:24,420 Lo que va a hacer es que a medida que vamos subiendo vais a ver que el peso del archivo va subiendo. 412 00:49:25,059 --> 00:49:34,320 Fijaos que el proxy tiene su muestra de grominancia de 4.2.2, porque no está destinado, está destinado a ser proxy, es de baja calidad. 413 00:49:34,320 --> 00:49:49,119 Pues el peso es mucho menor que, por ejemplo, el 4-4-4-4, ¿vale? Que pesa pues como, no sé, no sé sacar la proporción, pero como 10, bueno, como 7 veces más, ¿vale? 414 00:49:49,340 --> 00:49:57,739 Entonces fijaos eso, que esto sirve para también ir discriminando que cuando vayamos a seguir trabajando en postproducción y estamos haciendo un vídeo, 415 00:49:57,739 --> 00:50:00,679 Por ejemplo, hemos montado un vídeo de un Chroma 416 00:50:00,679 --> 00:50:03,519 Que tiene un Chroma y todavía no se ha extraído el Chroma 417 00:50:03,519 --> 00:50:05,360 Si se lo vamos a pasar a un compañero 418 00:50:05,360 --> 00:50:07,900 Y tenemos que codificarlo de nuevo 419 00:50:07,900 --> 00:50:10,139 Y no partir del original por algún motivo 420 00:50:10,139 --> 00:50:14,039 Pues lo suyo es meterle la máxima información posible 421 00:50:14,039 --> 00:50:16,099 Y en este caso, por ejemplo 422 00:50:16,099 --> 00:50:18,739 Dentro de la familia Apple ProRes 423 00:50:18,739 --> 00:50:21,420 Tenemos los distintos niveles de calidades 424 00:50:21,420 --> 00:50:22,659 Con sus distintos pesos 425 00:50:22,659 --> 00:50:24,920 Y además, este que tiene el cuarto valor 426 00:50:24,920 --> 00:50:26,940 Significa que aparte de los canales 427 00:50:26,940 --> 00:50:41,440 también podemos incluir este alfa, ¿vale? Porque un canal alfa, me salgo un segundo del tema, no deja de ser, bueno, lo he escrito, un canal alfa no deja de ser una imagen en blancos y negros, ¿vale? 428 00:50:41,460 --> 00:50:51,900 Que va diciendo, esto ya lo hemos visto, qué parte es opaca y qué parte es sólida y qué parte es traslúcida, ¿vale? Entonces es otro canal de información de blancos y negros, 429 00:50:51,900 --> 00:51:06,519 Porque nuevamente, cada uno de esos canales es blancos y negros. Lo que pasa es que ya los sistemas informáticos saben que el primer valor es el de rojo, el segundo el de verde y el tercero el de azul, ¿vale? Pero siempre es blancos y negros. Sí, alguien me quería preguntar algo, perdona. 430 00:51:06,519 --> 00:51:09,039 Sí, yo Dani, mira, me surge una duda 431 00:51:09,039 --> 00:51:10,960 cuando estás hablando de los 432 00:51:10,960 --> 00:51:12,840 4.2.2 y 4.4.4 y demás 433 00:51:12,840 --> 00:51:16,000 mi pregunta es 434 00:51:16,000 --> 00:51:17,579 claro, porque yo sé 435 00:51:17,579 --> 00:51:18,820 viniendo del mundo del audio 436 00:51:18,820 --> 00:51:20,500 por ejemplo, te pongo el ejemplo 437 00:51:20,500 --> 00:51:22,320 en el mundo del audio yo sé que por ejemplo 438 00:51:22,320 --> 00:51:25,019 mi pregunta va sobre el tema 439 00:51:25,019 --> 00:51:25,940 de tú puedes pasar 440 00:51:25,940 --> 00:51:28,639 de un 4.2.2 a un 4.4.4 441 00:51:28,639 --> 00:51:30,840 es decir, hay alguna manera de hacer un retorno 442 00:51:30,840 --> 00:51:31,940 hacia atrás, es decir 443 00:51:31,940 --> 00:51:34,500 si tú grabas un archivo en un 4.4.4 444 00:51:34,500 --> 00:51:38,400 Lo bajas de resolución 445 00:51:38,400 --> 00:51:39,320 Para trabajar en postproducción 446 00:51:39,320 --> 00:51:39,980 No, no se puede 447 00:51:39,980 --> 00:51:40,440 Imagínate 448 00:51:40,440 --> 00:51:43,000 Entiendo que es como en el audio 449 00:51:43,000 --> 00:51:45,239 Por ejemplo, yo sé que en el audio 450 00:51:45,239 --> 00:51:47,260 Si comprimo un archivo a un mp3 451 00:51:47,260 --> 00:51:49,480 No lo puedo volver a convertir a un WAV 452 00:51:49,480 --> 00:51:52,199 Es decir, es una manera de compresión destructiva 453 00:51:52,199 --> 00:51:53,739 Efectivamente, eso es 454 00:51:53,739 --> 00:51:54,980 En el vídeo es igual, ¿no? 455 00:51:55,119 --> 00:51:56,139 Eso es, sí 456 00:51:56,139 --> 00:51:59,579 A ver, hay una cosa que has dicho 457 00:51:59,579 --> 00:52:01,460 Que entiendo lo que quieres decir 458 00:52:01,460 --> 00:52:03,300 Pero por poder, tú sí puedes volver 459 00:52:03,300 --> 00:52:05,559 a algo más grande. Lo que pasa es que se va a llenar 460 00:52:05,559 --> 00:52:07,519 de información vacía. ¿Sabes lo que te quiero decir? 461 00:52:07,539 --> 00:52:08,960 Claro, sí. De información inútil. 462 00:52:09,719 --> 00:52:10,380 Sí, yo sé que 463 00:52:10,380 --> 00:52:13,280 por pura informática 464 00:52:13,280 --> 00:52:15,139 yo sé que puedo volver atrás. 465 00:52:15,480 --> 00:52:17,380 Pero no tiene ningún sentido porque el archivo 466 00:52:17,380 --> 00:52:18,820 te va a ocupar más sin información. 467 00:52:19,420 --> 00:52:21,440 Eso es. Y al final es un poco lo mismo también 468 00:52:21,440 --> 00:52:23,480 que con las propias resoluciones. 469 00:52:24,119 --> 00:52:25,679 Si tenemos un Full HD y lo subimos 470 00:52:25,679 --> 00:52:26,320 a un 4K, 471 00:52:26,739 --> 00:52:29,760 sí, el 4K incluso se va a interpolar 472 00:52:29,760 --> 00:52:31,679 y va a intentarlo. Incluso hay algoritmos 473 00:52:31,679 --> 00:52:50,119 Y bueno, tú cuando te metes en Premiere, tú si haces más grande la imagen, pues se va viendo más grande. Es decir, si yo esta la meto ahora en un 4K, se ve qué es lo que pasa. Que claro, tiene que duplicar ciertos píxeles porque tiene que llenar la información. Ahí es cuando empiezan a aparecer los pixelados. 474 00:52:50,119 --> 00:52:56,840 sí que hay a veces algoritmos o hay procedimientos que hacen simulaciones o hacen digamos rellenados 475 00:52:56,840 --> 00:53:02,300 de esa interpolación para que los nuevos píxeles sean como mezclas intermedias a veces si se pueden 476 00:53:02,300 --> 00:53:07,699 hacer ciertas cosas entonces no te puedo decir que nunca se puede volver lo que sí te puedo decir es 477 00:53:07,699 --> 00:53:12,940 que no es la información original es una información que a lo mejor se ha recreado vale 478 00:53:12,940 --> 00:53:15,059 pues eso 479 00:53:15,059 --> 00:53:16,760 Claro, pero respecto a toda la metadata 480 00:53:16,760 --> 00:53:19,860 ¿es destructivo? O sea, si tú bajas 481 00:53:19,860 --> 00:53:21,380 la información 482 00:53:21,380 --> 00:53:24,139 Es destructivo. Luego ya es 483 00:53:24,139 --> 00:53:26,199 pues confiar un poco 484 00:53:26,199 --> 00:53:28,320 en los propios softwares que tenemos 485 00:53:28,320 --> 00:53:30,219 pues que a veces pueden ampliar 486 00:53:30,219 --> 00:53:31,980 las posibilidades, pero sí 487 00:53:31,980 --> 00:53:34,280 la respuesta es que no se puede volver, y si se vuelve 488 00:53:34,280 --> 00:53:36,480 es eso, a base de procesos 489 00:53:36,480 --> 00:53:38,239 de recreación o procesos de 490 00:53:38,239 --> 00:53:40,099 con inteligencia artificial también pasará 491 00:53:40,099 --> 00:53:41,960 pues que intenta recuperar la información 492 00:53:41,960 --> 00:53:43,699 pero sí, es un proceso destructivo 493 00:53:43,699 --> 00:54:07,559 Es decir, tú has perdido esa información. Que luego la puedes recuperar recreando con procesos de refinado, no sé. Se puede, pero no. Es como lo que tú has descrito del MP3, exacto. ¿Qué tal hasta aquí? ¿Me vais siguiendo? ¿Alguna duda más? ¿Así por el camino? Vale. 494 00:54:07,559 --> 00:54:09,739 Luego, sigo 495 00:54:09,739 --> 00:54:12,539 La profundidad de bits, esto que hablamos de 8 bits 496 00:54:12,539 --> 00:54:14,280 Y esto es importante una cosa, primera 497 00:54:14,280 --> 00:54:16,460 Que es que cuando se habla de 8 bits 498 00:54:16,460 --> 00:54:18,059 O de 10 bits, o de 12 bits 499 00:54:18,059 --> 00:54:20,579 Se habla de bits por cada canal 500 00:54:20,579 --> 00:54:21,079 ¿Vale? 501 00:54:22,000 --> 00:54:24,639 Lo digo nuevamente porque si nos metemos 502 00:54:24,639 --> 00:54:26,400 En Premiere, y vamos aquí 503 00:54:26,400 --> 00:54:27,980 Al ámbito de Lumetri 504 00:54:27,980 --> 00:54:30,219 Y ponemos en 8 bits, ¿vale? 505 00:54:30,320 --> 00:54:31,820 Ojo, que a veces 506 00:54:31,820 --> 00:54:34,000 Puede haber ciertos márgenes, ¿vale? 507 00:54:34,000 --> 00:54:35,579 Para ver si se sale la señal o no 508 00:54:35,579 --> 00:54:37,320 Pero la señal llega hasta el 100 509 00:54:37,320 --> 00:54:39,960 entre el 0 y el 100 es donde se mueve la señal, ¿verdad? 510 00:54:40,559 --> 00:54:46,159 Si vemos una señal de 8 bits, el valor máximo que da es 255, ¿no? 511 00:54:46,159 --> 00:54:47,280 Porque puede dar 256. 512 00:54:48,039 --> 00:54:49,599 Pero ojo, eso se refiere a cada canal. 513 00:54:50,059 --> 00:54:53,000 Realmente, y de hecho, mira, cuando antes daba a exportar, 514 00:54:53,059 --> 00:54:55,940 lo que ponía aquí es 8 bits por canal, ¿vale? 515 00:54:55,940 --> 00:54:59,460 Como tenemos 3 canales en un RGB, en realidad son 24 bits, 516 00:54:59,539 --> 00:55:01,920 que también lo podéis encontrar como una señal de 24 bits. 517 00:55:02,079 --> 00:55:04,219 Lo que pasa es que ahí está sumando lo de las 3 señales. 518 00:55:04,219 --> 00:55:19,940 Pero por convención, se habla que cada señal, cada canal, puede tener una profundidad de bits. Eso es lo primero que quería aclarar. ¿Para qué sirve la profundidad de bits? Voy a poneros un ejemplo que tengo aquí. 519 00:55:19,940 --> 00:55:36,980 Si no me equivoco... Vale, aquí. Básicamente, a medida que vamos aumentando la calidad y el detalle de nuestras imágenes, tenemos que ir subiendo el número de bits, de posibilidades que podemos escribir a nivel informático. 520 00:55:37,559 --> 00:55:41,599 ¿Por qué? Normalmente los monitores que hemos tenido hasta ahora, de toda la vida, 521 00:55:42,079 --> 00:55:44,980 se trabajaban en 8 bits y se estaba tan tranquilamente. 522 00:55:45,719 --> 00:55:49,420 Y bueno, podía aparecer algún procedimiento de banding, que es esto que a veces podemos ver, 523 00:55:49,579 --> 00:55:52,519 como que aparecen como artefactos, como que junta varios colores. 524 00:55:53,340 --> 00:55:58,059 Esto pasa a veces si grabamos un cielo, por ejemplo, que hay muchos azules degradados poco a poco de un azul a otro, 525 00:55:58,059 --> 00:56:04,260 y como que faltan detalles en el medio, porque no tiene la capacidad de recrear todo ese número de colores. 526 00:56:04,260 --> 00:56:31,039 Lo que pasa es que el otro día hablamos de que a medida que la tecnología va avanzando, el número de colores y de viveza, de saturación que tenemos, así como el rango dinámico, van creciendo, ¿vale? Entonces, lo que pasa es que esto es a costa de que tenemos sistemas de trabajo audiovisual y de representación a través de monitores, televisores, etcétera, que pueden recrear muchos más niveles de brillo, ¿vale? Y muchos más niveles, muchos más colores, ¿no? En esencia. 527 00:56:31,039 --> 00:56:45,940 ¿Qué pasa? Que si vamos metiendo muchos colores y cada vez más, mayor capacidad de colores, pero el monitor que tenemos o la señal que lo transmite no permite ir muestrando el número de colores que hay en medio. 528 00:56:45,940 --> 00:57:12,079 A ver, ¿dónde está esta imagen que tenía yo aquí abierta? A ver, un segundo, aquí, ¿vale? Pues sí, están los colores, pero faltan gradación. Al final lo que hacen los bits es que cada color, cada píxel se representa, o lo que sea, en realidad una profundidad de bits se puede destinar a cualquier elemento, pero significa que son más números, más números de información que puede tener una información, ¿no? 529 00:57:12,079 --> 00:57:33,139 Entonces hay más valores intermedios entre los que moverse. Por eso cuando en los ámbitos de Lumetri nos metemos aquí y lo ponemos como una señal de 10 bits, realmente la señal es la misma, fijaos, ¿vale? Y aquí, muevo un poco, es lo mismo, ¿vale? O más o menos, puede cambiar un poco, pero si yo cambio de... es que tengo que ir un píxel para atrás y para adelante. 530 00:57:33,139 --> 00:57:51,079 Lo que vais a ver que cambia sobre todo es la escala, ¿vale? Porque aquí lo que estamos variando es el número de puntos intermedios que pueden representar esa gradación para que, por ejemplo, no aparezca ese banding, ¿no? Si os fijáis ahora mismo con 8 bits, el máximo son 255, no sé si lo veis, que igual se ve muy pequeño. 531 00:57:51,079 --> 00:58:03,559 Si lo pongo a 10 bits, la representación es la misma y el blanco y el negro son los mismos, pero hay como cuatro veces más números intermedios para gestionar estos valores intermedios. 532 00:58:03,559 --> 00:58:22,619 Un poco como lo que acaba de decir el compañero, a medida que tenemos más valores intermedios o aunque hagamos gestiones destructivas, si tenemos más valores intermedios podemos afinar más también a nivel de postproducción. 533 00:58:22,619 --> 00:58:46,460 Y ojo, esto no sirve para la captación, sino que mientras trabajamos, cuando vamos generando colores o degradados nosotros o hacemos correcciones de color, al ir subiendo el número de bits que están también relacionados con los formatos o con los códecs, si vamos viendo aquí en la tabla, pues también podemos ver la cuantificación, que es el procedimiento de ir asignando distintos valores de bits a la señal. 534 00:58:46,460 --> 00:58:49,079 lo que significa cuantificación, pues pueden tener 535 00:58:49,079 --> 00:58:51,099 según el formato y vais a ver 536 00:58:51,099 --> 00:58:52,880 otra vez que a medida que vamos bajando 537 00:58:52,880 --> 00:58:55,639 la cadena de distribución hasta ya la entrega 538 00:58:55,639 --> 00:58:56,739 en teoría va bajando 539 00:58:56,739 --> 00:58:58,280 es verdad que hay algunos que sí que tienen 540 00:58:58,280 --> 00:59:00,639 mucha profundidad de bits 541 00:59:00,639 --> 00:59:02,719 pues aquí iremos viendo 542 00:59:02,719 --> 00:59:04,519 cuáles son las 543 00:59:04,519 --> 00:59:06,260 profundidades de bits que tienen 544 00:59:06,260 --> 00:59:08,519 hasta ahora todo se ha ido trabajando 545 00:59:08,519 --> 00:59:10,460 normalmente con 8 bits 546 00:59:10,460 --> 00:59:12,179 en lo que se llama SDR 547 00:59:12,179 --> 00:59:13,780 que es Standard 548 00:59:13,780 --> 00:59:16,039 Dynamic Range 549 00:59:16,039 --> 00:59:38,599 No sé si os suenan los sistemas SDR y HDR, ya digo de haber comprado algún monitor, pero la tendencia que se está haciendo es que cada vez se van a tener monitores que son capaces de reproducir más brillo, tener mucho más brillo y aparte que los negros sean más apagados. 550 00:59:38,599 --> 00:59:52,500 Hasta ahora, digamos que las bombillitas o los LEDs, aunque viéramos un negro en la pantalla, aunque yo ponga aquí un negro, este negro, por la construcción que tenían, nuevamente una limitación tecnológica, no llegan a ser negros del todo, no se apagan del todo. 551 00:59:52,900 --> 01:00:03,559 Pero bueno, poco a poco se están desarrollando tecnologías que permiten, la OLED por ejemplo es una de las más famosas, que lo que permite es que los píxeles que no se usen, que estén en blanco puro, pues directamente se apaguen. 552 01:00:03,559 --> 01:00:24,900 Entonces, digamos que el contraste, la distancia que hay entre el negro más negro que se puede ver en una pantalla y el blanco más blanco que se puede ver en una pantalla va aumentando. Y a medida que va aumentando, os vuelvo a recordar que el color al final se basa en la cantidad de brillo que va teniendo cada uno de los píxeles de cada canal. 553 01:00:24,900 --> 01:00:51,400 Si vamos aumentando ese rango dinámico, tiene que ir acompañado o debería ir acompañado nuevamente de este aumento de colores. Todo va un poco de la mano. Por eso, cuando ya llegamos a la ultra alta definición, con esta norma 2020, que lo que hace es ampliar las resoluciones, también el gamut de los colores que puede representar, también se aumenta el rango dinámico, que es otra norma, que es la 2100. 554 01:00:51,400 --> 01:01:06,159 Bueno, no me voy a meter mucho más en esto porque ya es demasiado avanzado, pero digamos que la tecnología va aumentando para que el blanco más blanco que puede dar una televisión, pero que cada vez es más brillante, además tenga entre los valores más gradación, ¿vale? 555 01:01:06,159 --> 01:01:35,340 ¿Vale? Luego, de hecho, estos tres primeros, si nos vamos metiendo aquí, ¿vale? Y es una de las cosas también que tenéis que tener en cuenta cuando vayamos trabajando es que hay incluso sistemas de trabajo, como el flotante, de coma flotante, ¿vale? Que lo que hace es que ni siquiera, que tiene valores teóricos a nivel informático absolutos, ¿vale? Por eso va del 0 al 1 con estos decimales, pero no te da un valor de 255, 247 o 1000, como aquí, por ejemplo, en el 10 bits, ¿vale? 556 01:01:35,340 --> 01:01:51,019 Sino que a nivel informático, claro, cuando generamos colores artificiales al ir corrigiendo la señal, ¿vale? Cuando empezamos a variar los colores, digamos que informáticamente se pueden generar otros colores, ¿vale? Que no están captados en la señal. 557 01:01:51,019 --> 01:02:11,400 Entonces, a nivel informático incluso se puede trabajar con valores que en las cámaras no existen, son inexistentes, son a nivel informático. Y luego está lo que se llama el HDR, que ya os digo, no me voy a meter mucho ahí, que ya es un sistema que lo que hace es ampliar hacia arriba, digamos, la capacidad de luminancia que pueden tener como máximo los píxeles. 558 01:02:11,400 --> 01:02:28,940 Si os fijáis, el SDR, que son, por ejemplo, los trabajos en profundidad de bits relacionados con estos tres primeros sistemas de profundidad de bits. El máximo es este uno, que son los 100 nits. Suelto más información por si os la queréis apuntar. 559 01:02:28,940 --> 01:02:49,059 Cuando tenemos un monitor y queremos ver cuál es el brillo máximo que puede emitir una pantalla, se mide en nits, es un valor de medida, que es valor de luminosidad emitida, que no es lo mismo que reflejada como en el cine, que es lo que hace reflejar una tela la iluminación. 560 01:02:49,059 --> 01:03:02,920 En pantallas es este nits. Y nit, también por si queréis profundizar, significa candelas, que es otro nivel de emisión de luz por metro cuadrado. Entonces, en los niveles estándar de SDR llegan hasta los 100 nits. 561 01:03:02,920 --> 01:03:22,559 Ese era el máximo, este 1 máximo. Y ya cuando se vaya trabajando, ya sé, cada vez se va trabajando más y son sistemas más complicados y hay que tener unos monitores HDR, que ya se están democratizando bastante, se incluso podrá ampliar la luminancia hasta los 10.000 nits. 562 01:03:22,559 --> 01:03:43,860 No 10.000 nits es mucho, pero hasta los 1.000 nits, por ejemplo, se puede. ¿Qué significa esto? Que a medida que vayamos trabajando, iremos viendo que los equipos de medición pueden ir variando en función de la profundidad de bits o la amplitud máxima de luminosidad que puede emitir nuestra televisión o nuestro monitor. 563 01:03:43,860 --> 01:04:06,980 Esto es un poco para introducir esto. Y que a medida que se vaya trabajando será necesario contar con más profundidad de bits, que cada información que se guarde tenga más unos y ceros, con el consecuente aumento de tamaño del archivo, por ejemplo, que nuevamente también se suple o se supera porque los ordenadores pueden procesar más información. 564 01:04:06,980 --> 01:04:23,039 Entonces, digamos que el avance tecnológico va por ahí. Entonces, ojo, cuando estéis trabajando, en general, a menos que ya estéis trabajando con vídeos con más profundidad de bits, los suyos que la medición la hagáis en 8 bits, por ejemplo, aquí, o en 10 bits también puede ser. 565 01:04:23,039 --> 01:04:41,699 Esto es lo mismo. Cuando vayáis a trabajar, según el formato en el que estáis trabajando, podéis ver en cuál estáis trabajando. Algunos admiten todo hasta el momento de la salida. Si en una cámara habéis grabado algo a 10 bits, pues lo mismo. A nivel teórico, todo lo que vais a poder trabajar como máximo es 10 bits. 566 01:04:41,699 --> 01:05:02,780 Pero ojo, cuando vayáis haciendo variaciones de color, a nivel informático sí que existen esos valores intermedios, ¿vale? Entonces sí que se puede trabajar a 10 bits, pero lo mismo, si no tenéis un monitor HDR, lo lógico es que solo, por ejemplo, los monitores de ordenador normalmente son de 8 bits, a menos que ya tengáis HDR, que ahí va aumentando. 567 01:05:02,780 --> 01:05:11,320 Y lo mismo, aquí tenemos otra indicación relacionada con el gamut 568 01:05:11,320 --> 01:05:15,920 Que el gamut nuevamente es esto que tenemos aquí 569 01:05:15,920 --> 01:05:24,119 De cuántos colores del espectro se pueden reproducir o gestionar en ese sistema 570 01:05:24,119 --> 01:05:29,119 Si estáis trabajando aquí en Premiere, lo suyo es que lo pongáis en automático 571 01:05:29,119 --> 01:05:47,239 Porque lo que va a hacer en automático es coger directamente el que tenga la secuencia. Si nos fijamos en la secuencia de las propiedades, ya va a tener un espacio de color. Si trabajamos para HD, lo estándar hasta ahora, habrá que trabajar en Rec. 709. 572 01:05:47,239 --> 01:06:13,480 Porque el problema, aunque no va a distorsionar mucho, es que si este vectorscopio, y en este caso estamos hablando de color, por eso el que más nos interesa es el vectorscopio, si este vectorscopio lo vemos en un espacio de color mucho más amplio, como el 2100 que ya se refiere a Ultra HD TV, 2020 o que sea 2100 o 2020, vais a ver que aquí se reduce. 573 01:06:13,480 --> 01:06:27,420 Entonces parece que la saturación es menor, pero el color sigue siendo el mismo, solo que dependerá de dónde estamos viendo este color. Mira, en 2020, ¿no? Fijaos que la tendencia hacia donde tende cada uno de los colores es una, pero cuando clico y se refresca parece que la saturación es menor. 574 01:06:27,420 --> 01:06:31,559 Ojo, hay que verlo en función de cómo estamos trabajando el proyecto 575 01:06:31,559 --> 01:06:32,840 Y en este caso lo mismo 576 01:06:32,840 --> 01:06:37,679 Este proyecto lo estamos trabajando en 709 577 01:06:37,679 --> 01:06:38,039 ¿Por qué? 578 01:06:38,719 --> 01:06:40,340 Pues esto es donde hay que equilibrar 579 01:06:40,340 --> 01:06:46,000 Lo primero, si este vídeo lo estamos trabajando ya para televisiones para un destino 580 01:06:46,000 --> 01:06:49,119 Que ya admite algo más allá que el REC 709 581 01:06:49,119 --> 01:06:50,440 Que es lo que admite todo, ¿o no? 582 01:06:50,440 --> 01:06:52,320 Y este vídeo, como se ha renderizado 583 01:06:52,320 --> 01:06:55,019 Fijaos que este vídeo ya está renderizado 584 01:06:55,019 --> 01:07:19,019 En un formato de distribución, que es en este mp4.mob, esto sería el formato, el contenedor, con este códec H.264 y un submuestro de 4.2.0. ¿Por qué? Porque cuando exportamos, a lo mejor, un H.264, si yo, por ejemplo, aquí cojo un H.264, ya este formato está pensado para distribución. 585 01:07:19,019 --> 01:07:24,599 no es un formato no lo vais a encontrar en el listado como uno de los formatos de trabajo de 586 01:07:24,599 --> 01:07:30,119 postproducción vale no va a estar ahí va a estar ya en los de masterización o mejor dicho casi más 587 01:07:30,119 --> 01:07:35,579 de emisión o distribución vale el h 264 está ahí y no lo vamos a tocar entonces con que tenga la 588 01:07:35,579 --> 01:07:42,639 información mínima vale aunque lo admite a veces según como lo trabajemos que pueda tener más 589 01:07:42,639 --> 01:07:48,940 información porque muy muy versátil el 4 la distribución básicamente lo que queremos es 590 01:07:48,940 --> 01:07:53,780 que se vea bien y que pese muy poquito vale entonces pues por ejemplo esa si ya estamos 591 01:07:53,780 --> 01:08:00,519 trabajando en un archivo de que de origen es un h 264 con poca información de color que además está 592 01:08:00,519 --> 01:08:06,400 en un espacio de color ya de rex 709 también vale pues no deberíamos ir a un espacio de color 593 01:08:06,400 --> 01:08:11,440 superior vale deberíamos trabajar todo y por eso os digo de ponerlo automático que ya capta lo de 594 01:08:11,440 --> 01:08:20,220 la secuencia en rec 709 porque cuando configuramos las secuencias vale aquí ya viene que lo llamen 595 01:08:20,220 --> 01:08:25,279 vete es lo mismo vete 709 aquí ya vienen configuradas los ajustes del espacio de 596 01:08:25,279 --> 01:08:31,579 color que aquí también lo vamos definiendo vale entonces por defecto rec 709 digamos que es un 597 01:08:31,579 --> 01:08:39,340 poco la lo que tendríamos que tener como estándar si en algún momento hay que trabajar para ultra 598 01:08:39,340 --> 01:08:41,380 HD, pues ahí hay que ir 599 01:08:41,380 --> 01:08:43,560 estudiando un poco las especificaciones e irlas adaptando 600 01:08:43,560 --> 01:08:45,279 teniendo en cuenta que las imágenes 601 01:08:45,279 --> 01:08:46,720 que nos lleguen también deberían ser en 602 01:08:46,720 --> 01:08:49,359 pues eso, en espacios de color 603 01:08:49,359 --> 01:08:50,819 más amplios, ¿vale? 604 01:08:52,399 --> 01:08:52,659 vale 605 01:08:52,659 --> 01:08:54,659 hasta aquí más o menos 606 01:08:54,659 --> 01:08:57,100 sigo tirando, con resolución se refiere 607 01:08:57,100 --> 01:08:58,979 al máximo tamaño que pueda haber 608 01:08:58,979 --> 01:09:00,699 de esto no voy a hablar mucho, pues un 4K 609 01:09:00,699 --> 01:09:02,939 pues serán resoluciones 610 01:09:02,939 --> 01:09:05,060 que veis que no pone 611 01:09:05,060 --> 01:09:06,899 unas medidas concretas, ¿vale? 612 01:09:06,920 --> 01:09:08,779 cuando aquí pone 1080, por ejemplo 613 01:09:08,779 --> 01:09:10,920 HD 1080 se refiere a un Full HD 614 01:09:10,920 --> 01:09:12,800 de 1920 por 1080 615 01:09:12,800 --> 01:09:14,260 en progresivo, por eso la P 616 01:09:14,260 --> 01:09:17,000 y casi todo ya va a ser progresivo, como os he dicho 617 01:09:17,000 --> 01:09:18,659 aunque aquí ya 618 01:09:18,659 --> 01:09:20,460 donde pone esto de I y P 619 01:09:20,460 --> 01:09:22,760 se refiere a que puede estar tanto trabajando 620 01:09:22,760 --> 01:09:25,119 en entrelazado como en progresivo 621 01:09:25,119 --> 01:09:26,760 no sé si os acordáis en esa práctica 622 01:09:26,760 --> 01:09:28,739 que os puse una I ahí metida 623 01:09:28,739 --> 01:09:30,239 pues se refería a eso, ¿por qué? 624 01:09:30,340 --> 01:09:32,899 porque todavía puede haber 625 01:09:32,899 --> 01:09:34,779 material de archivo que está 626 01:09:34,779 --> 01:09:35,840 en entrelazado y bueno 627 01:09:35,840 --> 01:09:38,500 en la fase de postproducción 628 01:09:38,500 --> 01:09:42,600 puede tener sentido, en la grabación ya vais a ver que el entrelazado no existe 629 01:09:42,600 --> 01:09:46,619 antiguamente se hacía, incluso se usaba grabar entrelazado para hacer efectos 630 01:09:46,619 --> 01:09:50,840 de cámara lenta, pero como ya también se puede grabar a más velocidades 631 01:09:50,840 --> 01:09:53,600 de frame rate 632 01:09:53,600 --> 01:09:58,020 pues ni eso hace falta, ya se graba en progresivo 633 01:09:58,020 --> 01:10:02,800 eso, cuando pone 4K o 2K o 8K se refiere a que 634 01:10:02,800 --> 01:10:05,779 el ancho de la imagen tiene 635 01:10:05,779 --> 01:10:08,960 Algo aproximado a este número de puntos 636 01:10:08,960 --> 01:10:10,479 Si pone 4K será un formato 637 01:10:10,479 --> 01:10:12,000 Que es un 4000 algo 638 01:10:12,000 --> 01:10:14,460 Por otro valor relacionado 639 01:10:14,460 --> 01:10:16,039 ¿Vale? De hecho es importante 640 01:10:16,039 --> 01:10:18,340 Cuando vemos el tema 641 01:10:18,340 --> 01:10:19,100 6 642 01:10:19,100 --> 01:10:20,479 En 643 01:10:20,479 --> 01:10:24,420 El principio ¿Vale? Fijaos que 644 01:10:24,420 --> 01:10:26,260 En cine, en los DCPs 645 01:10:26,260 --> 01:10:28,140 Solo hay 6 resoluciones estándares 646 01:10:28,140 --> 01:10:29,220 Que se pueden usar ¿Vale? 647 01:10:29,880 --> 01:10:31,680 Fijaos que cuando dice 4K pues eso 648 01:10:31,680 --> 01:10:34,239 La anchura es siempre alrededor de los 4000 649 01:10:34,239 --> 01:10:56,340 Si es 2K es alrededor de los 2000. Digo que aunque a veces no sepáis exactamente las medidas, es importante que sepáis qué quiere decir esto de 4K y cómo interpretarlo, ¿vale? Ya lo que es la altura dependerá de que sea 2K y también del aspect ratio, por ejemplo, ¿vale? Cuanto más ancho sea, pero menos alto, pues más panorámico, ¿no? Más horizontal va a ser la imagen. 650 01:10:56,340 --> 01:10:58,000 si, me vais siguiendo 651 01:10:58,000 --> 01:11:00,800 si tenéis dudas de algo 652 01:11:00,800 --> 01:11:01,739 me vais diciendo, porfa 653 01:11:01,739 --> 01:11:04,239 luego, lo mismo 654 01:11:04,239 --> 01:11:06,659 vais a ver que en los códex de captación 655 01:11:06,659 --> 01:11:08,300 todos son un píxel 656 01:11:08,300 --> 01:11:10,640 aspect ratio de square pixel 657 01:11:10,640 --> 01:11:12,600 ¿vale? de 1.0, es decir 658 01:11:12,600 --> 01:11:14,699 cuadrado, y es que es como 659 01:11:14,699 --> 01:11:16,800 lo de progresivo y entrelazado, ya todo se trabaja 660 01:11:16,800 --> 01:11:18,720 en cuadrado, antiguamente 661 01:11:18,720 --> 01:11:20,640 se usaban los non-square 662 01:11:20,640 --> 01:11:21,960 píxeles o se 663 01:11:21,960 --> 01:11:24,239 anamorfizaban, es decir 664 01:11:24,239 --> 01:11:26,060 cada píxel digamos que hace 665 01:11:26,060 --> 01:11:28,640 el monitor o la imagen se ensanchaban 666 01:11:28,640 --> 01:11:30,439 un poco porque los sensores 667 01:11:30,439 --> 01:11:32,560 por construcción no podían ser más 668 01:11:32,560 --> 01:11:33,979 anchos para grabar imágenes 669 01:11:33,979 --> 01:11:36,899 con ciertas panorámicas 670 01:11:36,899 --> 01:11:38,180 en ciertos formatos clásicos 671 01:11:38,180 --> 01:11:40,739 de los western, el cinemascope 672 01:11:40,739 --> 01:11:42,439 etcétera, entonces se hacían estos 673 01:11:42,439 --> 01:11:44,180 procedimientos de ensanchar un poco la imagen 674 01:11:44,180 --> 01:11:46,439 pero actualmente ya con las 675 01:11:46,439 --> 01:11:48,579 resoluciones que tenemos, esto ya está quedando 676 01:11:48,579 --> 01:11:50,300 obsoleto, sí que se puede usar 677 01:11:50,300 --> 01:11:52,420 para ciertos 678 01:11:52,420 --> 01:11:54,600 procesos de postproducción, pero en principio 679 01:11:54,600 --> 01:12:08,659 ¿Vale? Luego, sobre la compresión, bueno, vais a ver que aquí ponen compresión de tipo H2S4, ¿vale? Esos son algoritmos que pueden ser más o menos eficientes y no me voy a meter mucho en, digamos, este primero. 680 01:12:08,659 --> 01:12:18,060 El wavelet es otro tipo de compresión, aún más eficiente y más avanzado para captación sobre todo que el H.264, ¿vale? 681 01:12:18,539 --> 01:12:26,039 Entonces, pues por ejemplo, una compresión H.264 hará las compresiones de una forma menos eficiente que el wavelet, ¿vale? 682 01:12:26,039 --> 01:12:30,960 Para que se os quede ahí un poco el concepto de que wavelet es una tecnología superior, ¿vale? 683 01:12:30,960 --> 01:12:38,300 Pero lo que sí importa a lo mejor es esto de all-E o las que puede que ponga intraframe o las que ponga interframe, ¿vale? 684 01:12:38,659 --> 01:13:02,779 El año pasado también se vio que las imágenes se podían comprimir de dos formas, principalmente, ¿vale? Con la compresión interframe y la compresión intraframe, ¿vale? Cuando se habla de la compresión intraframe se refiere a que cada uno de los cuadrados de la imagen es una compresión que lo que hace, bueno, lo estoy agrandando mucho porque es pequeñita la imagen, ¿vale? Espero que se vea. 685 01:13:02,779 --> 01:13:22,819 Cada una de las imágenes, y podríamos hablar igual en fotografía, pues si por ejemplo tiene un cielo que tiene 8 píxeles pegados del mismo valor de azul, pues para comprimir y que ocupe menos, lo que hace por ejemplo un JPG sería, ¿hay 8 píxeles azules? Pues pongo en lenguaje informático, por supuesto, 8 píxeles azules. 686 01:13:22,819 --> 01:13:41,859 En vez de poner este píxel es de este azul, bla, bla, bla, bla, bla, información. Otro píxel lo que hace es agruparlos y hacer bloques, ¿vale? Para que de forma sí que se pierda información y seguramente si no tuviéramos un ojo humano limitado, pues a nivel informático se vería que se ha degradado la imagen. 687 01:13:41,859 --> 01:14:04,199 Pero bueno, si el ojo humano no lo percibe, pues para algo que es ya para procesos finales de emisión o de verlo, pues da igual, ¿no? Otra vez volvemos al mismo tema. Entonces, ese es el tipo de, que es más pensando casi en fotografía, de compresión, que es la compresión dentro del frame. En cada fotograma ya puede existir una cierta compresión, ¿vale? Pues como se hace en fotografía. 688 01:14:04,199 --> 01:14:20,279 Pero en vídeo, aparte, como está el factor tiempo, que son fotogramas, distintas imágenes que se van reproduciendo durante el tiempo, lo que se puede hacer es una compresión relacionada con, veis que aquí está todo igual este fondo, es todo absolutamente igual porque está estático, menos la pelota que es la que se mueve. 689 01:14:20,279 --> 01:14:43,000 ¿Por qué hay que guardar toda la información de cada fotograma? Lo que se hace es que se guarda la información de cada fotograma que se marca como referencia, que se llama E-frame, y lo que se va haciendo es que cada ciertos píxeles se va haciendo un fotograma que se llama P, de Predictive. 690 01:14:43,000 --> 01:14:54,779 se llama, ¿vale? El predictivo, que es una especie de analizando las imágenes que hay entre cada fotograma, se ponen como píxeles, como keyframes, digamos, de referencia, ¿vale? 691 01:14:54,819 --> 01:15:03,939 Para que de ahí luego haya otros intermedios, que son estos de tipo B, que son los bidirectional. Entonces, cada cierto tiempo se va diciendo, vale, si no hay variación en el fondo 692 01:15:03,939 --> 01:15:07,340 o no hay información, todo lo que 693 01:15:07,340 --> 01:15:10,640 se repita pues se coge de este 694 01:15:10,640 --> 01:15:13,380 iframe y lo que se va variando 695 01:15:13,380 --> 01:15:16,420 para ir guardando menos información se va haciendo con esta especie 696 01:15:16,420 --> 01:15:19,380 de cálculos en base a la 697 01:15:19,380 --> 01:15:22,279 diferencia que hay, entonces se van guardando digamos solo los detalles 698 01:15:22,279 --> 01:15:24,699 y como podremos también entender 699 01:15:24,699 --> 01:15:28,060 se va comprimiendo y va ocupando menos la señal en el sentido de que 700 01:15:28,060 --> 01:15:31,319 en cada fotograma no se guarda toda la imagen, solo se guarda en este caso 701 01:15:31,319 --> 01:15:35,880 por ejemplo la pelota mucha menos información que guardar aquí que los dos píxeles son diferentes 702 01:15:35,880 --> 01:15:43,739 los dos son y frames vale entonces cuando vemos en la tabla que habla de all y significa que es 703 01:15:43,739 --> 01:15:50,460 un procedimiento de compresión intra frame porque porque no se hace compresión inter frame sino que 704 01:15:50,460 --> 01:15:55,819 cada compresión se va haciendo fotograma fotograma da igual que a lo largo del tiempo se repitan o no 705 01:15:55,819 --> 01:15:57,579 elementos, todo va a ser 706 01:15:57,579 --> 01:15:58,880 intraframe, all i 707 01:15:58,880 --> 01:16:01,939 es un poco la forma de leerlo 708 01:16:01,939 --> 01:16:03,380 si luego vemos 709 01:16:03,380 --> 01:16:05,140 por ejemplo 710 01:16:05,140 --> 01:16:07,779 ipv, es una 711 01:16:07,779 --> 01:16:09,420 forma de llamarlo a la compresión 712 01:16:09,420 --> 01:16:11,359 interframe, son los píxeles 713 01:16:11,359 --> 01:16:13,079 ipv que os he dicho 714 01:16:13,079 --> 01:16:15,880 entonces está haciendo este procedimiento de comprimir 715 01:16:15,880 --> 01:16:16,859 para que 716 01:16:16,859 --> 01:16:19,619 en cada fotograma vaya guardando menos 717 01:16:19,619 --> 01:16:20,920 información, lo de siempre 718 01:16:20,920 --> 01:16:22,520 en principio 719 01:16:22,520 --> 01:16:25,640 cuanta más información retengamos menos se comprime 720 01:16:25,640 --> 01:16:27,619 y es mejor, pero dependiendo del 721 01:16:27,619 --> 01:16:29,600 oficiente que sea el algoritmo, pues no 722 01:16:29,600 --> 01:16:31,159 no tiene por qué 723 01:16:31,159 --> 01:16:33,159 ser, digamos 724 01:16:33,159 --> 01:16:35,699 destacado para el ojo 725 01:16:35,699 --> 01:16:37,899 humano cuando lo ve. Para procesos de postproducción 726 01:16:37,899 --> 01:16:39,779 sí, y ahora de hecho os doy un par de detalles 727 01:16:39,779 --> 01:16:40,779 más, ¿vale? 728 01:16:41,560 --> 01:16:43,659 Luego, NC por ejemplo es no compression 729 01:16:43,659 --> 01:16:45,659 hay formatos de RAW 730 01:16:45,659 --> 01:16:47,640 que no tienen ninguna compresión porque no es objetivo 731 01:16:47,640 --> 01:16:49,779 hay otros de RAW que tienen cierta 732 01:16:49,779 --> 01:16:51,619 compresión, pero es lossless, aunque 733 01:16:51,619 --> 01:16:53,899 estemos bajando un poco lo que se guarda 734 01:16:53,899 --> 01:16:55,420 digamos que el wavelet, lo que 735 01:16:55,420 --> 01:16:57,460 intenta es, pues eso, guardar 736 01:16:57,460 --> 01:16:59,739 toda la información, entonces es bastante 737 01:16:59,739 --> 01:17:01,640 escasa. Intraframe, pues que 738 01:17:01,640 --> 01:17:02,600 la compresión es, 739 01:17:03,539 --> 01:17:05,300 no es interframe, sino que es 740 01:17:05,300 --> 01:17:07,640 intraframe, que no se hace solo 741 01:17:07,640 --> 01:17:09,479 la de la imagen a imagen. 742 01:17:09,899 --> 01:17:10,680 Sí, alguien ha 743 01:17:10,680 --> 01:17:13,619 levantado la mano, creo. Sí, sí, era yo, 744 01:17:13,760 --> 01:17:15,439 justamente era eso, 745 01:17:15,439 --> 01:17:17,199 en interframe lo que 746 01:17:17,199 --> 01:17:18,899 hace es 747 01:17:18,899 --> 01:17:23,600 coge el iframe, 748 01:17:23,600 --> 01:17:25,800 así como está nativo, no varía 749 01:17:25,800 --> 01:17:27,760 la calidad ni nada, simplemente 750 01:17:27,760 --> 01:17:28,760 el iframe 751 01:17:28,760 --> 01:17:31,739 y en las siguientes lo único que va haciendo es 752 01:17:31,739 --> 01:17:33,520 modificando los píxeles 753 01:17:33,520 --> 01:17:35,739 que no corresponden con 754 01:17:35,739 --> 01:17:37,239 el programa anterior 755 01:17:37,239 --> 01:17:39,479 más que modificando es guardando la información 756 01:17:39,479 --> 01:17:41,859 ¿vale? sí, es decir, el iframe 757 01:17:41,859 --> 01:17:43,800 es un frame intraframe, es decir 758 01:17:43,800 --> 01:17:45,659 se hace la compresión que tenga a nivel de 759 01:17:45,659 --> 01:17:47,840 intraframe, ¿vale? de cada fotograma 760 01:17:47,840 --> 01:17:49,699 luego cuando, si ese codec 761 01:17:49,699 --> 01:17:51,380 admite compresión interframe 762 01:17:51,380 --> 01:17:53,500 pues irá haciendo este proceso de 763 01:17:53,500 --> 01:18:15,779 También, nuevamente, interpolación, que esta palabra la uso mucho, pero es esto, hacer la predicción de hacia dónde va y digamos que va haciendo esa, digamos, recreación del movimiento, o mejor dicho, más que recreación es que guarda solo la información que le es útil y el resto pues lo va rellenando frame a frame con los iframes, ¿vale? Sí, es eso. 764 01:18:15,779 --> 01:18:24,760 Vale, entonces, por ejemplo, en un segundo sería un fotograma de iframe y luego los otros 24 de lo que haya guardado, ¿no? 765 01:18:25,439 --> 01:18:34,199 Esto depende porque cuando nos metemos en formatos interframe, como estos que estamos diciendo, por ejemplo, H.264, se me ha puesto otro. 766 01:18:34,500 --> 01:18:40,500 Claro, lo digo porque a lo mejor se puede hacer una escena de A2 o A3 o A4. 767 01:18:40,500 --> 01:19:00,500 Sí, te lo voy a enseñar, dame un segundín. Cuando nosotros tenemos, vamos a, mira, H264, ¿no? Y pone que puede ser interframe, puede ser todo intraframe, puede ser variable, es decir, admite de todo, ¿vale? H264 nuevamente es muy versátil, permite muchas cosas, veis que todo tiene como siempre muchas posibilidades. 768 01:19:01,140 --> 01:19:07,979 Entonces, si vamos, por ejemplo, a exportar algo en esta compresión, se puede hacer al exportar, claro, para que pese más o pese menos. 769 01:19:08,399 --> 01:19:12,020 Hay un concepto que es el del GOP, que es la distancia de píxeles. 770 01:19:12,020 --> 01:19:18,560 A ver, un segundo, si vamos bajando aquí, hay un ajustes avanzados que pone distancias entre fotogramas clave. 771 01:19:19,060 --> 01:19:27,520 Y esto se refiere a los fotogramas clave que son cada cuánto tiempo tiene que hacer, sí o sí, si marcáramos esto, un inframe. 772 01:19:27,520 --> 01:19:30,340 esto es lo que se llama el GOP 773 01:19:30,340 --> 01:19:31,380 el Group of Pictures 774 01:19:31,380 --> 01:19:34,140 de hecho aquí no lo pone 775 01:19:34,140 --> 01:19:35,859 en ningún lado 776 01:19:35,859 --> 01:19:38,340 pero hay un concepto referido a esto 777 01:19:38,340 --> 01:19:40,000 que es el GOP 778 01:19:40,000 --> 01:19:42,619 están saliendo los resultados 779 01:19:42,619 --> 01:19:44,140 pero Group of Pictures 780 01:19:44,140 --> 01:19:46,460 si nos metemos aquí 781 01:19:46,460 --> 01:19:48,399 nosotros podemos decir 782 01:19:48,399 --> 01:19:50,439 limitar a un software que cada ciertos 783 01:19:50,439 --> 01:19:52,899 fotogramas, cada uno de estos es un fotograma 784 01:19:52,899 --> 01:19:54,560 que cada 10 tiene que haber 785 01:19:54,560 --> 01:19:56,279 sí o sí un intraframe para que refresque 786 01:19:56,279 --> 01:20:02,579 digamos la calidad y no sea el algoritmo el que decida cuándo cambia no se puede poner un mínimo 787 01:20:02,579 --> 01:20:08,899 o puede ser variable si no marcamos aquí aquí decimos cada 10 por narices tiene que haber un 788 01:20:08,899 --> 01:20:14,220 frame si no lo ponemos lo irá haciendo de forma selectiva según vaya analizando la información y 789 01:20:14,220 --> 01:20:19,340 si aquí le dijéramos que fuera cada fotograma básicamente le estamos diciendo que sea un all 790 01:20:19,340 --> 01:20:25,720 y que todo sea intra frame entonces la compresión inter frame no la cargaríamos vale entonces sí que 791 01:20:25,720 --> 01:20:27,819 se puede controlar. Si no marcamos 792 01:20:27,819 --> 01:20:29,939 nada y cogemos un formato que admite 793 01:20:29,939 --> 01:20:31,840 compresión interframe, 794 01:20:32,039 --> 01:20:32,859 lo que hará será el 795 01:20:32,859 --> 01:20:35,800 proceso ir haciendo lo que 796 01:20:35,800 --> 01:20:37,340 considera más óptimo. 797 01:20:39,239 --> 01:20:39,939 Por cierto, 798 01:20:40,119 --> 01:20:41,819 me habéis escrito varias cosas y no las he leído. 799 01:20:41,979 --> 01:20:43,500 Perdona. Bueno, 800 01:20:43,920 --> 01:20:44,899 ¿te he contestado a la duda? 801 01:20:46,920 --> 01:20:48,079 Sí, sí, sí. 802 01:20:48,319 --> 01:20:49,899 Gracias. Vale. Por cierto, 803 01:20:49,899 --> 01:20:51,600 aquí, esto ya más avanzado, y de hecho 804 01:20:51,600 --> 01:20:53,779 veis que está todo gris, pero esto 805 01:20:53,779 --> 01:20:55,779 de candela, metros cuadrados, de los 806 01:20:55,779 --> 01:20:57,880 nits que os he dicho antes, está relacionado 807 01:20:57,880 --> 01:20:59,479 con el trabajo ya que se podría hacer 808 01:20:59,479 --> 01:21:01,300 con HDR, ¿vale? 809 01:21:01,819 --> 01:21:03,800 Pero eso es un poco más avanzado 810 01:21:03,800 --> 01:21:05,500 Y una pregunta más, ¿y 811 01:21:05,500 --> 01:21:07,479 habría una nomenclatura para ello? 812 01:21:07,659 --> 01:21:09,739 En plan de, vas a hablar con 813 01:21:09,739 --> 01:21:11,579 de editor a editor, pues mira 814 01:21:11,579 --> 01:21:13,119 te voy a pasar un vídeo con Intraframe de 815 01:21:13,119 --> 01:21:15,699 uno cada diez 816 01:21:15,699 --> 01:21:17,380 o algo así, alguna manera de 817 01:21:17,380 --> 01:21:19,439 es como quien dice, tengo una película 818 01:21:19,439 --> 01:21:21,159 de 16 novenos 819 01:21:21,159 --> 01:21:23,739 Sí, a ver, lo que pasa, igual que tú acabas de decir 820 01:21:23,739 --> 01:21:25,960 de 16 novenos, que es una convención 821 01:21:25,960 --> 01:21:27,899 16 novenos, pues porque se usa 822 01:21:27,899 --> 01:21:29,180 y no es 24 séptimos 823 01:21:29,180 --> 01:21:31,619 lo que se habla es, oye, pásame un 824 01:21:31,619 --> 01:21:33,579 ProRes 422 y ya 825 01:21:33,579 --> 01:21:34,239 más o menos 826 01:21:34,239 --> 01:21:37,119 ya viene configurado 827 01:21:37,119 --> 01:21:39,199 cuando tú coges un Codex 422 828 01:21:39,199 --> 01:21:41,140 casi no hay que tocar nada, porque es 829 01:21:41,140 --> 01:21:43,619 digamos como ya está, ya es como el estándar 830 01:21:43,619 --> 01:21:45,579 del 422, ¿no? Pero si alguien 831 01:21:45,579 --> 01:21:47,260 quisiera, sí, quiero un Intraframe 832 01:21:47,260 --> 01:21:49,680 o sí, te diría, lo quiero 833 01:21:49,680 --> 01:21:51,899 un Intraframe, o quiero un GOP 834 01:21:51,899 --> 01:22:01,560 Que también puede ser largo, un long op, que a veces también hay formatos, pues sería que cada cierto tiempo hay que poner un iframe. 835 01:22:01,939 --> 01:22:08,960 Pero yo te lo digo así de tú a tú, yo en todo lo que he trabajado jamás nadie me ha dicho, oye, ponme un iframe cada cinco frames. 836 01:22:09,779 --> 01:22:16,140 Pues no, si te dice un H.264 se entiende que es porque queremos un formato que sea un codec, que sea interframe, 837 01:22:16,140 --> 01:22:22,260 para que pese menos y se pueda gestionar mejor en redes, por ejemplo, o en donde se vaya a emitir. 838 01:22:23,060 --> 01:22:30,579 Que, ojo, también es importante, esto es importante, que cuando se trabaja en intraframe, 839 01:22:31,039 --> 01:22:35,239 hay que tener en cuenta que va a ser más pesado porque no está haciendo el interframe. 840 01:22:35,960 --> 01:22:39,399 Es decir, cuando se dice intraframe es porque se está descartando un poco que es interframe, 841 01:22:39,659 --> 01:22:40,579 si no se diría interframe. 842 01:22:41,640 --> 01:22:45,279 Si en intraframe vamos guardando cada fotograma con la compresión de cada fotograma, 843 01:22:45,279 --> 01:22:49,659 pero toda la información va a pesar más pero es verdad que cuando se trabaja en postproducción 844 01:22:49,659 --> 01:22:56,279 se trabaja en intra frame vale las máquinas lo procesan más rápido porque cuando trabajamos en 845 01:22:56,279 --> 01:23:00,060 inter frame al final la máquina lo que tiene que hacer en todo momento es ir como recreando estos 846 01:23:00,060 --> 01:23:06,119 huecos porque no existe la información de cada frame entonces como consejo si vais a trabajar 847 01:23:06,119 --> 01:23:13,039 en postproducción en un vídeo lo suyo lo suyo es que trabajéis con formatos en intra frame y 848 01:23:13,039 --> 01:23:20,779 Y de hecho, si nos venimos aquí, casi todos van a ser intraframe, si os fijáis, los de intermediación postproducción. 849 01:23:21,779 --> 01:23:29,180 Sin embargo, los de aquí ya pueden ser diferentes, pero fijaos que los intraframe son los que ganan. 850 01:23:29,880 --> 01:23:36,140 Aquí es verdad que puede haber intraframe, si usamos una cámara más doméstica puede haber intraframe, 851 01:23:36,140 --> 01:23:41,760 pero también va a ser normalmente, bueno, puede ser de cualquier tipo, en realidad, según lo configuremos, va a dar las posibilidades. 852 01:23:41,760 --> 01:24:07,939 Pero cuando trabajemos con ordenadores que tienen que ir procesando para reproducir la señal, que no suelo guardarla en un disco duro, sino que es trabajar con ella, veréis que lo normal es trabajar con Intraframe. Cuando se envía algo a internet, pues se sube a YouTube o donde sea, aunque sea Interframe, como YouTube lo va a procesar, porque siempre hace un procesamiento para subirlo a la plataforma, pues un Interframe pesa mucho menos. Entonces ahí suelen ganar esos. 853 01:24:07,939 --> 01:24:11,140 A ver, dudas que veo por ahí 854 01:24:11,140 --> 01:24:14,199 Bueno, alguna duda más, ahora leo las que me habéis puesto en el foro 855 01:24:14,199 --> 01:24:15,880 Más o menos ya está aquí todo dicho 856 01:24:15,880 --> 01:24:18,619 Porque luego ya es hablar de, bueno, soportes 857 01:24:18,619 --> 01:24:20,739 Son las tarjetas, esto sí que es un tema muy largo 858 01:24:20,739 --> 01:24:22,500 Y creo que no me voy a meter 859 01:24:22,500 --> 01:24:25,720 Y en relación un poco con lo que os he ido contando 860 01:24:25,720 --> 01:24:28,399 Vais a ir viendo que la tasa de datos que admite 861 01:24:28,399 --> 01:24:30,760 O lo que va a pesar también, que está un poco relacionado 862 01:24:30,760 --> 01:24:34,619 Pues aumenta o no aumenta 863 01:24:34,619 --> 01:24:37,460 Entonces ha sido una forma un poco rápida 864 01:24:37,460 --> 01:24:40,479 para que sepáis interpretar una tabla como esta, ¿vale? 865 01:24:42,220 --> 01:24:45,199 Una duda, me habéis escrito en el chat. 866 01:24:45,340 --> 01:24:47,720 ¿El formato .gif es como H.264? 867 01:24:49,920 --> 01:24:52,899 Vale, cuando, mira, si de hecho... 868 01:24:52,899 --> 01:24:55,100 Bueno, esto se lo han puesto desde hace poco. 869 01:24:55,100 --> 01:25:00,319 Un .gif es un formato y un modo de codificar. 870 01:25:00,840 --> 01:25:05,100 El formato .gif realmente es... 871 01:25:05,100 --> 01:25:20,899 Yo no lo catalogaría tanto de vídeo como de informática. No sé, me explico. El formato GIF es un formato muy reducido de gama de color, que concentra una paleta de color muy reducida para optimizar. 872 01:25:20,899 --> 01:25:35,840 Se pensó hace muchos años para que pesaran poco y admitieran un vídeo con muy poco peso y poder ponerlo en banners y poder ponerlo en internet sin que cuando tuviera que cargar la página, pues se quedara ahí atascado con la carga de una imagen muy pesada, ¿vale? 873 01:25:35,840 --> 01:25:40,859 a nivel profesional no se usa 874 01:25:40,859 --> 01:25:42,319 digo, a nivel de vídeo no se usa 875 01:25:42,319 --> 01:25:45,140 en redes, en whatsapp, en eso, sí, por supuesto 876 01:25:45,140 --> 01:25:46,039 entonces 877 01:25:46,039 --> 01:25:47,600 la pregunta es 878 01:25:47,600 --> 01:25:50,479 ¿este contenedor está ligado al formato? Sí, el GIF 879 01:25:50,479 --> 01:25:51,920 está muy restringido 880 01:25:51,920 --> 01:25:54,020 por ejemplo, si nos fijamos aquí 881 01:25:54,020 --> 01:25:55,460 pues vamos a ver, es que 882 01:25:55,460 --> 01:25:58,279 en vídeo, por ejemplo, se hacen con adaptaciones a GIF 883 01:25:58,279 --> 01:26:00,359 realmente es en Photoshop, por ejemplo 884 01:26:00,359 --> 01:26:02,060 donde se puede hacer un GIF viendo todas las opciones 885 01:26:02,060 --> 01:26:03,199 pero 886 01:26:03,199 --> 01:26:05,579 sí es un formato que también se 887 01:26:05,579 --> 01:26:07,619 puede usar para ciertas cosas. 888 01:26:08,199 --> 01:26:09,579 Es decir, tu pregunta no sé por dónde va. 889 01:26:09,680 --> 01:26:12,239 Me has preguntado, ¿este contenedor está ligado al formato? 890 01:26:12,880 --> 01:26:14,220 Es un formato 891 01:26:14,220 --> 01:26:15,840 distinto, .gif. Es decir, 892 01:26:16,159 --> 01:26:17,859 una televisión o un canal 893 01:26:17,859 --> 01:26:20,140 o incluso redes sociales 894 01:26:20,140 --> 01:26:22,340 para contenido audiovisual 895 01:26:22,340 --> 01:26:23,640 no te van a pedir un gif. 896 01:26:23,819 --> 01:26:26,020 Si acaso van a pedir algo de apariencia gif, 897 01:26:26,279 --> 01:26:28,039 que es eso, que tienen paletas de colores 898 01:26:28,039 --> 01:26:29,699 reducidos. 899 01:26:30,060 --> 01:26:30,880 A ver, ¿por qué? 900 01:26:33,199 --> 01:26:39,899 La cosa es, si yo exporto esto, probablemente se vea medianamente bien. 901 01:26:40,420 --> 01:26:44,800 Pero es que no es un formato para audiovisuales realmente, ¿vale? 902 01:26:50,710 --> 01:26:52,310 Voy bajando a ver, ¿todo bien? 903 01:26:52,409 --> 01:26:54,609 HDR, sí, denso, intraframe... 904 01:26:54,609 --> 01:26:57,649 Vale, creo que más o menos he contestado todo. 905 01:26:59,979 --> 01:27:00,600 Ah, vale. 906 01:27:02,300 --> 01:27:05,220 Sí, es un formato, formato GIF, ¿vale? 907 01:27:05,239 --> 01:27:06,899 Y luego ya tiene sus peculiaridades. 908 01:27:06,899 --> 01:27:21,199 Ya os digo, el formato GIF es que de hecho es... aquí vienen opciones porque lo traduce desde lo que estamos trabajando en la línea de tiempo, pero es que es un formato sinformático, aunque admita vídeos, pero no sé, no es un formato de vídeo al uso. 909 01:27:24,300 --> 01:27:29,899 ¿Qué tal? ¿Cómo vais hasta aquí? ¿Me vais siguiendo? De hecho ya son las 8. 910 01:27:31,840 --> 01:27:32,880 Sí, sí, todo bien. 911 01:27:33,380 --> 01:27:33,640 Vale. 912 01:27:33,640 --> 01:27:46,600 Yo tenía otra pregunta, Dani, pero bueno, a ver, sigue siendo casi una pregunta muy extensa, lo entiendo, porque... O sea, yo te lo he preguntado más que nada porque a mí me gusta, cuando estudio esto, me gusta conocer bien la base de lo que trabajo, ¿sabes? 913 01:27:46,939 --> 01:27:56,380 Entonces, pues, por eso ha sido un poco la pregunta. Mi otra pregunta que tenía que apuntar también era respecto a las relaciones de aspecto, a los aspect ratios, ¿vale? 914 01:27:56,819 --> 01:27:57,220 Sí. 915 01:27:57,220 --> 01:28:18,939 Cuando estaba estudiando también estos temas me surgían las dudas un poco de cómo funcionan las relaciones de aspecto, porque claro, imagínate que estamos viendo una película o una serie en nuestro ordenador, sé que existen los llamados leather box, es decir, las franjas por arriba y por debajo y los pillar box, izquierda y derecha, ¿vale? 916 01:28:18,939 --> 01:28:20,939 pero claro 917 01:28:20,939 --> 01:28:22,739 mi duda es 918 01:28:22,739 --> 01:28:24,220 ¿las relaciones de aspecto 919 01:28:24,220 --> 01:28:27,000 tienen que ver más bien con 920 01:28:27,000 --> 01:28:28,359 la información de la imagen 921 01:28:28,359 --> 01:28:30,760 o más con lo que ocupan en la pantalla? 922 01:28:32,920 --> 01:28:34,220 es decir, por ejemplo 923 01:28:34,220 --> 01:28:35,539 yo tengo un 239 924 01:28:35,539 --> 01:28:37,619 un 239 a 1 que es un formato de cine 925 01:28:37,619 --> 01:28:39,300 con un leather box, es decir 926 01:28:39,300 --> 01:28:40,840 con franjas arriba y abajo 927 01:28:40,840 --> 01:28:43,600 entiendo que la relación 928 01:28:43,600 --> 01:28:45,020 el aspect ratio 929 01:28:45,020 --> 01:28:47,500 es un 239 930 01:28:47,500 --> 01:28:50,060 o es más grande porque tienes el everbox 931 01:28:50,060 --> 01:28:52,000 o cómo es realmente cómo funciona 932 01:28:52,000 --> 01:28:52,920 no, no, no 933 01:28:52,920 --> 01:28:54,760 lo que es el aspect ratio 934 01:28:54,760 --> 01:28:57,479 la proporción de aspecto 935 01:28:57,479 --> 01:28:59,239 que eso además también da pista es 936 01:28:59,239 --> 01:29:01,159 la proporción que hay entre el alto y el ancho 937 01:29:01,159 --> 01:29:04,479 ya está, es decir, puede haber un 16 novenos 938 01:29:04,479 --> 01:29:07,180 de 1920x1080 939 01:29:07,180 --> 01:29:10,340 que también puede haber un 16 novenos 940 01:29:10,340 --> 01:29:13,300 de 1280x720 941 01:29:13,300 --> 01:29:15,640 que un, te voy diciendo más 942 01:29:15,640 --> 01:29:32,659 Pero que un 4K, un Ultra HD, que sea un 4096x2160. Todos son proporcionales, más grandes o más pequeños, pero todos dibujan el mismo cuadrado, la misma apariencia de cuadrado, de proporción. 943 01:29:32,659 --> 01:29:47,380 Son igual de 16 novenos todos. Al final, para lo que sirve el aspect ratio es para determinar cuánto de ancho o de alta es la imagen proporcionalmente en el conjunto de la imagen. 944 01:29:47,380 --> 01:30:02,880 Igual que por ejemplo en los móviles es muy claro que cambia absolutamente que la pantalla sea un 16 novenos o un 9 dieciséisavos, que sería la versión horizontal o vertical, aquí es lo mismo. 945 01:30:02,880 --> 01:30:29,600 Se refiere más a la proporción de las medidas, pero luego esas medidas pueden ser más grandes o más pequeñas, siempre y cuando el tamaño de la caja, ¿vale? Me refiero al tamaño con la proporción entre ancho y alto que salga. No sé si me estoy explicando. Al final lo que significa 16 novenos, por ejemplo, es 16 partes de ancho por 9 de alto. Mientras eso se cumpla, es un 16 novenos. 946 01:30:29,600 --> 01:30:31,939 claro, pero mi duda va más 947 01:30:31,939 --> 01:30:33,779 en cuanto a, ¿cuenta los 948 01:30:33,779 --> 01:30:35,699 píxeles negros si hay 949 01:30:35,699 --> 01:30:37,819 tenemos bandas arriba o por abajo? 950 01:30:38,060 --> 01:30:39,779 es decir, tú si estás sacando 951 01:30:39,779 --> 01:30:41,560 un contenido para una pantalla 952 01:30:41,560 --> 01:30:43,779 16 novenos, pero tú 953 01:30:43,779 --> 01:30:45,479 tienes una película que es panorámica 954 01:30:45,479 --> 01:30:47,079 imagínate que 955 01:30:47,079 --> 01:30:49,619 voy a poner una imagen aquí 956 01:30:49,619 --> 01:30:51,840 con letterbox, que como bien has 957 01:30:51,840 --> 01:30:53,600 dicho, son esas franjas negras que se pueden 958 01:30:53,600 --> 01:30:55,880 añadir o encontrar en la parte 959 01:30:55,880 --> 01:30:57,800 de abajo, ¿vale? esta imagen 960 01:30:57,800 --> 01:31:20,119 Aquí, ahora mismo, si te fijas, de hecho viene muy bien marcado, esta imagen es 2.35 a 1. Si tú lo vas a enviar a una televisión, a ver cómo lo explico, porque la pregunta no es que sea complicada, pero hay que hilarlo fino. 961 01:31:20,119 --> 01:31:22,420 esta imagen es 2.35 962 01:31:22,420 --> 01:31:24,159 ¿vale? y si tú lo envías 963 01:31:24,159 --> 01:31:26,220 a un proyector de cine que va 964 01:31:26,220 --> 01:31:28,260 a emitir a 2.35, no le tendrás 965 01:31:28,260 --> 01:31:30,199 que poner letterbox, pero si ese 966 01:31:30,199 --> 01:31:31,819 proyector de cine no puede 967 01:31:31,819 --> 01:31:34,239 no admite 2.35 y si admite 968 01:31:34,239 --> 01:31:36,520 1.85 que es más cuadradito 969 01:31:36,520 --> 01:31:38,119 ¿vale? más como lo que estamos viendo aquí 970 01:31:38,119 --> 01:31:39,079 con estas dos franjas ¿vale? 971 01:31:39,779 --> 01:31:42,300 ahí la imagen que le tienes que hacer llegar es 1.85 972 01:31:42,300 --> 01:31:44,079 la solución es que hay que 973 01:31:44,079 --> 01:31:45,680 hacer una adaptación de 2.35 974 01:31:45,680 --> 01:31:48,300 a 1.85 metiéndole las franjas 975 01:31:48,300 --> 01:31:50,079 ¿vale? entonces a esa persona 976 01:31:50,079 --> 01:31:52,000 si te le pide esa imagen 977 01:31:52,000 --> 01:31:53,899 se la tienes que enviar ya con las franjas 978 01:31:53,899 --> 01:31:56,319 más que nada porque a veces los reproductores 979 01:31:56,319 --> 01:31:58,300 es que no pueden reproducir más aspect ratios 980 01:31:58,300 --> 01:31:59,659 no están preparados 981 01:31:59,659 --> 01:32:02,420 ¿vale? no sé si te estoy contestando 982 01:32:02,420 --> 01:32:04,819 si no, llévame más allá 983 01:32:04,819 --> 01:32:06,539 no, no, no, es que te lo he preguntado 984 01:32:06,539 --> 01:32:07,899 Dani, porque es que el otro día me pasó 985 01:32:07,899 --> 01:32:09,619 o sea, yo que trabajo en postproducción 986 01:32:09,619 --> 01:32:11,560 me surgió esta duda trabajando 987 01:32:11,560 --> 01:32:14,199 porque el programa con el que trabajo yo 988 01:32:14,199 --> 01:32:16,420 me estaba dando un aspect ratio 989 01:32:16,420 --> 01:32:18,100 de unos 78 a 1, un full frame 990 01:32:18,100 --> 01:32:20,520 ¿sabes? y luego la imagen me aparecía así 991 01:32:20,520 --> 01:32:22,039 como un 2.35 o un 2.39 992 01:32:22,039 --> 01:32:23,600 entonces me sugiere la deuda y dije, joder 993 01:32:23,600 --> 01:32:25,640 en plan de, ¿por qué 994 01:32:25,640 --> 01:32:28,319 esta relación de aspecto 995 01:32:28,319 --> 01:32:30,279 cuando realmente la imagen no es así? 996 01:32:31,060 --> 01:32:32,500 es justo lo que acabas de explicar 997 01:32:32,500 --> 01:32:34,420 que realmente en mastering 998 01:32:34,420 --> 01:32:36,779 o sea, el master se ha hecho con un leather box 999 01:32:36,779 --> 01:32:38,380 entonces el programa te detecta 1000 01:32:38,380 --> 01:32:40,199 que es un full frame 1.78 1001 01:32:40,199 --> 01:32:42,380 para que se adapte a tu reproductor 1002 01:32:42,380 --> 01:32:43,539 de la televisión, claro 1003 01:32:43,539 --> 01:32:45,760 por ejemplo, en cine, que es más restringido porque 1004 01:32:45,760 --> 01:32:51,920 que los proyectores son los proyectores. En teles hay millones de cosas, pero en proyectores de cine solo se pueden hacer DCPs, 1005 01:32:51,920 --> 01:33:00,180 es decir, contenidos para proyectores en estas seis resoluciones. Es decir, el estándar de cinema, que es el que está implantado, 1006 01:33:00,640 --> 01:33:07,880 solo admite estas seis medidas, que veis que en realidad son tres a nivel de aspect ratio, solo que una es para 4K y otra es 2K. 1007 01:33:08,420 --> 01:33:14,140 Si tú, por lo que sea, o porque tu cámara también graba a otro aspect ratio, cosa muy muy normal, 1008 01:33:14,140 --> 01:33:18,159 lo que habrá que hacer es adaptar el contenido para que ocupe lo que a ti le interesa. 1009 01:33:18,359 --> 01:33:30,579 Y es más, tú puede que para el cine tengas un 1.85.1 y luego a la adaptación de televisión habrá que recolocar y reencuadrar para que ocupe lo que te interesa. 1010 01:33:31,020 --> 01:33:37,140 Entonces siempre los márgenes, digamos los bordes, se pueden recortar un poco y eso hay que tenerlo en cuenta. 1011 01:33:37,140 --> 01:33:54,659 O, por ejemplo, si veis canales como Factoría de Ficción o The Infinity también, veréis que a veces echan contenido viejo, que era a cuatro tercios, ¿vale? Y de pronto lo veis con dos franjas a la derecha y a la izquierda, lo que se llama pillar box, que son las franjas en vez de arriba y abajo en los laterales, ¿vale? 1012 01:33:54,659 --> 01:34:06,659 Pues al final lo que tienen que hacer es una adaptación porque la tele se va a ver ya en 16 novenos, que son las teles de ahora, pero el contenido está a cuatro tercios porque en su momento se grabó así y a nadie le interesaba eso. 1013 01:34:07,220 --> 01:34:20,159 Ahí hay que pensar si se conserva todo ese cuadradito y se ponen las franjas en los laterales o se escala mucho recortando la parte de arriba y abajo y ocupa todo el ancho de la pantalla. 1014 01:34:20,159 --> 01:34:22,500 no sé por qué estoy haciéndolo sobre esta imagen 1015 01:34:22,500 --> 01:34:24,880 pero no sé si me entendéis 1016 01:34:24,880 --> 01:34:26,560 entonces a veces depende de 1017 01:34:26,560 --> 01:34:28,119 simplemente el sistema que se esté usando 1018 01:34:28,119 --> 01:34:30,659 pues oye, es que los proyectores 1019 01:34:30,659 --> 01:34:32,159 por ejemplo, lo que he dicho 1020 01:34:32,159 --> 01:34:34,039 es que solo admiten esas medidas 1021 01:34:34,039 --> 01:34:36,220 si no se lo das, te lo va a recortar solo 1022 01:34:36,220 --> 01:34:37,760 ¿sabes? entonces a veces 1023 01:34:37,760 --> 01:34:40,460 se le incluye los letterbox ya directamente 1024 01:34:40,460 --> 01:34:42,359 para asegurarse que es esa medida 1025 01:34:42,359 --> 01:34:43,239 como tú se la das 1026 01:34:43,239 --> 01:34:44,979 al pixel 1027 01:34:44,979 --> 01:34:48,029 ¿sí? 1028 01:34:48,710 --> 01:34:51,289 Sí, Dani, lo único que entiendo es que 1029 01:34:51,289 --> 01:34:54,810 el número que te aparece del aspect ratio 1030 01:34:54,810 --> 01:34:56,949 es el que se va a reproducir 1031 01:34:56,949 --> 01:34:58,449 en el proyector o en la pantalla 1032 01:34:58,449 --> 01:35:00,510 por ejemplo, la imagen que tenías antes 1033 01:35:00,510 --> 01:35:01,390 del gran cañón 1034 01:35:01,390 --> 01:35:04,869 no sé cuál será el aspect ratio 1035 01:35:04,869 --> 01:35:05,930 pero imaginemos que es 1036 01:35:05,930 --> 01:35:08,010 un 85 a 1, como has dicho 1037 01:35:08,010 --> 01:35:10,350 el aspect ratio de esa peli 1038 01:35:10,350 --> 01:35:12,329 o de esa imagen será un 85 a 1 1039 01:35:12,329 --> 01:35:14,090 claro, es que depende 1040 01:35:14,090 --> 01:35:15,869 tú imagínate que tú 1041 01:35:15,869 --> 01:35:17,670 lo que has exportado es 1042 01:35:17,670 --> 01:35:21,130 una imagen que su aspect ratio 1043 01:35:21,130 --> 01:35:22,550 es un 85 a 1, ¿vale? 1044 01:35:23,090 --> 01:35:25,170 Y entonces el vídeo, si es esta la imagen, 1045 01:35:25,310 --> 01:35:26,949 tiene estas dos franjas, ya el vídeo en sí. 1046 01:35:27,729 --> 01:35:29,029 Si tú esto luego lo lanzas 1047 01:35:29,029 --> 01:35:30,109 en una tele o en un monitor 1048 01:35:30,109 --> 01:35:33,130 que está configurado, que vamos, que tiene unas medidas 1049 01:35:33,130 --> 01:35:35,289 más panorámicas de 16 novenos 1050 01:35:35,289 --> 01:35:37,109 o de 2.35, si tú ya 1051 01:35:37,109 --> 01:35:38,270 le has metido las franjas, 1052 01:35:38,909 --> 01:35:41,350 se va a ver con las franjas. ¿Y qué es lo que va a hacer? 1053 01:35:41,569 --> 01:35:43,010 Y de hecho los televisores y los monitores 1054 01:35:43,010 --> 01:35:45,170 tienen varias opciones del scan mode, 1055 01:35:45,170 --> 01:35:46,869 que se llama, que puede ser que 1056 01:35:46,869 --> 01:35:49,250 todo se escale para que ocupe todo el ancho 1057 01:35:49,250 --> 01:35:50,750 y entonces se deformaría la imagen 1058 01:35:50,750 --> 01:35:55,590 o que recorte por arriba o abajo lo que le sobre para que entre uno de los laterales 1059 01:35:55,590 --> 01:36:00,170 y cubra entera la imagen, dependerá del monitor o el sistema que estés usando. 1060 01:36:00,869 --> 01:36:04,470 Pero si tú exportas la imagen con estos Letterboxd ya, 1061 01:36:04,970 --> 01:36:08,689 el vídeo que llega es con los Letterboxd, es el renderizado, ¿vale? 1062 01:36:08,689 --> 01:36:12,630 Es decir, si yo saco este fotograma, si yo en Premiere, por ejemplo, 1063 01:36:13,130 --> 01:36:16,909 saco para que saque estas bandas negras, esas bandas negras están. 1064 01:36:16,909 --> 01:36:30,550 Si tú tienes una imagen muy panorámica, ¿vale? Muy panorámica y lo emites una televisión así cuadrada, si tú pones un modo Fit, no, Fill, mejor dicho, para que ocupe esto, ocupará eso. 1065 01:36:30,550 --> 01:36:49,109 Pero mira, es que de hecho te voy a hacer el ejemplo aquí. Cuando tenemos aquí este vídeo, que es un 1920... A ver, espera, lo voy a poner en HDS4. Este vídeo, si voy aquí, sus proporciones son 1920 por 1080, un 16 novenos, ¿no? Sin más. 1066 01:36:49,109 --> 01:37:12,829 Y imagínate que yo lo voy a exportar para que en vez de ser su medida sea... ¿Por qué no me deja hacer la medida que yo...? Ah, personalizado. Quiero que sea, ¿vale? Y quito la cadenita para que deje de tener ese Aspelt Ratio. Y empiezo aquí a trastocar y digo, 5.000. Fíjate, aquí se han incorporado dos franjas. 1067 01:37:13,609 --> 01:37:14,869 Esto es lo que haría la televisión. 1068 01:37:15,350 --> 01:37:18,569 Lo que pasa es que, igual que tienen las televisiones, aquí tenemos varias opciones de, 1069 01:37:18,569 --> 01:37:25,550 oye, si no es exactamente las medidas del proyecto, del vídeo, con el de la exportación, ¿cómo hago el relleno? 1070 01:37:27,109 --> 01:37:32,369 ¿Simplemente lo ajusto para que uno de los lados ocupe todo lo que pueda y ya el resto lo dejo en negro? 1071 01:37:32,630 --> 01:37:33,489 ¿O hago esto? 1072 01:37:34,390 --> 01:37:40,789 Le doy aquí y lo que hago es que el relleno lo hago del ancho en vez del alto, como hacía antes. 1073 01:37:40,989 --> 01:37:42,109 Aquí lo que hace es el ancho. 1074 01:37:42,109 --> 01:37:55,529 O directamente no, lo que hago es que todo lo que tenía la imagen, todo, que ocupe el cuadro con la consecuente deformación. Esto lo hacen los monitores también. 1075 01:37:55,529 --> 01:37:59,329 los monitores me refiero 1076 01:37:59,329 --> 01:38:01,329 si tú le metieras el vídeo desde un archivo 1077 01:38:01,329 --> 01:38:03,130 por ejemplo, pero tú puedes 1078 01:38:03,130 --> 01:38:05,170 decirle también cómo se ajusta la imagen 1079 01:38:05,170 --> 01:38:07,430 ¿vale? y en tu software donde has visto 1080 01:38:07,430 --> 01:38:09,350 eso, probablemente también hay opciones 1081 01:38:09,350 --> 01:38:10,930 de 1082 01:38:10,930 --> 01:38:13,069 cómo se 1083 01:38:13,069 --> 01:38:15,229 escala o se rellena la imagen 1084 01:38:15,229 --> 01:38:17,590 que estáis muy en silencio 1085 01:38:17,590 --> 01:38:19,470 más o menos me... 1086 01:38:19,470 --> 01:38:21,010 Sí, sí, Dani, no, no, perfecto 1087 01:38:21,010 --> 01:38:22,409 sí, era eso un poco la... 1088 01:38:22,409 --> 01:38:25,029 Eso, y en Factoría de Ficción yo lo he visto muchísimo 1089 01:38:25,029 --> 01:38:38,850 En plan, aquí no hay quien viva en cuatro tercios y lo que hacen es, pues lo pasa a otro formato de 1920x1080 o de 1280x720, que son 16 novenos, y han decidido que para que no se deforme, pues meto dos franjas a los laterales y ya está. 1090 01:38:38,850 --> 01:38:55,729 Queda horroroso, sí, porque parece que estás viendo una story más que la tele, pero bueno, pues no se preocuparon en el futuro o no lo sabían, aunque en esa época creo que sí, y lo hacían a cuatro tercios y no hicieron másteres a más resoluciones ni trabajaron de otra forma. 1091 01:38:55,729 --> 01:39:03,470 entonces pues tienes que sacrificar por algún lado vale pues en principio eso no así lo que 1092 01:39:03,470 --> 01:39:09,229 tenía preparado para hoy si no tenéis más dudas por supuesto era esto eso dudas que tengáis como 1093 01:39:09,229 --> 01:39:14,210 siempre me podéis escribir en el foro y si puedo la contesta en el foro y si no pues eso es la 1094 01:39:14,210 --> 01:39:20,619 próxima tutoría que no sé cuándo va a ser pero tampoco creo que sea en la semana que viene 1095 01:39:20,619 --> 01:39:26,920 imagino que será vale o la siguiente como muchísimo por si no ya son los exámenes vamos hablando 1096 01:39:26,920 --> 01:39:30,220 Entonces, muchas gracias por asistir y ánimo con ello.