1 00:00:00,000 --> 00:00:07,320 Comenzamos el segundo capítulo del espacio debate entre jóvenes, en esta segunda entrega 2 00:00:07,320 --> 00:00:11,880 vamos a explorar un tema crucial, la desinformación y las fake news. 3 00:00:11,880 --> 00:00:15,600 En un mundo donde accedemos a la información a golpe de clic y disponemos de infinidad 4 00:00:15,600 --> 00:00:21,160 de fuentes para acceder a ella, es esencial entender cómo las noticias falsas y la desinformación 5 00:00:21,160 --> 00:00:23,560 pueden afectar a nuestras vidas. 6 00:00:23,560 --> 00:00:27,880 En este segundo debate vamos a delimitar el concepto de fake news, vamos a hablar de la 7 00:00:27,880 --> 00:00:32,260 necesidad de una regulación más estricta y vamos a intentar conocer hasta qué punto 8 00:00:32,260 --> 00:00:36,080 pueden llegar a influir en la agenda pública o el equilibrio que hay que buscar entre la 9 00:00:36,080 --> 00:00:39,040 libertad de expresión y la difusión de información falsa. 10 00:00:39,040 --> 00:00:43,480 La educación juega un importante papel en este debate y por ello celebramos este encuentro 11 00:00:43,480 --> 00:00:48,300 junto a los alumnos y alumnas de bachillerato del Instituto Galileo Galilei, ellos y ellas 12 00:00:48,300 --> 00:00:52,480 van a trabajar durante todo el curso sobre las fake news y la desinformación. 13 00:00:52,480 --> 00:00:53,240 Gracias por recibirnos. 14 00:00:58,240 --> 00:01:02,960 Muy buenos días y bienvenidos todos y todas a este segundo capítulo de debate entre jóvenes. 15 00:01:02,960 --> 00:01:06,080 Ya sabéis que dentro de la Concejalía de Juventud hemos sacado una nueva iniciativa 16 00:01:06,080 --> 00:01:10,520 para debatir, para hablar, para compartir con nuestros jóvenes, algunos de Alcorcón, 17 00:01:10,520 --> 00:01:15,120 otros de fuera, pero todo temas que pueden importar, que pueden afectar a los jóvenes 18 00:01:15,120 --> 00:01:16,120 de Alcorcón. 19 00:01:16,120 --> 00:01:20,440 El primer capítulo que sacamos ya hace un mes trató sobre la salud mental, esperamos 20 00:01:20,440 --> 00:01:24,960 que os haya gustado, podéis verlo en Youtube, en los canales de la Concejalía y hoy venimos 21 00:01:24,960 --> 00:01:29,480 a hablar de un tema que todos conocemos y que muchas veces todos nos creemos y son 22 00:01:29,480 --> 00:01:31,080 las fake news. 23 00:01:31,080 --> 00:01:35,800 Estamos acostumbrados a recibir información por todas partes, las redes sociales a golpe 24 00:01:35,800 --> 00:01:41,400 de clic lo tenemos directamente con el móvil, con nuestro ordenador, en sitios publicitarios, 25 00:01:41,400 --> 00:01:42,400 etc. 26 00:01:42,400 --> 00:01:46,160 Recibimos demasiada información muchas veces, pero como nos afecta esa información, nos 27 00:01:46,160 --> 00:01:52,440 estamos creyendo todo, somos críticos y buscamos en diferentes fuentes, pues venimos un poco 28 00:01:52,440 --> 00:01:53,920 a hablar de ello. 29 00:01:53,920 --> 00:01:58,400 Nos acompañan cuatro jóvenes, muy jóvenes, de hecho uno de ellos del Instituto Galileo 30 00:01:58,400 --> 00:02:02,480 Galilei de aquí de Alcorcón y ahora mismo estamos delante de un montón de alumnos que 31 00:02:02,480 --> 00:02:06,920 nos acompañan en este segundo capítulo, así que bueno, un poco sin más dilación, 32 00:02:06,920 --> 00:02:11,680 si os parece vamos a arrancar con las preguntas, va a ser una serie de preguntas para que sea 33 00:02:11,680 --> 00:02:16,400 guiado como en el capítulo anterior ocurrió, pero estamos abiertos a cualquier tema que 34 00:02:16,400 --> 00:02:20,840 pueda surgir porque se trata de eso, de compartir, de debatir y si hay algún tema que creemos 35 00:02:20,840 --> 00:02:23,920 que nos pueda interesar más, pues ahí pararemos. 36 00:02:23,920 --> 00:02:29,360 Bueno, la primera pregunta voy a empezar por Marcos, ¿deberían los gobiernos implementar 37 00:02:29,360 --> 00:02:33,920 regulaciones más estrictas para combatir la difusión de noticias falsas, de estas 38 00:02:33,920 --> 00:02:35,400 fake news? 39 00:02:35,400 --> 00:02:41,080 Yo creo que en una sociedad tan digitalizada como tenemos a día de hoy, es muy importante 40 00:02:41,080 --> 00:02:46,880 que seamos conscientes de cómo nos pueden afectar las informaciones. 41 00:02:46,880 --> 00:02:52,240 Estamos en una sociedad en la que tenemos muchas tecnologías y por lo tanto mucho acceso 42 00:02:52,240 --> 00:02:57,720 a la información y eso tiene su lado bueno y su lado malo, el lado positivo es que obviamente 43 00:02:57,720 --> 00:03:03,080 tenemos más información que nunca, pero también nos la pueden colar más que nunca, precisamente 44 00:03:03,080 --> 00:03:08,680 por eso yo creo que sería necesario que los gobiernos sí que tomasen acción y que nos 45 00:03:08,680 --> 00:03:13,760 ayudasen un poco a los ciudadanos a delimitar qué es lo que es cierto y qué es lo que 46 00:03:13,760 --> 00:03:14,760 no. 47 00:03:14,760 --> 00:03:20,600 Pero también es un poco peligroso, en mi opinión, el hecho de que el gobierno sea 48 00:03:20,600 --> 00:03:28,600 solamente el único que haga el filtro, yo creo que el gobierno debería ayudar a que 49 00:03:28,600 --> 00:03:34,000 los ciudadanos pudiésemos detectar esas mentiras, pero no que sea él que detectase las mentiras. 50 00:03:34,000 --> 00:03:38,160 Vale, que en vez de que nos haga ese filtro, que nos lleve, que sea un poco el carril que 51 00:03:38,160 --> 00:03:42,240 nos ayude a entenderlo o que nos dé herramientas, ¿tú cómo lo ves? 52 00:03:42,240 --> 00:03:46,240 Pues a ver, yo estoy un poco de acuerdo con Marcos, o sea, yo como verificadora es verdad 53 00:03:46,240 --> 00:03:51,800 que bueno nosotros no nos metemos normalmente en temas legales, pero es verdad que es muy 54 00:03:51,800 --> 00:03:58,000 poco complicado meter a un gobierno a decidir sobre los contenidos que se difunden en medios 55 00:03:58,000 --> 00:04:02,280 de comunicación porque bueno al final podrían controlar cualquier cosa, entonces creo que 56 00:04:02,280 --> 00:04:09,140 es mejor optar por regular de otro tipo de formas, pues por ejemplo incluso una alfabetización 57 00:04:09,140 --> 00:04:14,500 mediática, o sea, enseñar a alumnos en institutos y en general pues que se aprenda 58 00:04:14,500 --> 00:04:19,780 un poco más cómo detectar bulos, más que regular cómo se difunden. 59 00:04:19,780 --> 00:04:24,660 O sea, creo que ya estamos hablando y acabamos de arrancar, pero ya no nos estamos metiendo 60 00:04:24,660 --> 00:04:28,340 en que la educación va a ser el centro de esto, creo que estamos todos de acuerdo, ¿tú 61 00:04:28,340 --> 00:04:29,340 cómo lo ves María? 62 00:04:29,340 --> 00:04:35,620 Yo pienso que es super importante que el gobierno intervenga un poco en regular la desinformación 63 00:04:35,620 --> 00:04:41,860 porque al final es muy importante lo que decimos, cómo lo decimos, bueno yo trabajo 64 00:04:41,860 --> 00:04:45,140 en un medio de comunicación y al final he cometido errores, he pedido perdón porque 65 00:04:45,140 --> 00:04:50,460 aparte de afectar a nuestra reputación, luego también afecta mucho a la toma de decisiones 66 00:04:50,460 --> 00:04:55,620 de las personas, entonces yo creo que sí que hay que regular las fake news. 67 00:04:55,620 --> 00:05:00,980 Yo lo veo complejo, la parte de regular, lógicamente, siempre que hablamos de regular cosas nuevas 68 00:05:00,980 --> 00:05:06,980 que esto desde la entrada arrasadora de las redes sociales, las fake news se dispararon, 69 00:05:06,980 --> 00:05:10,780 antes no era tan común, que también lo había, lo ha habido siempre, hasta en medios escritos, 70 00:05:10,780 --> 00:05:17,060 pero siempre que hablamos de regular nuevas cosas que nos afectan, entramos en camisa 71 00:05:17,060 --> 00:05:21,500 de 11 varas de a ver qué está bien, qué no está bien y también que hay tintes políticos 72 00:05:21,500 --> 00:05:25,260 lógicamente que pueden aparecer, ¿qué nos cuentas? 73 00:05:25,260 --> 00:05:30,900 Es un tema muy complicado, yo como periodista e historiador creo que es muy complicado poner 74 00:05:30,900 --> 00:05:36,020 a un gobierno el que sea a legislar algo, creo que es muy complicado, la línea entre 75 00:05:36,020 --> 00:05:42,700 censura y libertad de prensa es muy delgada, es muy complicado incluso poner a jueces, 76 00:05:42,700 --> 00:05:46,860 por ejemplo, quien juzga luego a esos jueces si se han equivocado o no, creo que le corresponde 77 00:05:46,860 --> 00:05:52,260 más a la sociedad, creo que es trabajo nuestro, además de una implementación de más programas 78 00:05:52,260 --> 00:05:58,140 de cultura, de educación, de historia, etcétera, etcétera, pero yo creo que le corresponde 79 00:05:58,140 --> 00:06:03,740 más a la gente, a nosotros, a verificar las fuentes, a buscar más información, etcétera, 80 00:06:03,740 --> 00:06:06,540 etcétera, no tanto a un gobierno. 81 00:06:06,540 --> 00:06:12,220 Porque siguiendo un poco la línea de más administración pública barra gobierno, creo 82 00:06:12,220 --> 00:06:17,620 que estamos de acuerdo que bueno, sí, se puede ayudar a regular o empezar una regulación 83 00:06:17,620 --> 00:06:20,620 sencilla siempre con una base de educación, ¿no? 84 00:06:20,620 --> 00:06:25,500 Pero ¿cómo creéis que estas fake news, ya sean por redes sociales, medios escritos, 85 00:06:25,500 --> 00:06:29,900 fake news en general que nos llegan por todas partes y cada vez más, es abrumador el número 86 00:06:29,900 --> 00:06:34,700 de fake news que podemos leer en un mismo día, en un único día, cómo creéis que 87 00:06:34,700 --> 00:06:41,140 eso afecta a cómo formamos nuestra opinión, cómo tomamos decisiones, ya no solo de a 88 00:06:41,140 --> 00:06:44,860 quién vamos a votar pasado mañana, es a qué me quiero dedicar, por ejemplo, dónde 89 00:06:44,860 --> 00:06:49,780 quiero vivir, por qué hablo de esta forma y no de otra y qué persona quiero ser, ¿no? 90 00:06:49,780 --> 00:06:54,740 Hasta qué punto esas fake news nos crean una imagen de nosotros mismos que deja de 91 00:06:54,740 --> 00:06:58,380 ser todo menos real, ¿cómo lo veis? 92 00:06:58,380 --> 00:07:04,140 Al final las fake news, en general, la información como tal en un mundo globalizado influye a 93 00:07:04,140 --> 00:07:10,820 todos, a toda la sociedad, a todos los niveles, tanto en política como a nivel social, estigmas 94 00:07:10,820 --> 00:07:14,900 que se puedan crear en cuanto a la inmigración, al racismo, etcétera, etcétera, yo creo 95 00:07:14,900 --> 00:07:20,980 que al final afecta a todos los niveles de la gente y no viene solo de aquí, en la antigua 96 00:07:20,980 --> 00:07:27,580 Roma pasaba, en el siglo XX pasaba, en el 722 con la batalla de Covadonga pasaba también, 97 00:07:27,580 --> 00:07:33,860 yo creo que no es algo actual, ya pasando muchos siglos y al final creo que la sociedad 98 00:07:33,860 --> 00:07:35,540 nos ha curado del todo, ¿no? 99 00:07:35,540 --> 00:07:36,540 Es un poco una herramienta, ¿no? 100 00:07:36,540 --> 00:07:37,540 Sí. 101 00:07:37,540 --> 00:07:41,060 O sea, las fake news ahora yo creo que es una herramienta que la gente puede utilizar 102 00:07:41,060 --> 00:07:46,140 y de hecho utiliza, o sea, yo me lo llevo, claro, un poco a lo que hacemos, ¿no? 103 00:07:46,140 --> 00:07:50,740 A las campañas políticas, pero es que las empresas para hundir a la competencia, ¿cuántas 104 00:07:51,500 --> 00:07:55,860 veces hemos visto bulos, bueno, de Pepsi a Coca-Cola ha habido una guerra durante años 105 00:07:55,860 --> 00:07:59,740 basada en bulos, bulos y bulos, que le llamábamos bulos y ahora lo llamaremos fake news, pero 106 00:07:59,740 --> 00:08:00,740 es que es lo mismo. 107 00:08:00,740 --> 00:08:02,340 ¿Cómo lo ves? 108 00:08:02,340 --> 00:08:08,220 Yo lo veo así y como ha dicho Diego, es cierto que esto ha existido durante toda la historia 109 00:08:08,220 --> 00:08:13,220 y que en muchas ocasiones se ha podido utilizar, por ejemplo, en contextos bélicos para exacerbar 110 00:08:13,220 --> 00:08:18,340 el sentimiento nacionalista de los ciudadanos, de los países, se me ocurre como ejemplo 111 00:08:18,340 --> 00:08:25,380 en la guerra de lo que nosotros conocemos como el desastre del 98, la guerra hispano-estadounidense, 112 00:08:25,380 --> 00:08:35,300 en la que los Estados Unidos, hubo el hundimiento de la plaza Domain y no estaba claro si ese 113 00:08:35,300 --> 00:08:41,060 barco fue hundido por España o si fue alguna otra maniobra, pero enseguida se utilizó 114 00:08:41,060 --> 00:08:45,860 como excusa y como propaganda para iniciar una guerra contra España, fue más o menos 115 00:08:45,860 --> 00:08:48,780 lo que hizo que el pueblo americano quisiera esa guerra. 116 00:08:48,780 --> 00:08:55,180 Y que es muy probable, ahora sacando un poco el tema guerras, estamos viviendo una crisis 117 00:08:55,180 --> 00:08:59,500 que nos afecta a todos por muy lejos que parezca que está ocurriendo, con Israel y Palestina 118 00:08:59,500 --> 00:09:03,460 y es alucinante, pero bueno, ya están multando y empezando a levantar la mano con Twitter 119 00:09:03,460 --> 00:09:10,540 por ejemplo, con X o como queramos llamarlo, porque el 80% de los titulares que han salido 120 00:09:10,540 --> 00:09:15,780 en las redes sociales sobre Israel, sobre Hamas, sobre Palestina, etcétera, son falsos, 121 00:09:15,780 --> 00:09:21,380 es alucinante y claro, nosotros ahora recibimos esa información, o sea, tú como ves María, 122 00:09:21,380 --> 00:09:25,460 lo que hablábamos un poco de la información que estamos recibiendo, hace que generemos 123 00:09:25,460 --> 00:09:28,580 una visión, una opinión. 124 00:09:28,580 --> 00:09:29,580 Sí, totalmente. 125 00:09:29,580 --> 00:09:33,860 A ver, yo pienso que al final, por eso la educación juega un papel fundamental, tienes 126 00:09:33,860 --> 00:09:38,460 que aprender a contrastarle a diferentes fuentes la información, porque no te puedes basar 127 00:09:38,460 --> 00:09:43,980 solo en un titular, al final tienes que aprender, o por tu cuenta, porque te lo enseñan desde 128 00:09:43,980 --> 00:09:48,380 pequeños, a tener un pensamiento crítico y a saber verificar esa información, ¿sabes? 129 00:09:48,380 --> 00:09:52,460 Lo que estoy leyendo es verdad, voy a informarme de otras fuentes, no sé, creo que al final 130 00:09:52,460 --> 00:09:58,460 es fundamental aprender a informarte y a saber lo que es cierto y lo que no. 131 00:09:58,460 --> 00:10:01,900 Contrastar y leer, leer, leer y decir, sí, sí. 132 00:10:01,900 --> 00:10:06,900 O sea, ¿tú has vivido por ejemplo alguna vez que..., bueno, es que yo creo que alguna 133 00:10:06,900 --> 00:10:10,620 fake news la hemos tragado todos, aunque nos haya durado 10 minutos y luego nos hemos 134 00:10:10,620 --> 00:10:12,140 dado cuenta de que no, ¿no? 135 00:10:12,140 --> 00:10:16,460 Pero bueno, es que hasta de un concierto que dije, va a haber un concierto el otro día 136 00:10:16,460 --> 00:10:20,140 y no sé qué, no era fake news, pues eran a todos ahí esperando a un concierto y no 137 00:10:20,140 --> 00:10:21,140 era verdad. 138 00:10:21,140 --> 00:10:25,380 Entonces, con cosas tan absurdas como puede ser un evento que va a ocurrir, a cosas tan 139 00:10:25,380 --> 00:10:29,580 importantes como una guerra, o sea, ¿tú en primera persona has vivido algo de, pues 140 00:10:29,580 --> 00:10:34,220 me he tragado esto y he generado una opinión que realmente no era la que hubiese generado 141 00:10:34,220 --> 00:10:36,020 si hubiese leído la verdad? 142 00:10:36,020 --> 00:10:40,460 Es verdad que como verificadora también me pasa, o sea, creo que es algo muy habitual, 143 00:10:40,460 --> 00:10:45,300 al final estás siempre consumiendo redes sociales y no siempre tienes la atención 144 00:10:45,300 --> 00:10:46,620 completa en lo que estás leyendo. 145 00:10:46,620 --> 00:10:52,220 Entonces, al final ahí se nota un poco que de repente digo, uy, esto es cierto y se lo 146 00:10:52,220 --> 00:10:54,420 comparto a un amigo y digo, pero ¿qué he hecho? 147 00:10:54,420 --> 00:10:55,420 Justo. 148 00:10:55,420 --> 00:10:58,620 Es el problema que tenemos también el botón fácil de compartir, ¿no? 149 00:10:58,620 --> 00:11:02,580 A mí me ha pasado alguna vez de, pues he compartido esto de, uy, mira lo que ha pasado 150 00:11:02,620 --> 00:11:04,500 y luego digo, ¿esto es verdad? 151 00:11:04,500 --> 00:11:08,980 O sea, espérate que tengo que, y tienes que recular muchas veces porque lo tenemos. 152 00:11:08,980 --> 00:11:14,340 Bueno, desde el principio un poco de la conversación, el debate, ha salido enseguida el tema clave 153 00:11:14,340 --> 00:11:17,780 y que también por eso estamos aquí en el Galileo Galilei, la educación. 154 00:11:17,780 --> 00:11:23,740 O sea, ¿qué impacto, qué peso tiene la educación en nosotros, cómo debemos orientarla para 155 00:11:23,740 --> 00:11:26,860 intentar que las fake news nos hagan el menor daño posible? 156 00:11:26,860 --> 00:11:32,260 O sea, es muy difícil evitar 100%, pero como de muchas otras cosas, pero ¿cómo creéis 157 00:11:32,300 --> 00:11:37,700 que la educación puede ayudarnos o qué papel tiene en hacernos un poco más críticos quizás? 158 00:11:37,700 --> 00:11:38,700 ¿Cómo lo ves María? 159 00:11:38,700 --> 00:11:41,660 Aprender a utilizar la información de una manera ética y responsable, yo creo que por 160 00:11:41,660 --> 00:11:45,500 ejemplo hoy tenemos un problema con la inteligencia artificial, a raíz de la inteligencia artificial 161 00:11:45,500 --> 00:11:51,700 estamos viendo un montón de bulos, desinformación, o sea, cosas que no son verídicas y hay que 162 00:11:51,700 --> 00:11:57,100 aprender a usar las redes sociales de una forma responsable porque creo que la gente 163 00:11:57,100 --> 00:12:01,220 joven sobre todo está todo el día con las redes sociales y al final como no aprendes 164 00:12:01,220 --> 00:12:04,500 a usarlo y te creas todo lo que lees, es un problema y sobre todo con la inteligencia 165 00:12:04,500 --> 00:12:10,460 artificial que va en aumento, y bueno, lo estamos viendo con influencers, con todo, 166 00:12:10,460 --> 00:12:15,860 que utilizan cuerpos desnudos en caras que no son reales, sabes, al final eso pues es 167 00:12:15,860 --> 00:12:16,860 un problema. 168 00:12:16,860 --> 00:12:20,220 Claro, o sea, se dan la fake news, a lo mejor estamos hablando ahora de titulares o la parte 169 00:12:20,220 --> 00:12:26,300 más periodística, pero como la inteligencia artificial es capaz de alterar una imagen 170 00:12:26,300 --> 00:12:30,860 o una voz y nos creemos que eso es una realidad, también es un poco fake news ¿no? 171 00:12:30,860 --> 00:12:35,180 Y en las redes sociales estamos consumiendo constantemente imágenes que probablemente 172 00:12:35,180 --> 00:12:36,180 no son ni reales. 173 00:12:36,180 --> 00:12:41,260 Es que al final, perdón, mucha de la información que la gente joven consume se trae de las 174 00:12:41,260 --> 00:12:44,660 redes sociales, entonces al final no aprendes a usar de una forma responsable las redes 175 00:12:44,660 --> 00:12:48,780 sociales o no te enseñan, pues eso, a ver si esto es verdad o esto es mentira, pues 176 00:12:48,780 --> 00:12:50,940 al final la gente se va a creer todo lo que ve. 177 00:12:50,940 --> 00:12:56,620 Totalmente, o sea, y al final, vale, vemos que la parte de regulación de los gobiernos 178 00:12:56,620 --> 00:13:00,780 es muy complicada, o sea, que lógicamente hay que hacer algo, no se puede quedar el 179 00:13:00,780 --> 00:13:03,900 gobierno de brazos cruzados, eso no puede ocurrir ¿no? 180 00:13:03,900 --> 00:13:09,940 Tenemos que establecer herramientas, formas de entender también este nuevo paradigma 181 00:13:09,940 --> 00:13:14,540 tecnológico con la inteligencia artificial, las redes sociales y demás que nos rodea, 182 00:13:14,540 --> 00:13:20,300 pero cómo podemos quizá incluir dentro de nuestra educación del día a día, en colegios, 183 00:13:20,300 --> 00:13:26,180 en institutos, en universidades, qué se os ocurre que podemos hacer como para ser, eso, 184 00:13:26,740 --> 00:13:32,700 estudiantes y personas mucho más críticas con lo que leemos, yo no creo que baste con 185 00:13:32,700 --> 00:13:36,100 decir oye que hay que ser críticos, hay que contrastar, pues vale, se va a quedar en una 186 00:13:36,100 --> 00:13:39,300 frase pero habrá que tomar algún tipo de acción, ¿cómo lo veis? 187 00:13:39,300 --> 00:13:45,980 Sí, yo creo que precisamente en el plano educativo, pues se nos debería hacer más 188 00:13:45,980 --> 00:13:52,460 énfasis en temas cuando estamos verificando noticias, por ejemplo, se me ocurre que se 189 00:13:52,460 --> 00:13:57,860 nos debería de ayudar un poco más a cómo ir filtrando lo que es cierto y lo que no 190 00:13:57,860 --> 00:14:04,140 es cierto, nosotros tuvimos un proyecto que consistía en eso, pero lo que pasa es que 191 00:14:04,140 --> 00:14:10,300 no es un proyecto en el que participáramos todos y yo creo que hay muchos alumnos a los 192 00:14:10,300 --> 00:14:18,380 que por culpa de poner énfasis en otros temas acaban cayendo en estos bulos y la desinformación 193 00:14:18,540 --> 00:14:26,460 porque no es algo que más allá de intentar advertirnos se nos enseñe cómo no caer en 194 00:14:26,460 --> 00:14:30,940 ello y no es algo que creo que se practique del todo también por nuestra parte. 195 00:14:30,940 --> 00:14:33,740 ¿Cómo lo ves? 196 00:14:33,740 --> 00:14:38,180 Yo por ejemplo creo que hay que aprender mucho de herramientas porque nosotros utilizamos 197 00:14:38,180 --> 00:14:42,740 muchas herramientas en nuestro trabajo y eso es verdad que lleva como mucho más tiempo, 198 00:14:42,740 --> 00:14:47,780 por ejemplo, en el caso de la inteligencia artificial hay herramientas que ya van empezando, 199 00:14:48,180 --> 00:14:55,380 no son 100% clave porque al final el ojo humano es lo más importante, pero sí que es verdad 200 00:14:55,380 --> 00:15:00,380 que te van ayudando un poco, te dan como pistas, entonces, por ejemplo, ya puedes ver una imagen 201 00:15:00,380 --> 00:15:07,260 y decir, pues esta persona no parece una persona, pues tiene tres dedos, me ha pasado de encontrarme 202 00:15:07,260 --> 00:15:11,540 una imagen creada con inteligencia artificial y pedir herramientas como para que se ayuden 203 00:15:11,540 --> 00:15:16,500 a filtrar esa parte, o sea, sobre todo es un poco más el que te dé una pista de decir 204 00:15:16,820 --> 00:15:21,380 pues a lo mejor esta imagen puede que esté creada con inteligencia artificial, tú metes 205 00:15:21,380 --> 00:15:26,540 una imagen y te da pues a lo mejor un porcentaje o depende de la herramienta que sea. 206 00:15:26,540 --> 00:15:31,140 Creo que eso le va a venir muy bien también a los profesores para poder saber qué es 207 00:15:31,140 --> 00:15:35,540 verdad, qué no y qué proyectos están haciendo con inteligencia artificial. 208 00:15:35,540 --> 00:15:40,780 Sí, luego también una cosa muy básica es Google, o sea, tú en Google pones una imagen, 209 00:15:40,780 --> 00:15:45,180 hay una opción dentro del buscador que es para meter una imagen y a partir de ahí te 210 00:15:45,180 --> 00:15:49,140 viene el origen de la fotografía, también está muy bien verlo, porque a lo mejor una 211 00:15:49,140 --> 00:15:54,980 foto dicen, no, es que esta foto es de la guerra, del conflicto, por ejemplo, entre 212 00:15:54,980 --> 00:15:57,580 Israel y Palestina y a lo mejor la foto es de 2016. 213 00:15:57,580 --> 00:15:58,580 Tiene cuatro años. 214 00:15:58,580 --> 00:16:02,860 Sí, sí, sí, que ha pasado, de hecho eso lo hemos visto que ha pasado. 215 00:16:02,860 --> 00:16:08,460 Vosotros un poco, o sea, qué propuesta, si pudieses, en educación, cómo, claro, yo 216 00:16:08,460 --> 00:16:13,540 le metería, los profesores, los profesores tendrían que ayudarnos, pero no, hay que 217 00:16:13,620 --> 00:16:17,620 darle herramientas a los profesores para que ellos sean el canal para ayudar a nuestros jóvenes. 218 00:16:17,620 --> 00:16:18,620 ¿Cómo lo ves? 219 00:16:18,620 --> 00:16:24,860 En educación es muy complicado, pero yo creo que la clave va más en fomentar la lectura, 220 00:16:24,860 --> 00:16:31,180 pero no lectura de libros de fantasía o de, no, sino libros narrativos que cuenten hechos 221 00:16:31,180 --> 00:16:37,500 históricos, recientes, también pasados, yo creo que la lectura es muy importante, 222 00:16:37,500 --> 00:16:42,020 también buscar, saber qué libro buscar, porque la historiografía está muy manipulada, 223 00:16:42,020 --> 00:16:47,140 al final del siglo XX en España con el franquismo, muchas de las fuentes actuales beben de ahí 224 00:16:47,140 --> 00:16:52,140 y es un problema, entonces yo creo que la clave es la lectura y darles herramientas, 225 00:16:52,140 --> 00:16:56,180 como has dicho tú, inteligencia artificial, que es igual de beneficiosa que amenazadora 226 00:16:56,180 --> 00:17:02,260 para la sociedad, pero sí que es cierto que hace poco, lo mismo lo sabes tú mejor, hubo 227 00:17:02,260 --> 00:17:09,140 una reunión entre muchos gobiernos del mundo para crear una metodología de uso de la inteligencia 228 00:17:09,140 --> 00:17:14,300 artificial, no tan excesiva, sino que sea más regulada y controladora, porque si no 229 00:17:14,300 --> 00:17:18,900 se les iba a ir un poco la cabeza con el desarrollo de la misma, pero yo creo que... 230 00:17:18,900 --> 00:17:24,580 De hecho están en Reino Unido algunos reunidos esta semana para ver cómo articulan esa protección 231 00:17:24,580 --> 00:17:30,100 de la inteligencia artificial, hasta dónde puede llegar, hasta dónde tenemos que limitarlo, 232 00:17:30,100 --> 00:17:36,860 etcétera, totalmente, y cómo veis, porque tú lo comentabas hace un ratito, al final 233 00:17:36,860 --> 00:17:42,980 entre la libertad de expresión y las fake news, para mí hay un mar, pero a lo mejor 234 00:17:42,980 --> 00:17:47,980 otras personas ven como no, no hay tanto, este titular, o si lo vendo de una forma de 235 00:17:47,980 --> 00:17:51,940 titular, es que es libertad de expresión, he dicho lo que yo creo, lo que yo opino, 236 00:17:51,940 --> 00:17:55,580 pero según como lo digas, si es un titular que pretende informar, eso es una fake news, 237 00:17:55,580 --> 00:18:01,820 porque tú estás intentando afectar en la opinión de otra persona, esa línea, ¿cómo lo veis? 238 00:18:01,820 --> 00:18:06,420 Al final los titulares de hoy en día muchas veces no dejan de ser opiniones porque la 239 00:18:06,420 --> 00:18:10,780 información está muy sesgada, entonces al final dices, ¿hasta qué punto hay que 240 00:18:10,780 --> 00:18:15,180 regular esa libertad de expresión? Por eso yo creo que al final tiene que haber regulaciones 241 00:18:15,180 --> 00:18:20,540 porque dices, si al final vio las derechos fundamentales de X o Y, pues ya deja de ser 242 00:18:20,540 --> 00:18:24,180 libertad de expresión, ¿sabes? Entonces, no sé, al final... 243 00:18:24,180 --> 00:18:28,980 Hasta en los propios periódicos, que mi sensación, no sé si la compartís, es que cada vez están 244 00:18:28,980 --> 00:18:33,260 más polarizados también políticamente, que estamos viviendo en un momento un poco 245 00:18:33,260 --> 00:18:42,300 tenso, al final en el propio periodista puede haber matices de esa libertad de expresión 246 00:18:42,300 --> 00:18:48,580 y opinión y que al ser un medio lo damos por válido y, bueno, pues es un periodista 247 00:18:48,580 --> 00:18:52,660 que me cuenta algo totalmente de forma objetiva y muchas veces no lo es. 248 00:18:52,660 --> 00:18:55,180 ¿Tú cómo lo ves desde Alcor Conoy? 249 00:18:55,180 --> 00:19:00,300 Como redactor de Alcor Conoy pasa en otros diarios, pasa en el nuestro, no es por tirarnos 250 00:19:00,300 --> 00:19:05,820 flores, pero de verdad informamos e intentamos lo mejor posible. Algún fallo tenemos, yo 251 00:19:05,820 --> 00:19:10,180 he tenido, también he pedido perdón en lo que hay, todos fallamos, pero sí que es cierto 252 00:19:10,180 --> 00:19:14,820 que el problema no está en una corriente política, todos tenemos unos pensamientos 253 00:19:14,820 --> 00:19:21,500 en todo, el problema es desinformar, generar caos, bulos, ese es el problema, porque al 254 00:19:21,500 --> 00:19:26,820 final informar sobre un acto en concreto de un ayuntamiento como este, por ejemplo, no 255 00:19:26,820 --> 00:19:32,700 está a pie a desinformar, pero quizá si se aprueba en un pleno una medida sobre las 256 00:19:32,700 --> 00:19:37,340 calzadas de Alcor Conoy o lo que sea, lo mismo al periodista de turno, se le ocurre mentir 257 00:19:37,340 --> 00:19:41,180 en un dato, omitir otro, ese es el problema. 258 00:19:41,180 --> 00:19:45,620 El otro día además estaba leyendo sobre fake news, un poco momentos caóticos de la 259 00:19:45,620 --> 00:19:51,300 fake news, me hizo mucha gracia un titular que se puso hace, no me acuerdo, no tanto, 260 00:19:51,300 --> 00:19:55,940 en las elecciones entre Hilton y Trump en Estados Unidos, el titular de el papa apoya 261 00:19:55,940 --> 00:20:00,540 a Trump, entonces era como, bueno, el papa apoya a Trump y un montón de gente diciendo 262 00:20:00,540 --> 00:20:05,140 pues yo apoyo a Trump porque el papa apoya a Trump, era una fake news enorme, de hecho 263 00:20:05,140 --> 00:20:11,980 en esas elecciones más del 50% de las noticias, pero también en medios contrastados, luego 264 00:20:11,980 --> 00:20:16,180 se demostró que eran fake news, es algo muy peligroso en un país como Estados Unidos, 265 00:20:16,180 --> 00:20:20,660 en medios contrastados que ocurran este tipo de cosas, vosotros tenéis algún ejemplo 266 00:20:20,700 --> 00:20:26,700 de fake news que hayáis o hecho, los que sois medios, o leído? 267 00:20:26,700 --> 00:20:31,340 A mí se me ocurre, hace poco, haber leído, precisamente también relacionado con las 268 00:20:31,340 --> 00:20:36,420 elecciones, con las elecciones argentinas, que por lo visto, decía la fake news, que 269 00:20:36,420 --> 00:20:43,220 Leo Messi había publicado un post en Instagram como insinuando que apoyaba a uno de los candidatos 270 00:20:43,220 --> 00:20:48,620 que es Javier Milet, y mucha gente al parecer se lo había creído, pero por lo visto es 271 00:20:48,620 --> 00:20:50,300 completamente falso. 272 00:20:50,340 --> 00:20:53,940 Intentamos cuando sabemos que algo es falso, lo decimos, como en el caso de María Pombo 273 00:20:53,940 --> 00:21:01,020 que le pasó hace poco, que el ABC, que es un periódico enorme, tuvo la verdad un titular 274 00:21:01,020 --> 00:21:04,220 que era completamente desacado de contexto y nosotras pues dijimos, a ver, esto está 275 00:21:04,220 --> 00:21:07,820 sacado de contexto, no es así, porque lo que se va a entender no es la realidad. 276 00:21:07,820 --> 00:21:14,660 Sí, que era una entrevista a María Pombo, claro, en la que ella lo que quería transmitir 277 00:21:14,660 --> 00:21:20,620 era, ojalá no tenga que decir que mi hijo es gay, por el hecho de dar explicaciones 278 00:21:20,620 --> 00:21:24,260 en una sociedad en la que cada vez es más diversa, más integradora, etcétera, y que 279 00:21:24,260 --> 00:21:28,020 todavía tengamos que seguir dando explicaciones de mi hijo gay, mi hija lesbiana, o lo que 280 00:21:28,020 --> 00:21:33,380 quiera ser, ¿no? Y cogieron esa frase de ojalá no tenga que decir que mi hijo es gay y se 281 00:21:33,380 --> 00:21:40,420 lo llevaron, claro, a María Pombo es homófoba, ¿no? Y ese fue el titular estupendo de ABC. 282 00:21:40,420 --> 00:21:47,180 Entonces, bueno. Nosotros, cuando escribimos noticias de cualquier 283 00:21:47,180 --> 00:21:52,980 ámbito siempre intentamos tener un poco las dos versiones, si es algo político, PP, PSOE, 284 00:21:52,980 --> 00:21:58,020 Gandana el Corcón más Madrid y Vox, quien sea, para un poco completar bien la noticia, 285 00:21:58,020 --> 00:22:01,580 sí que es cierto, nosotros no hacemos fake news, porque si no no estaría trabajando 286 00:22:01,580 --> 00:22:05,860 aquí, sinceramente, así te lo digo, ¿no? Me sentiría mal conmigo mismo, pero sí que 287 00:22:05,860 --> 00:22:10,060 es cierto que la fake news más, una de las más populares es, no se puede beber agua 288 00:22:10,060 --> 00:22:17,220 del grifo porque, e inserte la razón, que sea. Esa cuela en todo el mundo y además 289 00:22:17,220 --> 00:22:22,540 lo vi ayer por la noche y yo dije, ¿pero cómo la gente se puede creer esto? El poder 290 00:22:22,540 --> 00:22:25,460 del titular. En el Corcón hace un par de meses hubo algo 291 00:22:25,460 --> 00:22:29,900 también de no se puede beber agua del grifo porque está contaminada con no sé qué y 292 00:22:29,900 --> 00:22:36,660 era simplemente por el canal Isabel Segunda, no sé, cualquier cosa, pero la gente se 293 00:22:36,660 --> 00:22:43,060 emparanoya, busca cosas, nos están contaminando, el gobierno todo. Bueno, bueno, es lo que 294 00:22:43,060 --> 00:22:47,540 también toca, ¿no? Oye, pues ha sido un placer, la verdad que, bueno, me voy con un 295 00:22:47,540 --> 00:22:52,900 poco, o sea, tampoco íbamos a sacar algo de, lógicamente, a favor no se puede estar 296 00:22:52,900 --> 00:22:56,700 de las fake news, espero que esto haya quedado claro, que no veníamos a debatir si a favor 297 00:22:56,700 --> 00:23:01,340 o en contra de las fake news, sino creo que nos vamos todos con esa sensación de ser 298 00:23:01,340 --> 00:23:06,420 críticos, el peso de la educación, el gobierno nos tiene que dar, aunque sea un carril sobre 299 00:23:06,420 --> 00:23:11,660 el que ir o herramientas, etcétera, pero sobre todo, joder, también leer, informarnos 300 00:23:11,660 --> 00:23:17,820 y no solo de los medios, sino de lo que ocurre realmente en nuestra vida ahora, que es caótico, 301 00:23:17,820 --> 00:23:21,460 que las redes sociales nos lo ponen todo a golpe de clic y que, bueno, que tenemos que 302 00:23:21,460 --> 00:23:26,340 ser cada vez más críticos, así que de verdad chicos, ha sido un placer y muchas gracias 303 00:23:26,340 --> 00:23:31,180 a todos vosotros por estar aquí y a todos los que nos estáis viendo, un placer venir 304 00:23:31,180 --> 00:23:36,580 al Galileo, de verdad vamos a venir más y espero veros, espero veros en todos los eventos, 305 00:23:36,580 --> 00:23:41,220 todas las acciones que hagamos desde Juventud y por supuesto que participéis en los próximos 306 00:23:41,220 --> 00:23:45,420 debates, van a ser temas muy variados, si se os ocurre también cualquier tipo de tema 307 00:23:45,420 --> 00:23:49,220 que os parezca de interés, sobre el que queráis que debatamos o que queréis participar en 308 00:23:49,220 --> 00:23:54,180 alguno de los debates, tenéis la puerta de la Concejalía de Juventud totalmente abierta, 309 00:23:54,180 --> 00:23:58,660 así que nada, ha sido un placer, gracias por la hospitalidad y nos vemos en el próximo capítulo.