1 00:00:00,000 --> 00:00:05,639 Muy buenas a todos y todas. Bienvenidos a FP de Radio, tu ventana al futuro de la educación a distancia. 2 00:00:06,120 --> 00:00:09,599 Desde el Centro Integral de FP a Distancia Ignacio Yacuría en Alcorcón, 3 00:00:10,080 --> 00:00:16,899 nos conectamos contigo para traerte las historias, las voces y las claves de esta modalidad educativa que está transformando vidas. 4 00:00:17,440 --> 00:00:22,500 Bienvenidos y bienvenidas a este nuevo episodio sobre inteligencia artificial. 5 00:00:22,500 --> 00:00:26,359 Hoy vamos a hablar de un tema que ya está transformando el mundo del trabajo, 6 00:00:26,519 --> 00:00:29,899 la forma en que se toman las decisiones y nuestras vidas. 7 00:00:30,000 --> 00:00:35,060 Ya sabemos qué es la inteligencia artificial, cómo puede ayudarnos en el día a día profesional. 8 00:00:35,780 --> 00:00:39,020 Pero, ¿qué pasa con la ética? ¿Qué pasa con la privacidad de datos? 9 00:00:39,579 --> 00:00:41,880 Y con nuestros derechos, los derechos de las personas. 10 00:00:42,039 --> 00:00:46,399 Hoy tenemos con nosotros el honor, el privilegio de tener dos invitados muy especiales. 11 00:00:46,520 --> 00:00:49,039 Carmen Reina, experta en inteligencia artificial. 12 00:00:49,280 --> 00:00:49,679 Buenos días. 13 00:00:49,799 --> 00:00:53,100 Y Data, cultura del dato, transformación de la inteligencia artificial. 14 00:00:53,100 --> 00:01:00,359 CEO de Data Quantum y gran conocedora de los retos que plantea la inteligencia artificial en las organizaciones 15 00:01:00,359 --> 00:01:01,939 Gracias Carmen por estar aquí 16 00:01:01,939 --> 00:01:04,200 Buenos días, muchas gracias por invitarme 17 00:01:04,200 --> 00:01:07,859 Y también tenemos a Ángel Casado que ya le conocéis de podcast anteriores 18 00:01:07,859 --> 00:01:14,799 Que es experto en transformación tecnológica y buen conocedor de los retos que plantea la inteligencia artificial en las organizaciones 19 00:01:14,799 --> 00:01:15,980 Gracias Ángel, buenos días 20 00:01:15,980 --> 00:01:18,260 Gracias de nuevo, un placer estar con vosotras y con Carmen 21 00:01:18,260 --> 00:01:36,620 También tenemos con nosotros a María Pilar Paredes, la jefa del Departamento de Informática en este centro, Ignacio Eyacuría, el Centro Integral de Formación Profesional y Distancia, Ignacio Eyacuría, y a mí, ya me conocéis, del Departamento de Administración y Gestión de este departamento. 22 00:01:36,620 --> 00:01:37,060 Muchas gracias. 23 00:01:37,060 --> 00:01:42,579 este instituto. Así que preparados para un episodio lleno de ideas, ejemplos reales y 24 00:01:42,579 --> 00:01:48,680 preguntas que nos harán pensar. Empezamos, empezamos. Y dejadme abrir a mí la pregunta 25 00:01:48,680 --> 00:01:55,920 inicial para Carmen y Ángel. Por sentar base, ¿qué es la inteligencia artificial y por qué 26 00:01:55,920 --> 00:02:00,299 tenemos que plantearnos eso de la ética en la inteligencia artificial, en su uso y desarrollo 27 00:02:00,299 --> 00:02:01,120 de la inteligencia artificial? 28 00:02:02,359 --> 00:02:05,400 Bueno, podríamos decir que la inteligencia artificial 29 00:02:05,400 --> 00:02:09,840 es el duplicar las capacidades del ser humano 30 00:02:09,840 --> 00:02:13,139 dentro de las máquinas, programando, claro. 31 00:02:13,740 --> 00:02:15,819 Entonces, duplicamos el pensamiento, 32 00:02:16,039 --> 00:02:19,620 duplicamos el aprendizaje, duplicamos la lógica, 33 00:02:20,039 --> 00:02:23,500 el razonamiento, duplicamos todo lo que creemos 34 00:02:23,500 --> 00:02:27,719 que para nosotros nos va a hacer manejar 35 00:02:27,719 --> 00:02:29,159 el contexto en el que vivimos. 36 00:02:29,159 --> 00:02:31,659 y me has preguntado 37 00:02:31,659 --> 00:02:32,560 también de la ética 38 00:02:32,560 --> 00:02:34,520 Sí, ¿por qué tenemos que plantearnos 39 00:02:34,520 --> 00:02:36,919 algo acerca de la ética 40 00:02:36,919 --> 00:02:39,460 cuando hablamos de la inteligencia artificial? 41 00:02:40,080 --> 00:02:41,400 Bueno, porque estamos construyendo 42 00:02:41,400 --> 00:02:42,879 una herramienta 43 00:02:42,879 --> 00:02:44,599 muy difícil 44 00:02:44,599 --> 00:02:46,539 sobre todo 45 00:02:46,539 --> 00:02:47,879 muy compleja 46 00:02:47,879 --> 00:02:50,860 esto hace que necesite 47 00:02:50,860 --> 00:02:53,000 unas directrices porque puede tomar 48 00:02:53,000 --> 00:02:54,020 decisiones por sí sola 49 00:02:54,020 --> 00:02:55,520 en un momento dado 50 00:02:55,520 --> 00:02:58,900 y entonces lo que es necesario es que cumpla 51 00:02:58,900 --> 00:03:00,699 una serie de garantías 52 00:03:00,699 --> 00:03:03,139 como es, por ejemplo, la explicatividad 53 00:03:03,139 --> 00:03:04,360 sabemos cómo 54 00:03:04,360 --> 00:03:06,560 ha tomado la decisión la IA 55 00:03:06,560 --> 00:03:08,939 no lo sabemos, tenemos que saberlo 56 00:03:08,939 --> 00:03:10,020 para poder accionar 57 00:03:10,020 --> 00:03:12,479 y luego hay otra cosa que tenemos que supervisar 58 00:03:12,479 --> 00:03:14,719 como humanos, porque no podemos dejar 59 00:03:14,719 --> 00:03:16,599 a la IA, que ya hemos visto 60 00:03:16,599 --> 00:03:19,000 los últimos avances del CGPT y compañía 61 00:03:19,000 --> 00:03:20,120 que es capaz 62 00:03:20,120 --> 00:03:21,939 de razonar 63 00:03:21,939 --> 00:03:24,659 en principio, aunque luego 64 00:03:24,659 --> 00:03:27,080 todo esté basado en matemáticas y en algoritmos 65 00:03:27,080 --> 00:03:28,800 pero sí que parece que 66 00:03:28,800 --> 00:03:30,479 la zona, no podemos dejarla 67 00:03:30,479 --> 00:03:32,379 que tome decisiones por nosotros 68 00:03:32,379 --> 00:03:34,300 porque afecta mucho a nuestros derechos 69 00:03:34,300 --> 00:03:36,620 como personas, nos puede por ejemplo 70 00:03:36,620 --> 00:03:38,979 dejar de otorgar un préstamo 71 00:03:38,979 --> 00:03:40,300 o nos puede 72 00:03:40,300 --> 00:03:42,719 recomendar un medicamento 73 00:03:42,719 --> 00:03:44,620 que no sea el correcto, etc 74 00:03:44,620 --> 00:03:46,479 puede poner en peligro 75 00:03:46,479 --> 00:03:48,599 nuestra vida 76 00:03:48,599 --> 00:03:50,900 muy bien, comentábamos antes 77 00:03:50,900 --> 00:03:52,400 que en la introducción 78 00:03:52,400 --> 00:03:54,840 que más que quitar 79 00:03:54,840 --> 00:03:56,699 nuestro trabajo, lo que va a hacer es transformarlo 80 00:03:56,699 --> 00:04:20,060 Es muy probable que lo que nos haga es tener que evolucionar a aprender a utilizar herramientas. Igual que cuando tú estás con la azada y has pasado con el tractor, ese tractor hay que aprender a utilizarlo. Pues cogiendo ese símil y habiendo mucha distancia, la IA lo que te implica es que tienes que aprender a utilizar una herramienta nueva que nos hace hiper escalables y hiper productivos en un montón de herramientas. 81 00:04:20,060 --> 00:04:25,220 Entonces, la ética es fundamental, el asegurar, lo que ha dicho Carmen, que es reproducible. 82 00:04:25,339 --> 00:04:30,939 Tú sabes por qué tomar la decisión. Una idea que no sabemos por qué pasa, a mí personalmente sí me da miedo. 83 00:04:32,360 --> 00:04:38,819 Respecto a lo que comentáis ambos, hay una cuestión que ha apuntado Carmen que me parece especialmente relevante. 84 00:04:39,279 --> 00:04:43,139 La inteligencia artificial puede incluso evitar que nos den un préstamo. 85 00:04:43,139 --> 00:05:04,120 Por supuesto, lógicamente, si se utiliza en contratación, supongamos que evita que me contraten ante un determinado proceso posible de envío de currículum. Ante esa situación, Carmen, tú como experta, ¿qué límites crees que se debería poner a la inteligencia artificial para evitar casuísticas como las que has planteado antes? 86 00:05:04,959 --> 00:05:09,879 Una de las cosas que tenemos que hacer sí o sí es la supervisión humana. 87 00:05:10,279 --> 00:05:16,319 El humano siempre tiene que estar en el loop, en el bucle de la inteligencia artificial para último decisor. 88 00:05:16,500 --> 00:05:22,120 Tiene que tomar las decisiones siempre validando que lo que ha dicho la inteligencia artificial o lo que ha hecho es correcto. 89 00:05:23,319 --> 00:05:28,779 En el caso, por ejemplo, de los currículum, claro, la información está muy sesgada 90 00:05:28,779 --> 00:05:37,339 y la inteligencia artificial aprende de documentos, de currículum, de puestos, de conocimiento nuestro previo, de humanos. 91 00:05:38,019 --> 00:05:45,000 En este caso, por ejemplo, observamos un sesgo claro, por ejemplo, en los currículum de las mujeres en tecnología. 92 00:05:45,699 --> 00:05:51,660 Este hecho hace que haya menos currículum que pasen por la IA de mujeres que de hombres, 93 00:05:51,759 --> 00:05:55,800 con lo cual el patrón que va a aprender es el de los hombres, no el de las mujeres. 94 00:05:55,800 --> 00:06:08,060 Por tanto, si viene un currículum nuevo de una mujer, es más probable que lo descarte que no que lo acepte, porque tiene más datos, por ejemplo, de currículum de hombre en puestos de tecnología, me estoy refiriendo. 95 00:06:08,720 --> 00:06:15,639 Pasa lo mismo, por ejemplo, en puestos de enfermería, que pasa lo contrario. Hay más currículum de mujeres que de hombres, también es otro sesgo. 96 00:06:15,639 --> 00:06:24,240 y tenemos que asegurarnos que el reclutador vea la decisión que ha tomado la IA 97 00:06:24,240 --> 00:06:32,060 y compruebe con sus valores, no solo valores sino con la necesidad de la compañía 98 00:06:32,060 --> 00:06:36,459 y lo que tiene que hacer es supervisar con supervisión. 99 00:06:37,120 --> 00:06:41,240 Interesante observación y hablando de currículum y por tanto de datos personales, 100 00:06:41,240 --> 00:06:48,740 A mí me preocupa especialmente cómo trata esos datos la IA, en qué sentido yo como usuario de inteligencia artificial 101 00:06:48,740 --> 00:06:57,060 puedo estar segura de que mis datos no son tratados de forma incorrecta o no puedo estar convencida de lo que acabo de indicar. 102 00:06:57,660 --> 00:07:07,839 Pilar, María Pilar, perdón. No podemos estar seguros. De hecho, os voy a contar que recientemente se ha multado en Italia a una empresa, 103 00:07:07,839 --> 00:07:20,959 Bueno, es LUIC, pero es un avatar que han construido que se llama REPICA, que lo que hace es dar consejos psicológicos a usuarios. 104 00:07:21,560 --> 00:07:31,360 Entonces, ni contemplaban el registro de los usuarios, ni anonimizaban, daban decisiones sin validar, etcétera, etcétera. 105 00:07:31,360 --> 00:07:36,879 Y esto puede poner en riesgo al cliente que utilice este sistema. 106 00:07:36,879 --> 00:07:39,279 si ya tienen alguna perturbación 107 00:07:39,279 --> 00:07:40,480 pues imagínatela a ella 108 00:07:40,480 --> 00:07:41,920 que le mande 109 00:07:41,920 --> 00:07:45,160 consejos en un tema tan sensible 110 00:07:45,160 --> 00:07:47,319 como es la salud mental de los usuarios 111 00:07:47,319 --> 00:07:49,339 y deciros que la multa es 5 millones 112 00:07:49,339 --> 00:07:49,759 de euros 113 00:07:49,759 --> 00:07:53,180 es una multa considerable a tener en cuenta 114 00:07:53,180 --> 00:07:55,019 entonces la responsabilidad 115 00:07:55,019 --> 00:07:56,839 de las decisiones 116 00:07:56,839 --> 00:07:59,360 de los errores de la inteligencia artificial 117 00:07:59,360 --> 00:08:01,139 ¿dónde está? ¿dónde se queda? 118 00:08:01,379 --> 00:08:02,860 ¿con la empresa? ¿con las personas? 119 00:08:03,399 --> 00:08:05,060 en la persona que lo usa yo creo 120 00:08:05,060 --> 00:08:07,180 la persona que utiliza la inteligencia artificial 121 00:08:07,180 --> 00:08:08,920 claro, porque tú tienes que tener garantías 122 00:08:08,920 --> 00:08:10,899 de que tus datos, primero por la ley 123 00:08:10,899 --> 00:08:12,660 europea, del EIAC 124 00:08:12,660 --> 00:08:15,120 se queden en Europa, que no traspasen 125 00:08:15,120 --> 00:08:16,980 fronteras hacia 126 00:08:16,980 --> 00:08:18,439 Estados Unidos, China, etcétera 127 00:08:18,439 --> 00:08:20,480 y luego tienes que 128 00:08:20,480 --> 00:08:22,759 tomar la última decisión 129 00:08:22,759 --> 00:08:24,339 de lo que te ha dicho la IA 130 00:08:24,339 --> 00:08:26,939 tienes que tener la capacidad crítica 131 00:08:26,939 --> 00:08:28,879 y el pensamiento lógico para saber 132 00:08:28,879 --> 00:08:30,600 si eso es cierto o no 133 00:08:30,600 --> 00:08:33,000 bien, que al final 134 00:08:33,000 --> 00:08:35,179 se traduce en una cuestión económica, porque una empresa 135 00:08:35,179 --> 00:08:37,019 tiene suficiente pulmón económico 136 00:08:37,019 --> 00:08:39,220 para afrontar en su momento condenas 137 00:08:39,220 --> 00:08:40,919 por malutilización 138 00:08:40,919 --> 00:08:42,720 o mal uso de la inteligencia artificial 139 00:08:42,720 --> 00:08:45,440 También, al hilo de todo esto 140 00:08:45,440 --> 00:08:47,080 incluso para hacer nuevos 141 00:08:47,080 --> 00:08:48,639 productos, la IAD 142 00:08:48,639 --> 00:08:50,659 a veces te presenta problemas legales 143 00:08:50,659 --> 00:08:52,220 muy relevantes, es decir 144 00:08:52,220 --> 00:08:53,940 si un servicio, como 145 00:08:53,940 --> 00:08:56,879 distinto al que comentaba Carmen, pero en el que tú 146 00:08:56,879 --> 00:08:58,340 haces una propuesta, das una respuesta 147 00:08:58,340 --> 00:09:00,759 y esa respuesta es incorrecta, pues 148 00:09:00,759 --> 00:09:02,860 legalmente, tú contratas un servicio 149 00:09:02,860 --> 00:09:05,500 y la IA te contesta mal, puedes demandarme. 150 00:09:05,759 --> 00:09:08,539 Entonces, eso puede ser un problema a nivel económico, 151 00:09:08,600 --> 00:09:11,659 también reputacional y a nivel de producto, 152 00:09:11,799 --> 00:09:12,500 de que se te caiga abajo. 153 00:09:13,340 --> 00:09:15,600 Y luego, además, el tema de, igualmente, 154 00:09:16,220 --> 00:09:18,519 ahora mismo con todo el tema de cloud, de la nube y demás, 155 00:09:19,039 --> 00:09:21,740 los requisitos y los criterios que se ponen 156 00:09:21,740 --> 00:09:24,399 para asegurar la prioridad de los datos son enormes. 157 00:09:24,399 --> 00:09:27,379 Por lo cual, eso lo que te implica son costes adicionales. 158 00:09:27,879 --> 00:09:29,799 Entonces, ahí hay un punto de equilibrio 159 00:09:29,799 --> 00:09:31,279 en el que a la hora de utilizar la IA, 160 00:09:31,279 --> 00:09:34,220 pues tienes que tener en cuenta los riesgos que tienes a nivel legal 161 00:09:34,220 --> 00:09:36,679 y luego los incrementos de coste que te puede suponer 162 00:09:36,679 --> 00:09:39,600 el protegerte frente a ese tipo de errores. 163 00:09:40,259 --> 00:09:41,080 Muy relevante. 164 00:09:42,000 --> 00:09:44,419 Interesante ejemplo e información que habéis aportado 165 00:09:44,419 --> 00:09:46,639 y a mí se me ocurre la pregunta contraria. 166 00:09:46,779 --> 00:09:52,080 ¿Conocéis alguna empresa donde realmente se utilice bien 167 00:09:52,080 --> 00:09:54,879 desde el punto de vista ético la inteligencia artificial? 168 00:09:55,440 --> 00:09:56,659 ¿Vosotros como expertos? 169 00:09:57,299 --> 00:09:59,360 Sí, hombre, hay muchas empresas. 170 00:09:59,360 --> 00:10:18,200 Hay empresas de telecomunicación que sí que se aplica bien con un gobierno de la inteligencia artificial. El punto aquí es que las empresas que hacen casos de uso de IA deberían gobernar todas esas IAs. 171 00:10:18,200 --> 00:10:44,779 Que eso significa que haya un equipo multidisciplinar que aborde ese proyecto desde un punto de vista, desde diferentes aspectos, por ejemplo, de ciberseguridad, de ética, de la IA, de legal, del técnico y que todo quede recogido y se sepa quién son los responsables de esos proyectos. 172 00:10:44,779 --> 00:10:58,620 Por si acaso falla o lo que sea, que se sepa perfectamente. Y eso se está empezando a implementar y las empresas que están implementando ya esa gobernanza de la IA son las que están actuando bien. 173 00:10:58,620 --> 00:11:20,419 En el caso de la Telco o también en el caso de otras empresas, por ejemplo en banca, sí que hay bancos que sí que están considerando todos estos aspectos y aplicando a todos esos modelos que generan un código para que haga la explicatividad, 174 00:11:20,419 --> 00:11:29,500 que se sepa qué variables han definido el modelo, que se sepa que se haga la ética en el entuen del caso de uso, 175 00:11:30,159 --> 00:11:35,220 que se gobierne, que se miren los aspectos de ciberseguridad donde hay vulnerabilidades, 176 00:11:35,379 --> 00:11:38,320 porque claro, hemos introducido la inteligencia artificial. 177 00:11:39,159 --> 00:11:45,440 Pero claro, esto provoca, por ejemplo, en el caso del chat GPT, que si lo tienes automatizado en una empresa, 178 00:11:45,440 --> 00:11:51,720 que se cambien palabras de ese prompt y entonces da una respuesta totalmente contraria, puede ser. 179 00:11:52,139 --> 00:11:55,320 Entonces eso hay que gobernarlo en las empresas, sí. 180 00:11:55,799 --> 00:12:01,620 Dicho en el mundo empresarial, implica que la palabra caso de uso equivale a proyecto. 181 00:12:02,120 --> 00:12:07,700 Es decir, dentro de lo que es el alcance del proyecto, que es la definición del caso de uso, 182 00:12:08,500 --> 00:12:13,480 hay que poner que igual que está impactado el de infraestructura, el de la nube, el de base de datos, 183 00:12:13,480 --> 00:12:15,139 está impactado el equipo de IA 184 00:12:15,139 --> 00:12:17,259 y luego al igual que tú tienes 185 00:12:17,259 --> 00:12:19,200 dentro del mundo del dato 186 00:12:19,200 --> 00:12:21,000 tienes el de calidad, el de gobierno 187 00:12:21,000 --> 00:12:22,919 pues es lo que está comentando 188 00:12:22,919 --> 00:12:25,100 es decir, alguien tiene que validar que un PRON 189 00:12:25,100 --> 00:12:27,259 es correcto, o el planteamiento 190 00:12:27,259 --> 00:12:29,259 que también comentaba antes Carmen, el hecho de que 191 00:12:29,259 --> 00:12:31,279 un mismo PRON, el mismo contexto 192 00:12:31,279 --> 00:12:33,179 tiene que dar el mismo resultado, porque tienes que ser 193 00:12:33,179 --> 00:12:34,779 capaz de ser trazable, entonces bueno 194 00:12:34,779 --> 00:12:36,980 desde el punto de vista operativo tienes que introducirlo 195 00:12:36,980 --> 00:12:39,360 en tu way of working, o sea tu forma de hacer proyectos 196 00:12:39,360 --> 00:12:41,220 corporativos aparte de técnicos 197 00:12:41,220 --> 00:12:43,039 y que luego pues hay nuevos roles que 198 00:12:43,039 --> 00:12:46,399 Y eso da una oportunidad tremenda de nuevos perfiles y nuevas oportunidades de trabajo. 199 00:12:47,399 --> 00:12:50,759 Y hay que decir que ya hay técnicas que te permiten, por ejemplo, 200 00:12:51,419 --> 00:12:58,059 el que se hacen varios PROM y luego se hace un prorrateo de las soluciones. 201 00:12:58,059 --> 00:13:02,600 O sea, utilizamos la IA para validar la IA. 202 00:13:03,899 --> 00:13:05,440 Eso es muy interesante. 203 00:13:05,679 --> 00:13:06,960 Es la recursividad del PROM. 204 00:13:07,200 --> 00:13:12,179 A veces, para conseguir un PROM más detallado, te haces un reprom. 205 00:13:12,179 --> 00:13:13,679 es hazme un PRON 206 00:13:13,679 --> 00:13:15,100 actúa como un perfil 207 00:13:15,100 --> 00:13:15,740 hazme un PRON 208 00:13:15,740 --> 00:13:16,340 de tal 209 00:13:16,340 --> 00:13:17,139 le vas diciendo 210 00:13:17,139 --> 00:13:18,480 los distintos aspectos 211 00:13:18,480 --> 00:13:19,740 y que te construya el PRON 212 00:13:19,740 --> 00:13:20,700 la salida 213 00:13:20,700 --> 00:13:21,480 es la que tú luego 214 00:13:21,480 --> 00:13:22,080 vas probando 215 00:13:22,080 --> 00:13:22,639 y a su vez 216 00:13:22,639 --> 00:13:23,259 como comienza ella 217 00:13:23,259 --> 00:13:24,759 puedes tener otros PRON 218 00:13:24,759 --> 00:13:25,399 que te validan 219 00:13:25,399 --> 00:13:26,080 si eso que estás haciendo 220 00:13:26,080 --> 00:13:26,700 es correcto 221 00:13:26,700 --> 00:13:28,179 un ejemplo muy tonto 222 00:13:28,179 --> 00:13:29,480 quieres configurar 223 00:13:29,480 --> 00:13:30,419 un DNS 224 00:13:30,419 --> 00:13:31,559 por un tema de correo tal 225 00:13:31,559 --> 00:13:32,620 coges 226 00:13:32,620 --> 00:13:33,259 lo pegas 227 00:13:33,259 --> 00:13:34,080 y la propia ella 228 00:13:34,080 --> 00:13:34,340 te dice 229 00:13:34,340 --> 00:13:34,960 mira esto está bien 230 00:13:34,960 --> 00:13:35,759 cuidado con esto 231 00:13:35,759 --> 00:13:36,179 no sé qué 232 00:13:36,179 --> 00:13:37,299 te va validando 233 00:13:37,299 --> 00:13:37,480 o sea 234 00:13:37,480 --> 00:13:38,519 lo puedes enfocar 235 00:13:38,519 --> 00:13:40,899 ya no como pregunto al chat 236 00:13:40,899 --> 00:13:43,259 sino le doy instrucciones para que me dé soluciones 237 00:13:43,259 --> 00:13:46,019 que es un poco también el cambio de mindset que hay que empezar a introducir 238 00:13:46,019 --> 00:13:47,960 y comentamos en el anterior podcast 239 00:13:47,960 --> 00:13:49,340 de empezar a hablar 240 00:13:49,340 --> 00:13:50,759 de dar instrucciones 241 00:13:50,759 --> 00:13:52,980 y a partir de ahí tienes instrucciones y roles 242 00:13:52,980 --> 00:13:55,620 uno implementa, otro ejecuta y otro te valida 243 00:13:55,620 --> 00:13:57,639 y a partir de ahí empezar a pensar 244 00:13:57,639 --> 00:13:59,299 que esas acciones las hacen IA 245 00:13:59,299 --> 00:14:01,720 y tienen que tener ética 246 00:14:01,720 --> 00:14:03,700 gobernanza para que las cosas funcionen 247 00:14:03,700 --> 00:14:05,340 con coordinación, si no esto puede ser 248 00:14:05,340 --> 00:14:06,899 la selva 249 00:14:06,899 --> 00:14:09,679 y ahora más que vamos al mundo de los agentes de IA 250 00:14:09,679 --> 00:14:11,919 donde ya hay aplicaciones 251 00:14:11,919 --> 00:14:14,220 que se hacen sus propias aplicaciones 252 00:14:14,220 --> 00:14:15,600 o sea, un agente 253 00:14:15,600 --> 00:14:18,100 empieza a codificar, empieza a hacer el código 254 00:14:18,100 --> 00:14:20,159 y dice, no, que me he equivocado 255 00:14:20,159 --> 00:14:21,080 lo voy a corregir 256 00:14:21,080 --> 00:14:23,519 y va haciéndolo autónomamente 257 00:14:23,519 --> 00:14:24,919 esos son los agentes 258 00:14:24,919 --> 00:14:27,240 la IA que es autónoma 259 00:14:27,240 --> 00:14:29,419 y que va aportando 260 00:14:29,419 --> 00:14:31,580 una aplicación o una página web 261 00:14:31,580 --> 00:14:32,639 o lo que sea 262 00:14:32,639 --> 00:14:34,779 que a nosotros nos costaría 263 00:14:34,779 --> 00:14:36,600 meses de trabajo 264 00:14:36,600 --> 00:14:38,240 te lo hacen en una hora 265 00:14:38,240 --> 00:14:41,519 ejecuta mucho más eficazmente 266 00:14:41,519 --> 00:14:43,759 las tareas. Conforme a lo que estáis diciendo 267 00:14:43,759 --> 00:14:45,519 es obvio que va a haber una transformación 268 00:14:45,519 --> 00:14:47,860 brutal en el mercado laboral 269 00:14:47,860 --> 00:14:49,480 y teniendo en cuenta que nuestros 270 00:14:49,480 --> 00:14:51,580 alumnos, muchos de ellos ya están trabajando 271 00:14:51,580 --> 00:14:53,679 en empresa o van a salir próximamente 272 00:14:53,679 --> 00:14:56,100 al mundo empresarial, ¿qué consejos 273 00:14:56,100 --> 00:14:57,480 les daríais 274 00:14:57,480 --> 00:14:59,620 para poder abordar 275 00:14:59,620 --> 00:15:01,480 con éxito esta transformación 276 00:15:01,480 --> 00:15:03,919 digital, esta transformación 277 00:15:03,919 --> 00:15:05,799 en el mundo de la IA que es necesaria 278 00:15:05,799 --> 00:15:07,139 para poder tener 279 00:15:07,139 --> 00:15:13,139 un futuro laboral bueno, un futuro laboral que no sea precisamente un cambio negativo, 280 00:15:13,840 --> 00:15:16,700 sino una transformación del desempeño de las funciones. 281 00:15:17,919 --> 00:15:22,600 El consejo más obvio es que aprendan a utilizar la IA, 282 00:15:23,299 --> 00:15:28,080 pero no solo la IA en la parte técnica como usuario, 283 00:15:28,559 --> 00:15:30,919 sino que también la ética de la IA tienen que aprender. 284 00:15:31,080 --> 00:15:36,299 Es necesario ya en nuestros días, donde vamos a ver cada vez más IA a nuestro alrededor, 285 00:15:36,299 --> 00:15:39,120 que sepamos que estamos seguros 286 00:15:39,120 --> 00:15:42,620 y que esa IA contempla la regulación ética. 287 00:15:43,340 --> 00:15:46,480 De hecho, una cosa que a veces hemos comentado Carmelo 288 00:15:46,480 --> 00:15:50,620 es el empezar a pensar que debemos saber 289 00:15:50,620 --> 00:15:53,159 si lo que estamos viendo tiene ética o no tiene ética. 290 00:15:53,360 --> 00:15:54,679 Otro día me comentabas sobre VO3 291 00:15:54,679 --> 00:15:56,539 y ves los ejemplos de VO3, 292 00:15:56,659 --> 00:15:59,360 que es la nueva versión de vídeo de Google, de Gemini, 293 00:16:00,480 --> 00:16:01,779 y dices, ahí va. 294 00:16:02,620 --> 00:16:05,820 Entonces, incluso ves fotos que incluso te cuesta fijarte 295 00:16:05,820 --> 00:16:07,480 donde está la separación 296 00:16:07,480 --> 00:16:10,000 entonces el concepto de autenticidad 297 00:16:10,000 --> 00:16:11,899 de ética, legal, de que lo que estás 298 00:16:11,899 --> 00:16:13,860 viendo es de verdad humano 299 00:16:13,860 --> 00:16:15,580 o es de verdad IA 300 00:16:15,580 --> 00:16:17,899 es un concepto que yo creo que tiene que venir 301 00:16:17,899 --> 00:16:19,980 y que hay que aplicar y empezar a introducir 302 00:16:19,980 --> 00:16:21,659 de una forma, con un criterio propio 303 00:16:21,659 --> 00:16:23,980 es decir, los alumnos aquí en este sentido, lo que estoy viendo 304 00:16:23,980 --> 00:16:25,080 ¿tiene IA o tiene IA? 305 00:16:25,559 --> 00:16:27,039 si tiene IA, ¿con qué criterio? 306 00:16:27,600 --> 00:16:29,580 ¿con qué objetivo? y es empezar a tener 307 00:16:29,580 --> 00:16:31,019 ese desarrollo de persona 308 00:16:31,019 --> 00:16:33,559 que enjuicia la IA 309 00:16:33,559 --> 00:16:35,379 es súper inteligente, fenomenal 310 00:16:35,379 --> 00:16:38,700 pero lo que está haciendo es correcto, es ético 311 00:16:38,700 --> 00:16:43,000 y aparte saber que está hecho por ella 312 00:16:43,000 --> 00:16:45,860 China ya está diciendo que lo que esté hecho de ella 313 00:16:45,860 --> 00:16:48,679 tiene que llevar una especie de sello para que el humano 314 00:16:48,679 --> 00:16:52,179 sepamos si esto es cierto o lo ha generado la IA 315 00:16:52,179 --> 00:16:54,600 y se está trabajando en este campo ahora mucho 316 00:16:54,600 --> 00:16:57,120 muy importante, sí, sí, y todo esto me lleva a pensar 317 00:16:57,120 --> 00:17:00,379 el papel, el rol que jugamos nosotros los formadores 318 00:17:00,379 --> 00:17:03,580 los docentes, los educadores en relación con el uso ético de la IA 319 00:17:03,580 --> 00:17:05,960 ¿cómo nos veis? 320 00:17:06,240 --> 00:17:07,119 ¿qué sugerís? 321 00:17:08,440 --> 00:17:10,059 Bueno, también formación en IA 322 00:17:10,059 --> 00:17:11,240 en ética de la IA 323 00:17:11,240 --> 00:17:13,240 también, imprescindible 324 00:17:13,240 --> 00:17:15,460 aquí ponéis un curso básico 325 00:17:15,460 --> 00:17:16,819 de ética de la IA 326 00:17:16,819 --> 00:17:19,940 yo creo que el papel 327 00:17:19,940 --> 00:17:21,799 del educador, yo también 328 00:17:21,799 --> 00:17:22,640 soy educadora 329 00:17:22,640 --> 00:17:25,299 tiene que ser 330 00:17:25,299 --> 00:17:27,339 transmitir a los alumnos 331 00:17:27,339 --> 00:17:30,180 que ojo con esto, que es una herramienta 332 00:17:30,180 --> 00:17:32,039 súper potente, que nos está ayudando 333 00:17:32,039 --> 00:17:33,819 un montón y nos va a ayudar mucho 334 00:17:33,819 --> 00:17:36,079 pero que tengan la capacidad 335 00:17:36,079 --> 00:17:37,819 crítica para saber si 336 00:17:37,819 --> 00:17:40,259 está siendo aplicado 337 00:17:40,259 --> 00:17:41,079 por la guía o no 338 00:17:41,079 --> 00:17:44,019 y que tengan un soft skill 339 00:17:44,019 --> 00:17:46,279 que es 340 00:17:46,279 --> 00:17:47,839 el pensamiento crítico por supuesto 341 00:17:47,839 --> 00:17:49,980 pero yo creo que hay que educar 342 00:17:49,980 --> 00:17:52,119 en lógica porque realmente 343 00:17:52,119 --> 00:17:56,339 quien maneje bien la lógica 344 00:17:56,339 --> 00:17:57,559 va 345 00:17:57,559 --> 00:18:00,059 a sacarle más partido 346 00:18:00,059 --> 00:18:01,740 a la inteligencia artificial 347 00:18:02,299 --> 00:18:09,339 Porque los PROM, hay gente que mete PROMs en un chatbot, por ejemplo, como el chat GPT, 348 00:18:10,059 --> 00:18:13,359 y le da distintos resultados a otro que lo ha metido de otra manera, ¿no? 349 00:18:13,700 --> 00:18:15,500 Porque nuestro pensamiento es diferente. 350 00:18:15,500 --> 00:18:21,380 La persona que vaya con lógica, que es lo que sigue la inteligencia artificial, 351 00:18:21,819 --> 00:18:26,059 va a obtener muchísimos mejores resultados que quien no utilice la lógica. 352 00:18:26,180 --> 00:18:30,980 Con lo cual, como educadoras, yo comentaría la lógica entre los alumnos, 353 00:18:30,980 --> 00:18:33,519 la ética de la inteligencia artificial también 354 00:18:33,519 --> 00:18:36,059 y que sepan utilizar la inteligencia artificial. 355 00:18:36,539 --> 00:18:38,940 Sí, por fin ha llegado el momento en el que los alumnos 356 00:18:38,940 --> 00:18:41,980 tienen que pensar, que no se planten ante un examen 357 00:18:41,980 --> 00:18:43,700 solo porque hayan memorizado contenido, 358 00:18:43,700 --> 00:18:46,680 sino que, lo insisto mucho, ahora tenemos la semana que viene, 359 00:18:46,819 --> 00:18:51,660 empezamos con todos los exámenes del alumnado de este centro 360 00:18:51,660 --> 00:18:54,599 y que piensen ante un examen, 361 00:18:54,680 --> 00:18:57,500 no solo intenten tirar de memoria de los estudios, 362 00:18:57,619 --> 00:18:59,359 sino que efectivamente utilicen la lógica. 363 00:18:59,359 --> 00:19:02,359 Por fin hay un momento en que se sentirán obligados a utilizarla. 364 00:19:03,140 --> 00:19:05,279 Totalmente. Y no se puede copiar y pegar. 365 00:19:06,059 --> 00:19:08,079 Ese es el principal problema que veo yo. 366 00:19:08,279 --> 00:19:11,740 También pasaba con el uso de la información que los alumnos buscan en Google, 367 00:19:11,880 --> 00:19:12,460 en cualquier búsqueda. 368 00:19:12,480 --> 00:19:13,240 O la enciclopedia. 369 00:19:13,259 --> 00:19:16,240 O la enciclopedia, que finalmente es un copia-pega. 370 00:19:16,559 --> 00:19:20,160 Ese es un problema que tenemos desde hace tiempo en las aulas 371 00:19:20,160 --> 00:19:22,180 respecto a la capacidad crítica del alumnado, 372 00:19:22,240 --> 00:19:27,180 la capacidad también de análisis, de redacción, de comprensión verbal incluso. 373 00:19:27,180 --> 00:19:29,720 algún compañero lo planteaba hace poco 374 00:19:29,720 --> 00:19:31,640 en una reunión y a mí es un aspecto 375 00:19:31,640 --> 00:19:32,980 que me preocupa especialmente 376 00:19:32,980 --> 00:19:35,700 vosotros, es una pregunta para los tres 377 00:19:35,700 --> 00:19:37,119 ¿creéis que sería 378 00:19:37,119 --> 00:19:39,559 imprescindible que en niveles 379 00:19:39,559 --> 00:19:41,680 educativos como primaria 380 00:19:41,680 --> 00:19:42,940 incluso o secundaria 381 00:19:42,940 --> 00:19:45,759 se introdujera el uso de la inteligencia 382 00:19:45,759 --> 00:19:47,759 artificial de manera ética 383 00:19:47,759 --> 00:19:49,599 y responsable para que el alumnado 384 00:19:49,599 --> 00:19:52,019 supiera cómo utilizarla? 385 00:19:52,019 --> 00:19:52,740 por supuesto 386 00:19:52,740 --> 00:19:55,380 en otros países se hace 387 00:19:55,380 --> 00:19:58,940 Es educación en tecnología bien llevada. 388 00:19:59,420 --> 00:20:01,180 Es aprender bien desde el principio, porque al final 389 00:20:01,180 --> 00:20:03,740 gran parte de los niños han aprendido solos. 390 00:20:03,940 --> 00:20:07,140 Entonces, no digo de los vicios, pero no tienes un criterio 391 00:20:07,140 --> 00:20:08,079 de por qué haces lo que haces. 392 00:20:08,640 --> 00:20:12,819 Entonces, el ser consciente de cómo lo haces sería maravilloso. 393 00:20:12,960 --> 00:20:15,559 Totalmente. Y yo añadiría filosofía. 394 00:20:17,240 --> 00:20:18,779 Eso es lo importante, Carmen. 395 00:20:18,960 --> 00:20:20,559 Porque tendemos a pensar solo en tecnología. 396 00:20:20,559 --> 00:20:21,980 Y hay otros perfiles. 397 00:20:22,160 --> 00:20:24,839 Es que le estamos dando vuelta a toda la educación ahora 398 00:20:24,839 --> 00:20:26,480 cuando volvemos al humanismo 399 00:20:26,480 --> 00:20:29,220 yo lo que digo es un humanismo digital 400 00:20:29,220 --> 00:20:29,799 donde 401 00:20:29,799 --> 00:20:32,619 la herramienta ya la tienes 402 00:20:32,619 --> 00:20:34,720 lo que va a primar aquí es tu cerebro 403 00:20:34,720 --> 00:20:37,279 cómo lo utilizas y cómo le sacas ese partido 404 00:20:37,279 --> 00:20:38,819 entonces es un 405 00:20:38,819 --> 00:20:40,819 renacimiento nuevo 406 00:20:40,819 --> 00:20:42,460 un renacimiento digital 407 00:20:42,460 --> 00:20:45,059 donde vamos a poder 408 00:20:45,059 --> 00:20:46,660 hacer todo lo que queremos hacer 409 00:20:46,660 --> 00:20:48,859 solo con visualizarlo 410 00:20:48,859 --> 00:20:50,440 pensarlo 411 00:20:50,440 --> 00:20:53,039 todo lo que queremos hacer con ética 412 00:20:53,039 --> 00:20:55,559 Con ética, eso sí, ese aspecto es muy importante. 413 00:20:55,559 --> 00:21:01,119 Pero sí que vamos a evitar esas barreras de entrada, sobre todo en las mujeres, 414 00:21:01,339 --> 00:21:08,099 por ejemplo, que tienen programaciones muy pocas o en temas de inteligencia artificial. 415 00:21:08,559 --> 00:21:14,119 Pero ya no hay que programar, o sea, la programación sí que va a estar para unos cuantos 416 00:21:14,119 --> 00:21:22,119 que tengan que definir cosas muy expertas, pero para el resto vamos a programar con nuestra voz. 417 00:21:22,119 --> 00:21:27,119 O sea, el lenguaje va a ser nuestra herramienta de programación. 418 00:21:28,299 --> 00:21:32,799 Entonces, lo que hay que hacer es que ese lenguaje, ese pensamiento, sea correcto. 419 00:21:32,900 --> 00:21:35,960 Y, por tanto, tenemos que volver a las humanidades. 420 00:21:36,400 --> 00:21:37,420 Y sea enriquecedor. 421 00:21:37,880 --> 00:21:42,799 Sin embargo, yo creo que en la actualidad mucha gente, y sobre todo los estudiantes jóvenes, 422 00:21:43,500 --> 00:21:47,059 opinan que el uso de la inteligencia artificial lo que les va a evitar es tener que estudiar, 423 00:21:47,480 --> 00:21:49,779 tener que comprender, tener que leer. 424 00:21:49,779 --> 00:21:53,059 y esos tres aspectos a mí me preocupan 425 00:21:53,059 --> 00:21:54,460 especialmente como educadora 426 00:21:54,460 --> 00:21:56,819 creo que obviamente hay que 427 00:21:56,819 --> 00:21:58,799 volver a los orígenes como tú bien indicas 428 00:21:58,799 --> 00:22:00,460 y trabajar destrezas básicas 429 00:22:00,460 --> 00:22:02,980 de comunicación oral y escrita para poder 430 00:22:02,980 --> 00:22:04,960 trabajar bien y de forma 431 00:22:04,960 --> 00:22:06,859 fiquente con la inteligencia artificial 432 00:22:06,859 --> 00:22:08,759 Yo respondiendo a tu pregunta 433 00:22:08,759 --> 00:22:10,420 te diría que tengo un bebé de dos años 434 00:22:10,420 --> 00:22:12,599 y que ya no hay que irse hasta primaria 435 00:22:12,599 --> 00:22:14,339 y esconder y yo creo que ya en preescolar 436 00:22:14,339 --> 00:22:15,980 lo que se conocía antes como preescolar 437 00:22:15,980 --> 00:22:18,059 en la anterior primaria ya deberíamos 438 00:22:18,059 --> 00:22:20,000 formar a las personas 439 00:22:20,000 --> 00:22:21,779 aunque sean unos seres diminutos 440 00:22:21,779 --> 00:22:24,279 cuyo lenguaje aún no entendemos 441 00:22:24,279 --> 00:22:26,440 porque tienen todavía su propio lenguaje 442 00:22:26,440 --> 00:22:27,460 yo creo que ya deberíamos 443 00:22:27,460 --> 00:22:29,440 sin embargo parece que estamos dando marcha atrás 444 00:22:29,440 --> 00:22:32,519 se está prohibiendo la pantalla en el entorno educativo 445 00:22:32,519 --> 00:22:34,700 se está prohibiendo el uso de los dispositivos 446 00:22:34,700 --> 00:22:35,859 en España 447 00:22:35,859 --> 00:22:36,420 te refieres? 448 00:22:36,420 --> 00:22:37,099 en España, claro 449 00:22:37,099 --> 00:22:40,839 porque en otros países desde preescolar ya dan inteligencia artificial 450 00:22:40,839 --> 00:22:42,519 muy bien apuntado 451 00:22:42,519 --> 00:22:43,859 en Estados Unidos sí 452 00:22:43,859 --> 00:22:45,059 que salió en la noticia 453 00:22:45,059 --> 00:22:47,400 en Finlandia también 454 00:22:47,400 --> 00:22:49,779 ¿dónde era? en Tailandia 455 00:22:49,779 --> 00:22:52,019 en Tailandia, en China 456 00:22:52,019 --> 00:22:54,119 también, tienen ya un conjunto 457 00:22:54,119 --> 00:22:56,160 de horas y si no recuerdo mal 458 00:22:56,160 --> 00:22:57,900 en Corea, no recuerdo en cuál de las dos 459 00:22:57,900 --> 00:22:59,140 que son muy competitivos 460 00:22:59,140 --> 00:23:01,980 también que salió un artículo del presidente 461 00:23:01,980 --> 00:23:04,160 que estaba diciendo la inversión en inteligencia artificial 462 00:23:04,160 --> 00:23:05,220 también, también 463 00:23:05,220 --> 00:23:07,579 es un tema estratégico a nivel de país 464 00:23:07,579 --> 00:23:10,279 de que tus ciudadanos y de tus niños 465 00:23:10,279 --> 00:23:12,019 empiezan a vivir con eso 466 00:23:12,019 --> 00:23:13,640 y no quedarse atrás en esta carrera 467 00:23:13,640 --> 00:23:15,900 es un tema nativo, no sé si es nativo digital 468 00:23:15,900 --> 00:23:17,759 es nativo guía o nativo... 469 00:23:17,759 --> 00:23:19,799 Es nuestra nueva herramienta, igual que antes 470 00:23:19,799 --> 00:23:21,759 teníamos un lápiz 471 00:23:21,759 --> 00:23:24,500 no lo va a sustituir 472 00:23:24,500 --> 00:23:25,980 pero sí que es verdad que es 473 00:23:25,980 --> 00:23:28,359 otra herramienta que tienen que aprender desde pequeños 474 00:23:28,359 --> 00:23:29,799 Sí, sí, mi bebé maneja 475 00:23:29,799 --> 00:23:32,279 la tablet y el móvil mejor que yo, tiene dos años 476 00:23:32,279 --> 00:23:33,839 yo al principio estaba un poco en contra 477 00:23:33,839 --> 00:23:36,279 pero la Yaya dijo, Úrsula va a tener que utilizarlo 478 00:23:36,279 --> 00:23:37,920 efectivamente 479 00:23:37,920 --> 00:23:38,980 con dos años 480 00:23:38,980 --> 00:23:41,940 y eso no le resta interés de los 481 00:23:41,940 --> 00:23:43,599 juguetes tradicionales, es decir 482 00:23:43,599 --> 00:23:45,539 perfectamente compatible 483 00:23:46,279 --> 00:23:48,740 Muy bien, pues yo creo que hemos hecho un buen uso del tiempo. 484 00:23:48,920 --> 00:23:53,880 Si queréis comentar algo más o alguna otra duda tenemos o queréis... 485 00:23:53,880 --> 00:24:00,539 Bueno, yo querría animar, como sois docentes, a las niñas que se metan también en este campo 486 00:24:00,539 --> 00:24:02,839 porque parece que les da como un poco de miedo, ¿no? 487 00:24:03,480 --> 00:24:10,819 Y tenemos que estar allí primero para no sesgar lo que es el conocimiento que va cogiendo la IA, 488 00:24:10,819 --> 00:24:25,220 sino aportar nuestro pensamiento también, que también es importante que tenga diversidad de la IA para aprender más y para darnos mejores recomendaciones. 489 00:24:25,839 --> 00:24:32,660 Eso es muy interesante. Yo como mujer, como docente y además como ingeniera, ambas poco representadas en nuestro sector, 490 00:24:32,660 --> 00:24:53,680 Te invito desde aquí, Carmen, a que hagamos un podcast el curso que viene para intentar animar a esas vocaciones tan necesarias dentro del mundo de la tecnología, que necesitamos nuevas programadoras, nuevas administradoras de red, mujeres que se incorporen al campo de la inteligencia artificial y que tengan al menos la mitad de entusiasmo que tú. Muchísimas gracias. 491 00:24:53,680 --> 00:24:57,319 Muchas gracias a que estaré. Muchas gracias por la invitación y por este momento. 492 00:24:57,640 --> 00:24:58,279 Muchas gracias. 493 00:24:58,279 --> 00:25:01,819 Bueno, hemos hablado de riesgos, de oportunidades 494 00:25:01,819 --> 00:25:03,539 de decisiones de lógica, de filosofía 495 00:25:03,539 --> 00:25:05,720 del nuevo renacimiento, el renacimiento digital 496 00:25:05,720 --> 00:25:07,799 la inteligencia artificial ya forma 497 00:25:07,799 --> 00:25:09,400 parte de nuestras vidas, las ha cambiado 498 00:25:09,400 --> 00:25:11,700 rotundamente y más por venir 499 00:25:11,700 --> 00:25:13,880 apostar por una inteligencia artificial ética 500 00:25:13,880 --> 00:25:14,920 es necesario 501 00:25:14,920 --> 00:25:17,720 gracias a Carmen Reina y a Ángel Casado 502 00:25:17,720 --> 00:25:19,759 por estar de nuevo con nosotros 503 00:25:19,759 --> 00:25:21,460 y por supuesto a María Pilar 504 00:25:21,460 --> 00:25:23,180 por vuestras aportaciones 505 00:25:23,180 --> 00:25:25,700 si os ha gustado el podcast, sin dudarlo 506 00:25:25,700 --> 00:25:27,819 podéis compartirlo con vuestros compañeros 507 00:25:27,819 --> 00:25:29,539 incluso en vuestras empresas 508 00:25:29,539 --> 00:25:32,220 y nos vemos en el próximo 509 00:25:32,220 --> 00:25:33,440 episodio, recordad 510 00:25:33,440 --> 00:25:35,599 la ética no es un extra 511 00:25:35,599 --> 00:25:37,839 la ética es parte del profesional 512 00:25:37,839 --> 00:25:39,700 que queremos ser, la inteligencia artificial 513 00:25:39,700 --> 00:25:41,779 con ética no solo es posible 514 00:25:41,779 --> 00:25:43,559 es necesaria, muchas gracias