Saltar navegación

Activa JavaScript para disfrutar de los vídeos de la Mediateca.

Hablamos sobre la IA - Contenido educativo

Ajuste de pantalla

El ajuste de pantalla se aprecia al ver el vídeo en pantalla completa. Elige la presentación que más te guste:

Subido el 31 de mayo de 2025 por Radio ies ignacioellacuria alcorcon

45 visualizaciones

Descargar la transcripción

Muy buenas a todos y todas. Bienvenidos a FP de Radio, tu ventana al futuro de la educación a distancia. 00:00:00
Desde el Centro Integral de FP a Distancia Ignacio Yacuría en Alcorcón, 00:00:06
nos conectamos contigo para traerte las historias, las voces y las claves de esta modalidad educativa que está transformando vidas. 00:00:10
Bienvenidos y bienvenidas a este nuevo episodio sobre inteligencia artificial. 00:00:17
Hoy vamos a hablar de un tema que ya está transformando el mundo del trabajo, 00:00:22
la forma en que se toman las decisiones y nuestras vidas. 00:00:26
Ya sabemos qué es la inteligencia artificial, cómo puede ayudarnos en el día a día profesional. 00:00:30
Pero, ¿qué pasa con la ética? ¿Qué pasa con la privacidad de datos? 00:00:35
Y con nuestros derechos, los derechos de las personas. 00:00:39
Hoy tenemos con nosotros el honor, el privilegio de tener dos invitados muy especiales. 00:00:42
Carmen Reina, experta en inteligencia artificial. 00:00:46
Buenos días. 00:00:49
Y Data, cultura del dato, transformación de la inteligencia artificial. 00:00:49
CEO de Data Quantum y gran conocedora de los retos que plantea la inteligencia artificial en las organizaciones 00:00:53
Gracias Carmen por estar aquí 00:01:00
Buenos días, muchas gracias por invitarme 00:01:01
Y también tenemos a Ángel Casado que ya le conocéis de podcast anteriores 00:01:04
Que es experto en transformación tecnológica y buen conocedor de los retos que plantea la inteligencia artificial en las organizaciones 00:01:07
Gracias Ángel, buenos días 00:01:14
Gracias de nuevo, un placer estar con vosotras y con Carmen 00:01:15
También tenemos con nosotros a María Pilar Paredes, la jefa del Departamento de Informática en este centro, Ignacio Eyacuría, el Centro Integral de Formación Profesional y Distancia, Ignacio Eyacuría, y a mí, ya me conocéis, del Departamento de Administración y Gestión de este departamento. 00:01:18
Muchas gracias. 00:01:36
este instituto. Así que preparados para un episodio lleno de ideas, ejemplos reales y 00:01:37
preguntas que nos harán pensar. Empezamos, empezamos. Y dejadme abrir a mí la pregunta 00:01:42
inicial para Carmen y Ángel. Por sentar base, ¿qué es la inteligencia artificial y por qué 00:01:48
tenemos que plantearnos eso de la ética en la inteligencia artificial, en su uso y desarrollo 00:01:55
de la inteligencia artificial? 00:02:00
Bueno, podríamos decir que la inteligencia artificial 00:02:02
es el duplicar las capacidades del ser humano 00:02:05
dentro de las máquinas, programando, claro. 00:02:09
Entonces, duplicamos el pensamiento, 00:02:13
duplicamos el aprendizaje, duplicamos la lógica, 00:02:16
el razonamiento, duplicamos todo lo que creemos 00:02:20
que para nosotros nos va a hacer manejar 00:02:23
el contexto en el que vivimos. 00:02:27
y me has preguntado 00:02:29
también de la ética 00:02:31
Sí, ¿por qué tenemos que plantearnos 00:02:32
algo acerca de la ética 00:02:34
cuando hablamos de la inteligencia artificial? 00:02:36
Bueno, porque estamos construyendo 00:02:40
una herramienta 00:02:41
muy difícil 00:02:42
sobre todo 00:02:44
muy compleja 00:02:46
esto hace que necesite 00:02:47
unas directrices porque puede tomar 00:02:50
decisiones por sí sola 00:02:53
en un momento dado 00:02:54
y entonces lo que es necesario es que cumpla 00:02:55
una serie de garantías 00:02:58
como es, por ejemplo, la explicatividad 00:03:00
sabemos cómo 00:03:03
ha tomado la decisión la IA 00:03:04
no lo sabemos, tenemos que saberlo 00:03:06
para poder accionar 00:03:08
y luego hay otra cosa que tenemos que supervisar 00:03:10
como humanos, porque no podemos dejar 00:03:12
a la IA, que ya hemos visto 00:03:14
los últimos avances del CGPT y compañía 00:03:16
que es capaz 00:03:19
de razonar 00:03:20
en principio, aunque luego 00:03:21
todo esté basado en matemáticas y en algoritmos 00:03:24
pero sí que parece que 00:03:27
la zona, no podemos dejarla 00:03:28
que tome decisiones por nosotros 00:03:30
porque afecta mucho a nuestros derechos 00:03:32
como personas, nos puede por ejemplo 00:03:34
dejar de otorgar un préstamo 00:03:36
o nos puede 00:03:38
recomendar un medicamento 00:03:40
que no sea el correcto, etc 00:03:42
puede poner en peligro 00:03:44
nuestra vida 00:03:46
muy bien, comentábamos antes 00:03:48
que en la introducción 00:03:50
que más que quitar 00:03:52
nuestro trabajo, lo que va a hacer es transformarlo 00:03:54
Es muy probable que lo que nos haga es tener que evolucionar a aprender a utilizar herramientas. Igual que cuando tú estás con la azada y has pasado con el tractor, ese tractor hay que aprender a utilizarlo. Pues cogiendo ese símil y habiendo mucha distancia, la IA lo que te implica es que tienes que aprender a utilizar una herramienta nueva que nos hace hiper escalables y hiper productivos en un montón de herramientas. 00:03:56
Entonces, la ética es fundamental, el asegurar, lo que ha dicho Carmen, que es reproducible. 00:04:20
Tú sabes por qué tomar la decisión. Una idea que no sabemos por qué pasa, a mí personalmente sí me da miedo. 00:04:25
Respecto a lo que comentáis ambos, hay una cuestión que ha apuntado Carmen que me parece especialmente relevante. 00:04:32
La inteligencia artificial puede incluso evitar que nos den un préstamo. 00:04:39
Por supuesto, lógicamente, si se utiliza en contratación, supongamos que evita que me contraten ante un determinado proceso posible de envío de currículum. Ante esa situación, Carmen, tú como experta, ¿qué límites crees que se debería poner a la inteligencia artificial para evitar casuísticas como las que has planteado antes? 00:04:43
Una de las cosas que tenemos que hacer sí o sí es la supervisión humana. 00:05:04
El humano siempre tiene que estar en el loop, en el bucle de la inteligencia artificial para último decisor. 00:05:10
Tiene que tomar las decisiones siempre validando que lo que ha dicho la inteligencia artificial o lo que ha hecho es correcto. 00:05:16
En el caso, por ejemplo, de los currículum, claro, la información está muy sesgada 00:05:23
y la inteligencia artificial aprende de documentos, de currículum, de puestos, de conocimiento nuestro previo, de humanos. 00:05:28
En este caso, por ejemplo, observamos un sesgo claro, por ejemplo, en los currículum de las mujeres en tecnología. 00:05:38
Este hecho hace que haya menos currículum que pasen por la IA de mujeres que de hombres, 00:05:45
con lo cual el patrón que va a aprender es el de los hombres, no el de las mujeres. 00:05:51
Por tanto, si viene un currículum nuevo de una mujer, es más probable que lo descarte que no que lo acepte, porque tiene más datos, por ejemplo, de currículum de hombre en puestos de tecnología, me estoy refiriendo. 00:05:55
Pasa lo mismo, por ejemplo, en puestos de enfermería, que pasa lo contrario. Hay más currículum de mujeres que de hombres, también es otro sesgo. 00:06:08
y tenemos que asegurarnos que el reclutador vea la decisión que ha tomado la IA 00:06:15
y compruebe con sus valores, no solo valores sino con la necesidad de la compañía 00:06:24
y lo que tiene que hacer es supervisar con supervisión. 00:06:32
Interesante observación y hablando de currículum y por tanto de datos personales, 00:06:37
A mí me preocupa especialmente cómo trata esos datos la IA, en qué sentido yo como usuario de inteligencia artificial 00:06:41
puedo estar segura de que mis datos no son tratados de forma incorrecta o no puedo estar convencida de lo que acabo de indicar. 00:06:48
Pilar, María Pilar, perdón. No podemos estar seguros. De hecho, os voy a contar que recientemente se ha multado en Italia a una empresa, 00:06:57
Bueno, es LUIC, pero es un avatar que han construido que se llama REPICA, que lo que hace es dar consejos psicológicos a usuarios. 00:07:07
Entonces, ni contemplaban el registro de los usuarios, ni anonimizaban, daban decisiones sin validar, etcétera, etcétera. 00:07:21
Y esto puede poner en riesgo al cliente que utilice este sistema. 00:07:31
si ya tienen alguna perturbación 00:07:36
pues imagínatela a ella 00:07:39
que le mande 00:07:40
consejos en un tema tan sensible 00:07:41
como es la salud mental de los usuarios 00:07:45
y deciros que la multa es 5 millones 00:07:47
de euros 00:07:49
es una multa considerable a tener en cuenta 00:07:49
entonces la responsabilidad 00:07:53
de las decisiones 00:07:55
de los errores de la inteligencia artificial 00:07:56
¿dónde está? ¿dónde se queda? 00:07:59
¿con la empresa? ¿con las personas? 00:08:01
en la persona que lo usa yo creo 00:08:03
la persona que utiliza la inteligencia artificial 00:08:05
claro, porque tú tienes que tener garantías 00:08:07
de que tus datos, primero por la ley 00:08:08
europea, del EIAC 00:08:10
se queden en Europa, que no traspasen 00:08:12
fronteras hacia 00:08:15
Estados Unidos, China, etcétera 00:08:16
y luego tienes que 00:08:18
tomar la última decisión 00:08:20
de lo que te ha dicho la IA 00:08:22
tienes que tener la capacidad crítica 00:08:24
y el pensamiento lógico para saber 00:08:26
si eso es cierto o no 00:08:28
bien, que al final 00:08:30
se traduce en una cuestión económica, porque una empresa 00:08:33
tiene suficiente pulmón económico 00:08:35
para afrontar en su momento condenas 00:08:37
por malutilización 00:08:39
o mal uso de la inteligencia artificial 00:08:40
También, al hilo de todo esto 00:08:42
incluso para hacer nuevos 00:08:45
productos, la IAD 00:08:47
a veces te presenta problemas legales 00:08:48
muy relevantes, es decir 00:08:50
si un servicio, como 00:08:52
distinto al que comentaba Carmen, pero en el que tú 00:08:53
haces una propuesta, das una respuesta 00:08:56
y esa respuesta es incorrecta, pues 00:08:58
legalmente, tú contratas un servicio 00:09:00
y la IA te contesta mal, puedes demandarme. 00:09:02
Entonces, eso puede ser un problema a nivel económico, 00:09:05
también reputacional y a nivel de producto, 00:09:08
de que se te caiga abajo. 00:09:11
Y luego, además, el tema de, igualmente, 00:09:13
ahora mismo con todo el tema de cloud, de la nube y demás, 00:09:16
los requisitos y los criterios que se ponen 00:09:19
para asegurar la prioridad de los datos son enormes. 00:09:21
Por lo cual, eso lo que te implica son costes adicionales. 00:09:24
Entonces, ahí hay un punto de equilibrio 00:09:27
en el que a la hora de utilizar la IA, 00:09:29
pues tienes que tener en cuenta los riesgos que tienes a nivel legal 00:09:31
y luego los incrementos de coste que te puede suponer 00:09:34
el protegerte frente a ese tipo de errores. 00:09:36
Muy relevante. 00:09:40
Interesante ejemplo e información que habéis aportado 00:09:42
y a mí se me ocurre la pregunta contraria. 00:09:44
¿Conocéis alguna empresa donde realmente se utilice bien 00:09:46
desde el punto de vista ético la inteligencia artificial? 00:09:52
¿Vosotros como expertos? 00:09:55
Sí, hombre, hay muchas empresas. 00:09:57
Hay empresas de telecomunicación que sí que se aplica bien con un gobierno de la inteligencia artificial. El punto aquí es que las empresas que hacen casos de uso de IA deberían gobernar todas esas IAs. 00:09:59
Que eso significa que haya un equipo multidisciplinar que aborde ese proyecto desde un punto de vista, desde diferentes aspectos, por ejemplo, de ciberseguridad, de ética, de la IA, de legal, del técnico y que todo quede recogido y se sepa quién son los responsables de esos proyectos. 00:10:18
Por si acaso falla o lo que sea, que se sepa perfectamente. Y eso se está empezando a implementar y las empresas que están implementando ya esa gobernanza de la IA son las que están actuando bien. 00:10:44
En el caso de la Telco o también en el caso de otras empresas, por ejemplo en banca, sí que hay bancos que sí que están considerando todos estos aspectos y aplicando a todos esos modelos que generan un código para que haga la explicatividad, 00:10:58
que se sepa qué variables han definido el modelo, que se sepa que se haga la ética en el entuen del caso de uso, 00:11:20
que se gobierne, que se miren los aspectos de ciberseguridad donde hay vulnerabilidades, 00:11:30
porque claro, hemos introducido la inteligencia artificial. 00:11:35
Pero claro, esto provoca, por ejemplo, en el caso del chat GPT, que si lo tienes automatizado en una empresa, 00:11:39
que se cambien palabras de ese prompt y entonces da una respuesta totalmente contraria, puede ser. 00:11:45
Entonces eso hay que gobernarlo en las empresas, sí. 00:11:52
Dicho en el mundo empresarial, implica que la palabra caso de uso equivale a proyecto. 00:11:55
Es decir, dentro de lo que es el alcance del proyecto, que es la definición del caso de uso, 00:12:02
hay que poner que igual que está impactado el de infraestructura, el de la nube, el de base de datos, 00:12:08
está impactado el equipo de IA 00:12:13
y luego al igual que tú tienes 00:12:15
dentro del mundo del dato 00:12:17
tienes el de calidad, el de gobierno 00:12:19
pues es lo que está comentando 00:12:21
es decir, alguien tiene que validar que un PRON 00:12:22
es correcto, o el planteamiento 00:12:25
que también comentaba antes Carmen, el hecho de que 00:12:27
un mismo PRON, el mismo contexto 00:12:29
tiene que dar el mismo resultado, porque tienes que ser 00:12:31
capaz de ser trazable, entonces bueno 00:12:33
desde el punto de vista operativo tienes que introducirlo 00:12:34
en tu way of working, o sea tu forma de hacer proyectos 00:12:36
corporativos aparte de técnicos 00:12:39
y que luego pues hay nuevos roles que 00:12:41
Y eso da una oportunidad tremenda de nuevos perfiles y nuevas oportunidades de trabajo. 00:12:43
Y hay que decir que ya hay técnicas que te permiten, por ejemplo, 00:12:47
el que se hacen varios PROM y luego se hace un prorrateo de las soluciones. 00:12:51
O sea, utilizamos la IA para validar la IA. 00:12:58
Eso es muy interesante. 00:13:03
Es la recursividad del PROM. 00:13:05
A veces, para conseguir un PROM más detallado, te haces un reprom. 00:13:07
es hazme un PRON 00:13:12
actúa como un perfil 00:13:13
hazme un PRON 00:13:15
de tal 00:13:15
le vas diciendo 00:13:16
los distintos aspectos 00:13:17
y que te construya el PRON 00:13:18
la salida 00:13:19
es la que tú luego 00:13:20
vas probando 00:13:21
y a su vez 00:13:22
como comienza ella 00:13:22
puedes tener otros PRON 00:13:23
que te validan 00:13:24
si eso que estás haciendo 00:13:25
es correcto 00:13:26
un ejemplo muy tonto 00:13:26
quieres configurar 00:13:28
un DNS 00:13:29
por un tema de correo tal 00:13:30
coges 00:13:31
lo pegas 00:13:32
y la propia ella 00:13:33
te dice 00:13:34
mira esto está bien 00:13:34
cuidado con esto 00:13:34
no sé qué 00:13:35
te va validando 00:13:36
o sea 00:13:37
lo puedes enfocar 00:13:37
ya no como pregunto al chat 00:13:38
sino le doy instrucciones para que me dé soluciones 00:13:40
que es un poco también el cambio de mindset que hay que empezar a introducir 00:13:43
y comentamos en el anterior podcast 00:13:46
de empezar a hablar 00:13:47
de dar instrucciones 00:13:49
y a partir de ahí tienes instrucciones y roles 00:13:50
uno implementa, otro ejecuta y otro te valida 00:13:52
y a partir de ahí empezar a pensar 00:13:55
que esas acciones las hacen IA 00:13:57
y tienen que tener ética 00:13:59
gobernanza para que las cosas funcionen 00:14:01
con coordinación, si no esto puede ser 00:14:03
la selva 00:14:05
y ahora más que vamos al mundo de los agentes de IA 00:14:06
donde ya hay aplicaciones 00:14:09
que se hacen sus propias aplicaciones 00:14:11
o sea, un agente 00:14:14
empieza a codificar, empieza a hacer el código 00:14:15
y dice, no, que me he equivocado 00:14:18
lo voy a corregir 00:14:20
y va haciéndolo autónomamente 00:14:21
esos son los agentes 00:14:23
la IA que es autónoma 00:14:24
y que va aportando 00:14:27
una aplicación o una página web 00:14:29
o lo que sea 00:14:31
que a nosotros nos costaría 00:14:32
meses de trabajo 00:14:34
te lo hacen en una hora 00:14:36
ejecuta mucho más eficazmente 00:14:38
las tareas. Conforme a lo que estáis diciendo 00:14:41
es obvio que va a haber una transformación 00:14:43
brutal en el mercado laboral 00:14:45
y teniendo en cuenta que nuestros 00:14:47
alumnos, muchos de ellos ya están trabajando 00:14:49
en empresa o van a salir próximamente 00:14:51
al mundo empresarial, ¿qué consejos 00:14:53
les daríais 00:14:56
para poder abordar 00:14:57
con éxito esta transformación 00:14:59
digital, esta transformación 00:15:01
en el mundo de la IA que es necesaria 00:15:03
para poder tener 00:15:05
un futuro laboral bueno, un futuro laboral que no sea precisamente un cambio negativo, 00:15:07
sino una transformación del desempeño de las funciones. 00:15:13
El consejo más obvio es que aprendan a utilizar la IA, 00:15:17
pero no solo la IA en la parte técnica como usuario, 00:15:23
sino que también la ética de la IA tienen que aprender. 00:15:28
Es necesario ya en nuestros días, donde vamos a ver cada vez más IA a nuestro alrededor, 00:15:31
que sepamos que estamos seguros 00:15:36
y que esa IA contempla la regulación ética. 00:15:39
De hecho, una cosa que a veces hemos comentado Carmelo 00:15:43
es el empezar a pensar que debemos saber 00:15:46
si lo que estamos viendo tiene ética o no tiene ética. 00:15:50
Otro día me comentabas sobre VO3 00:15:53
y ves los ejemplos de VO3, 00:15:54
que es la nueva versión de vídeo de Google, de Gemini, 00:15:56
y dices, ahí va. 00:16:00
Entonces, incluso ves fotos que incluso te cuesta fijarte 00:16:02
donde está la separación 00:16:05
entonces el concepto de autenticidad 00:16:07
de ética, legal, de que lo que estás 00:16:10
viendo es de verdad humano 00:16:11
o es de verdad IA 00:16:13
es un concepto que yo creo que tiene que venir 00:16:15
y que hay que aplicar y empezar a introducir 00:16:17
de una forma, con un criterio propio 00:16:19
es decir, los alumnos aquí en este sentido, lo que estoy viendo 00:16:21
¿tiene IA o tiene IA? 00:16:23
si tiene IA, ¿con qué criterio? 00:16:25
¿con qué objetivo? y es empezar a tener 00:16:27
ese desarrollo de persona 00:16:29
que enjuicia la IA 00:16:31
es súper inteligente, fenomenal 00:16:33
pero lo que está haciendo es correcto, es ético 00:16:35
y aparte saber que está hecho por ella 00:16:38
China ya está diciendo que lo que esté hecho de ella 00:16:43
tiene que llevar una especie de sello para que el humano 00:16:45
sepamos si esto es cierto o lo ha generado la IA 00:16:48
y se está trabajando en este campo ahora mucho 00:16:52
muy importante, sí, sí, y todo esto me lleva a pensar 00:16:54
el papel, el rol que jugamos nosotros los formadores 00:16:57
los docentes, los educadores en relación con el uso ético de la IA 00:17:00
¿cómo nos veis? 00:17:03
¿qué sugerís? 00:17:06
Bueno, también formación en IA 00:17:08
en ética de la IA 00:17:10
también, imprescindible 00:17:11
aquí ponéis un curso básico 00:17:13
de ética de la IA 00:17:15
yo creo que el papel 00:17:16
del educador, yo también 00:17:19
soy educadora 00:17:21
tiene que ser 00:17:22
transmitir a los alumnos 00:17:25
que ojo con esto, que es una herramienta 00:17:27
súper potente, que nos está ayudando 00:17:30
un montón y nos va a ayudar mucho 00:17:32
pero que tengan la capacidad 00:17:33
crítica para saber si 00:17:36
está siendo aplicado 00:17:37
por la guía o no 00:17:40
y que tengan un soft skill 00:17:41
que es 00:17:44
el pensamiento crítico por supuesto 00:17:46
pero yo creo que hay que educar 00:17:47
en lógica porque realmente 00:17:49
quien maneje bien la lógica 00:17:52
a sacarle más partido 00:17:57
a la inteligencia artificial 00:18:00
Porque los PROM, hay gente que mete PROMs en un chatbot, por ejemplo, como el chat GPT, 00:18:02
y le da distintos resultados a otro que lo ha metido de otra manera, ¿no? 00:18:10
Porque nuestro pensamiento es diferente. 00:18:13
La persona que vaya con lógica, que es lo que sigue la inteligencia artificial, 00:18:15
va a obtener muchísimos mejores resultados que quien no utilice la lógica. 00:18:21
Con lo cual, como educadoras, yo comentaría la lógica entre los alumnos, 00:18:26
la ética de la inteligencia artificial también 00:18:30
y que sepan utilizar la inteligencia artificial. 00:18:33
Sí, por fin ha llegado el momento en el que los alumnos 00:18:36
tienen que pensar, que no se planten ante un examen 00:18:38
solo porque hayan memorizado contenido, 00:18:41
sino que, lo insisto mucho, ahora tenemos la semana que viene, 00:18:43
empezamos con todos los exámenes del alumnado de este centro 00:18:46
y que piensen ante un examen, 00:18:51
no solo intenten tirar de memoria de los estudios, 00:18:54
sino que efectivamente utilicen la lógica. 00:18:57
Por fin hay un momento en que se sentirán obligados a utilizarla. 00:18:59
Totalmente. Y no se puede copiar y pegar. 00:19:03
Ese es el principal problema que veo yo. 00:19:06
También pasaba con el uso de la información que los alumnos buscan en Google, 00:19:08
en cualquier búsqueda. 00:19:11
O la enciclopedia. 00:19:12
O la enciclopedia, que finalmente es un copia-pega. 00:19:13
Ese es un problema que tenemos desde hace tiempo en las aulas 00:19:16
respecto a la capacidad crítica del alumnado, 00:19:20
la capacidad también de análisis, de redacción, de comprensión verbal incluso. 00:19:22
algún compañero lo planteaba hace poco 00:19:27
en una reunión y a mí es un aspecto 00:19:29
que me preocupa especialmente 00:19:31
vosotros, es una pregunta para los tres 00:19:32
¿creéis que sería 00:19:35
imprescindible que en niveles 00:19:37
educativos como primaria 00:19:39
incluso o secundaria 00:19:41
se introdujera el uso de la inteligencia 00:19:42
artificial de manera ética 00:19:45
y responsable para que el alumnado 00:19:47
supiera cómo utilizarla? 00:19:49
por supuesto 00:19:52
en otros países se hace 00:19:52
Es educación en tecnología bien llevada. 00:19:55
Es aprender bien desde el principio, porque al final 00:19:59
gran parte de los niños han aprendido solos. 00:20:01
Entonces, no digo de los vicios, pero no tienes un criterio 00:20:03
de por qué haces lo que haces. 00:20:07
Entonces, el ser consciente de cómo lo haces sería maravilloso. 00:20:08
Totalmente. Y yo añadiría filosofía. 00:20:12
Eso es lo importante, Carmen. 00:20:17
Porque tendemos a pensar solo en tecnología. 00:20:18
Y hay otros perfiles. 00:20:20
Es que le estamos dando vuelta a toda la educación ahora 00:20:22
cuando volvemos al humanismo 00:20:24
yo lo que digo es un humanismo digital 00:20:26
donde 00:20:29
la herramienta ya la tienes 00:20:29
lo que va a primar aquí es tu cerebro 00:20:32
cómo lo utilizas y cómo le sacas ese partido 00:20:34
entonces es un 00:20:37
renacimiento nuevo 00:20:38
un renacimiento digital 00:20:40
donde vamos a poder 00:20:42
hacer todo lo que queremos hacer 00:20:45
solo con visualizarlo 00:20:46
pensarlo 00:20:48
todo lo que queremos hacer con ética 00:20:50
Con ética, eso sí, ese aspecto es muy importante. 00:20:53
Pero sí que vamos a evitar esas barreras de entrada, sobre todo en las mujeres, 00:20:55
por ejemplo, que tienen programaciones muy pocas o en temas de inteligencia artificial. 00:21:01
Pero ya no hay que programar, o sea, la programación sí que va a estar para unos cuantos 00:21:08
que tengan que definir cosas muy expertas, pero para el resto vamos a programar con nuestra voz. 00:21:14
O sea, el lenguaje va a ser nuestra herramienta de programación. 00:21:22
Entonces, lo que hay que hacer es que ese lenguaje, ese pensamiento, sea correcto. 00:21:28
Y, por tanto, tenemos que volver a las humanidades. 00:21:32
Y sea enriquecedor. 00:21:36
Sin embargo, yo creo que en la actualidad mucha gente, y sobre todo los estudiantes jóvenes, 00:21:37
opinan que el uso de la inteligencia artificial lo que les va a evitar es tener que estudiar, 00:21:43
tener que comprender, tener que leer. 00:21:47
y esos tres aspectos a mí me preocupan 00:21:49
especialmente como educadora 00:21:53
creo que obviamente hay que 00:21:54
volver a los orígenes como tú bien indicas 00:21:56
y trabajar destrezas básicas 00:21:58
de comunicación oral y escrita para poder 00:22:00
trabajar bien y de forma 00:22:02
fiquente con la inteligencia artificial 00:22:04
Yo respondiendo a tu pregunta 00:22:06
te diría que tengo un bebé de dos años 00:22:08
y que ya no hay que irse hasta primaria 00:22:10
y esconder y yo creo que ya en preescolar 00:22:12
lo que se conocía antes como preescolar 00:22:14
en la anterior primaria ya deberíamos 00:22:15
formar a las personas 00:22:18
aunque sean unos seres diminutos 00:22:20
cuyo lenguaje aún no entendemos 00:22:21
porque tienen todavía su propio lenguaje 00:22:24
yo creo que ya deberíamos 00:22:26
sin embargo parece que estamos dando marcha atrás 00:22:27
se está prohibiendo la pantalla en el entorno educativo 00:22:29
se está prohibiendo el uso de los dispositivos 00:22:32
en España 00:22:34
te refieres? 00:22:35
en España, claro 00:22:36
porque en otros países desde preescolar ya dan inteligencia artificial 00:22:37
muy bien apuntado 00:22:40
en Estados Unidos sí 00:22:42
que salió en la noticia 00:22:43
en Finlandia también 00:22:45
¿dónde era? en Tailandia 00:22:47
en Tailandia, en China 00:22:49
también, tienen ya un conjunto 00:22:52
de horas y si no recuerdo mal 00:22:54
en Corea, no recuerdo en cuál de las dos 00:22:56
que son muy competitivos 00:22:57
también que salió un artículo del presidente 00:22:59
que estaba diciendo la inversión en inteligencia artificial 00:23:01
también, también 00:23:04
es un tema estratégico a nivel de país 00:23:05
de que tus ciudadanos y de tus niños 00:23:07
empiezan a vivir con eso 00:23:10
y no quedarse atrás en esta carrera 00:23:12
es un tema nativo, no sé si es nativo digital 00:23:13
es nativo guía o nativo... 00:23:15
Es nuestra nueva herramienta, igual que antes 00:23:17
teníamos un lápiz 00:23:19
no lo va a sustituir 00:23:21
pero sí que es verdad que es 00:23:24
otra herramienta que tienen que aprender desde pequeños 00:23:25
Sí, sí, mi bebé maneja 00:23:28
la tablet y el móvil mejor que yo, tiene dos años 00:23:29
yo al principio estaba un poco en contra 00:23:32
pero la Yaya dijo, Úrsula va a tener que utilizarlo 00:23:33
efectivamente 00:23:36
con dos años 00:23:37
y eso no le resta interés de los 00:23:38
juguetes tradicionales, es decir 00:23:41
perfectamente compatible 00:23:43
Muy bien, pues yo creo que hemos hecho un buen uso del tiempo. 00:23:46
Si queréis comentar algo más o alguna otra duda tenemos o queréis... 00:23:48
Bueno, yo querría animar, como sois docentes, a las niñas que se metan también en este campo 00:23:53
porque parece que les da como un poco de miedo, ¿no? 00:24:00
Y tenemos que estar allí primero para no sesgar lo que es el conocimiento que va cogiendo la IA, 00:24:03
sino aportar nuestro pensamiento también, que también es importante que tenga diversidad de la IA para aprender más y para darnos mejores recomendaciones. 00:24:10
Eso es muy interesante. Yo como mujer, como docente y además como ingeniera, ambas poco representadas en nuestro sector, 00:24:25
Te invito desde aquí, Carmen, a que hagamos un podcast el curso que viene para intentar animar a esas vocaciones tan necesarias dentro del mundo de la tecnología, que necesitamos nuevas programadoras, nuevas administradoras de red, mujeres que se incorporen al campo de la inteligencia artificial y que tengan al menos la mitad de entusiasmo que tú. Muchísimas gracias. 00:24:32
Muchas gracias a que estaré. Muchas gracias por la invitación y por este momento. 00:24:53
Muchas gracias. 00:24:57
Bueno, hemos hablado de riesgos, de oportunidades 00:24:58
de decisiones de lógica, de filosofía 00:25:01
del nuevo renacimiento, el renacimiento digital 00:25:03
la inteligencia artificial ya forma 00:25:05
parte de nuestras vidas, las ha cambiado 00:25:07
rotundamente y más por venir 00:25:09
apostar por una inteligencia artificial ética 00:25:11
es necesario 00:25:13
gracias a Carmen Reina y a Ángel Casado 00:25:14
por estar de nuevo con nosotros 00:25:17
y por supuesto a María Pilar 00:25:19
por vuestras aportaciones 00:25:21
si os ha gustado el podcast, sin dudarlo 00:25:23
podéis compartirlo con vuestros compañeros 00:25:25
incluso en vuestras empresas 00:25:27
y nos vemos en el próximo 00:25:29
episodio, recordad 00:25:32
la ética no es un extra 00:25:33
la ética es parte del profesional 00:25:35
que queremos ser, la inteligencia artificial 00:25:37
con ética no solo es posible 00:25:39
es necesaria, muchas gracias 00:25:41
Materias:
Artes gráficas, Alimentación
Etiquetas:
Agua
Niveles educativos:
▼ Mostrar / ocultar niveles
  • Formación Profesional
    • Ciclo formativo de grado básico
      • Primer Curso
      • Segundo Curso
    • Ciclo formativo de grado medio
      • Primer Curso
      • Segundo Curso
    • Ciclo formativo de grado superior
      • Primer Curso
      • Segundo Curso
Subido por:
Radio ies ignacioellacuria alcorcon
Licencia:
Dominio público
Visualizaciones:
45
Fecha:
31 de mayo de 2025 - 16:29
Visibilidad:
Público
Centro:
IES CIFP a Distancia Ignacio Ellacuría
Duración:
25′ 52″
Relación de aspecto:
1.78:1
Resolución:
1920x1080 píxeles
Tamaño:
2.56

Del mismo autor…

Ver más del mismo autor


EducaMadrid, Plataforma Educativa de la Comunidad de Madrid

Plataforma Educativa EducaMadrid