Activa JavaScript para disfrutar de los vídeos de la Mediateca.
Hablamos sobre la IA - Contenido educativo
Ajuste de pantallaEl ajuste de pantalla se aprecia al ver el vídeo en pantalla completa. Elige la presentación que más te guste:
Muy buenas a todos y todas. Bienvenidos a FP de Radio, tu ventana al futuro de la educación a distancia.
00:00:00
Desde el Centro Integral de FP a Distancia Ignacio Yacuría en Alcorcón,
00:00:06
nos conectamos contigo para traerte las historias, las voces y las claves de esta modalidad educativa que está transformando vidas.
00:00:10
Bienvenidos y bienvenidas a este nuevo episodio sobre inteligencia artificial.
00:00:17
Hoy vamos a hablar de un tema que ya está transformando el mundo del trabajo,
00:00:22
la forma en que se toman las decisiones y nuestras vidas.
00:00:26
Ya sabemos qué es la inteligencia artificial, cómo puede ayudarnos en el día a día profesional.
00:00:30
Pero, ¿qué pasa con la ética? ¿Qué pasa con la privacidad de datos?
00:00:35
Y con nuestros derechos, los derechos de las personas.
00:00:39
Hoy tenemos con nosotros el honor, el privilegio de tener dos invitados muy especiales.
00:00:42
Carmen Reina, experta en inteligencia artificial.
00:00:46
Buenos días.
00:00:49
Y Data, cultura del dato, transformación de la inteligencia artificial.
00:00:49
CEO de Data Quantum y gran conocedora de los retos que plantea la inteligencia artificial en las organizaciones
00:00:53
Gracias Carmen por estar aquí
00:01:00
Buenos días, muchas gracias por invitarme
00:01:01
Y también tenemos a Ángel Casado que ya le conocéis de podcast anteriores
00:01:04
Que es experto en transformación tecnológica y buen conocedor de los retos que plantea la inteligencia artificial en las organizaciones
00:01:07
Gracias Ángel, buenos días
00:01:14
Gracias de nuevo, un placer estar con vosotras y con Carmen
00:01:15
También tenemos con nosotros a María Pilar Paredes, la jefa del Departamento de Informática en este centro, Ignacio Eyacuría, el Centro Integral de Formación Profesional y Distancia, Ignacio Eyacuría, y a mí, ya me conocéis, del Departamento de Administración y Gestión de este departamento.
00:01:18
Muchas gracias.
00:01:36
este instituto. Así que preparados para un episodio lleno de ideas, ejemplos reales y
00:01:37
preguntas que nos harán pensar. Empezamos, empezamos. Y dejadme abrir a mí la pregunta
00:01:42
inicial para Carmen y Ángel. Por sentar base, ¿qué es la inteligencia artificial y por qué
00:01:48
tenemos que plantearnos eso de la ética en la inteligencia artificial, en su uso y desarrollo
00:01:55
de la inteligencia artificial?
00:02:00
Bueno, podríamos decir que la inteligencia artificial
00:02:02
es el duplicar las capacidades del ser humano
00:02:05
dentro de las máquinas, programando, claro.
00:02:09
Entonces, duplicamos el pensamiento,
00:02:13
duplicamos el aprendizaje, duplicamos la lógica,
00:02:16
el razonamiento, duplicamos todo lo que creemos
00:02:20
que para nosotros nos va a hacer manejar
00:02:23
el contexto en el que vivimos.
00:02:27
y me has preguntado
00:02:29
también de la ética
00:02:31
Sí, ¿por qué tenemos que plantearnos
00:02:32
algo acerca de la ética
00:02:34
cuando hablamos de la inteligencia artificial?
00:02:36
Bueno, porque estamos construyendo
00:02:40
una herramienta
00:02:41
muy difícil
00:02:42
sobre todo
00:02:44
muy compleja
00:02:46
esto hace que necesite
00:02:47
unas directrices porque puede tomar
00:02:50
decisiones por sí sola
00:02:53
en un momento dado
00:02:54
y entonces lo que es necesario es que cumpla
00:02:55
una serie de garantías
00:02:58
como es, por ejemplo, la explicatividad
00:03:00
sabemos cómo
00:03:03
ha tomado la decisión la IA
00:03:04
no lo sabemos, tenemos que saberlo
00:03:06
para poder accionar
00:03:08
y luego hay otra cosa que tenemos que supervisar
00:03:10
como humanos, porque no podemos dejar
00:03:12
a la IA, que ya hemos visto
00:03:14
los últimos avances del CGPT y compañía
00:03:16
que es capaz
00:03:19
de razonar
00:03:20
en principio, aunque luego
00:03:21
todo esté basado en matemáticas y en algoritmos
00:03:24
pero sí que parece que
00:03:27
la zona, no podemos dejarla
00:03:28
que tome decisiones por nosotros
00:03:30
porque afecta mucho a nuestros derechos
00:03:32
como personas, nos puede por ejemplo
00:03:34
dejar de otorgar un préstamo
00:03:36
o nos puede
00:03:38
recomendar un medicamento
00:03:40
que no sea el correcto, etc
00:03:42
puede poner en peligro
00:03:44
nuestra vida
00:03:46
muy bien, comentábamos antes
00:03:48
que en la introducción
00:03:50
que más que quitar
00:03:52
nuestro trabajo, lo que va a hacer es transformarlo
00:03:54
Es muy probable que lo que nos haga es tener que evolucionar a aprender a utilizar herramientas. Igual que cuando tú estás con la azada y has pasado con el tractor, ese tractor hay que aprender a utilizarlo. Pues cogiendo ese símil y habiendo mucha distancia, la IA lo que te implica es que tienes que aprender a utilizar una herramienta nueva que nos hace hiper escalables y hiper productivos en un montón de herramientas.
00:03:56
Entonces, la ética es fundamental, el asegurar, lo que ha dicho Carmen, que es reproducible.
00:04:20
Tú sabes por qué tomar la decisión. Una idea que no sabemos por qué pasa, a mí personalmente sí me da miedo.
00:04:25
Respecto a lo que comentáis ambos, hay una cuestión que ha apuntado Carmen que me parece especialmente relevante.
00:04:32
La inteligencia artificial puede incluso evitar que nos den un préstamo.
00:04:39
Por supuesto, lógicamente, si se utiliza en contratación, supongamos que evita que me contraten ante un determinado proceso posible de envío de currículum. Ante esa situación, Carmen, tú como experta, ¿qué límites crees que se debería poner a la inteligencia artificial para evitar casuísticas como las que has planteado antes?
00:04:43
Una de las cosas que tenemos que hacer sí o sí es la supervisión humana.
00:05:04
El humano siempre tiene que estar en el loop, en el bucle de la inteligencia artificial para último decisor.
00:05:10
Tiene que tomar las decisiones siempre validando que lo que ha dicho la inteligencia artificial o lo que ha hecho es correcto.
00:05:16
En el caso, por ejemplo, de los currículum, claro, la información está muy sesgada
00:05:23
y la inteligencia artificial aprende de documentos, de currículum, de puestos, de conocimiento nuestro previo, de humanos.
00:05:28
En este caso, por ejemplo, observamos un sesgo claro, por ejemplo, en los currículum de las mujeres en tecnología.
00:05:38
Este hecho hace que haya menos currículum que pasen por la IA de mujeres que de hombres,
00:05:45
con lo cual el patrón que va a aprender es el de los hombres, no el de las mujeres.
00:05:51
Por tanto, si viene un currículum nuevo de una mujer, es más probable que lo descarte que no que lo acepte, porque tiene más datos, por ejemplo, de currículum de hombre en puestos de tecnología, me estoy refiriendo.
00:05:55
Pasa lo mismo, por ejemplo, en puestos de enfermería, que pasa lo contrario. Hay más currículum de mujeres que de hombres, también es otro sesgo.
00:06:08
y tenemos que asegurarnos que el reclutador vea la decisión que ha tomado la IA
00:06:15
y compruebe con sus valores, no solo valores sino con la necesidad de la compañía
00:06:24
y lo que tiene que hacer es supervisar con supervisión.
00:06:32
Interesante observación y hablando de currículum y por tanto de datos personales,
00:06:37
A mí me preocupa especialmente cómo trata esos datos la IA, en qué sentido yo como usuario de inteligencia artificial
00:06:41
puedo estar segura de que mis datos no son tratados de forma incorrecta o no puedo estar convencida de lo que acabo de indicar.
00:06:48
Pilar, María Pilar, perdón. No podemos estar seguros. De hecho, os voy a contar que recientemente se ha multado en Italia a una empresa,
00:06:57
Bueno, es LUIC, pero es un avatar que han construido que se llama REPICA, que lo que hace es dar consejos psicológicos a usuarios.
00:07:07
Entonces, ni contemplaban el registro de los usuarios, ni anonimizaban, daban decisiones sin validar, etcétera, etcétera.
00:07:21
Y esto puede poner en riesgo al cliente que utilice este sistema.
00:07:31
si ya tienen alguna perturbación
00:07:36
pues imagínatela a ella
00:07:39
que le mande
00:07:40
consejos en un tema tan sensible
00:07:41
como es la salud mental de los usuarios
00:07:45
y deciros que la multa es 5 millones
00:07:47
de euros
00:07:49
es una multa considerable a tener en cuenta
00:07:49
entonces la responsabilidad
00:07:53
de las decisiones
00:07:55
de los errores de la inteligencia artificial
00:07:56
¿dónde está? ¿dónde se queda?
00:07:59
¿con la empresa? ¿con las personas?
00:08:01
en la persona que lo usa yo creo
00:08:03
la persona que utiliza la inteligencia artificial
00:08:05
claro, porque tú tienes que tener garantías
00:08:07
de que tus datos, primero por la ley
00:08:08
europea, del EIAC
00:08:10
se queden en Europa, que no traspasen
00:08:12
fronteras hacia
00:08:15
Estados Unidos, China, etcétera
00:08:16
y luego tienes que
00:08:18
tomar la última decisión
00:08:20
de lo que te ha dicho la IA
00:08:22
tienes que tener la capacidad crítica
00:08:24
y el pensamiento lógico para saber
00:08:26
si eso es cierto o no
00:08:28
bien, que al final
00:08:30
se traduce en una cuestión económica, porque una empresa
00:08:33
tiene suficiente pulmón económico
00:08:35
para afrontar en su momento condenas
00:08:37
por malutilización
00:08:39
o mal uso de la inteligencia artificial
00:08:40
También, al hilo de todo esto
00:08:42
incluso para hacer nuevos
00:08:45
productos, la IAD
00:08:47
a veces te presenta problemas legales
00:08:48
muy relevantes, es decir
00:08:50
si un servicio, como
00:08:52
distinto al que comentaba Carmen, pero en el que tú
00:08:53
haces una propuesta, das una respuesta
00:08:56
y esa respuesta es incorrecta, pues
00:08:58
legalmente, tú contratas un servicio
00:09:00
y la IA te contesta mal, puedes demandarme.
00:09:02
Entonces, eso puede ser un problema a nivel económico,
00:09:05
también reputacional y a nivel de producto,
00:09:08
de que se te caiga abajo.
00:09:11
Y luego, además, el tema de, igualmente,
00:09:13
ahora mismo con todo el tema de cloud, de la nube y demás,
00:09:16
los requisitos y los criterios que se ponen
00:09:19
para asegurar la prioridad de los datos son enormes.
00:09:21
Por lo cual, eso lo que te implica son costes adicionales.
00:09:24
Entonces, ahí hay un punto de equilibrio
00:09:27
en el que a la hora de utilizar la IA,
00:09:29
pues tienes que tener en cuenta los riesgos que tienes a nivel legal
00:09:31
y luego los incrementos de coste que te puede suponer
00:09:34
el protegerte frente a ese tipo de errores.
00:09:36
Muy relevante.
00:09:40
Interesante ejemplo e información que habéis aportado
00:09:42
y a mí se me ocurre la pregunta contraria.
00:09:44
¿Conocéis alguna empresa donde realmente se utilice bien
00:09:46
desde el punto de vista ético la inteligencia artificial?
00:09:52
¿Vosotros como expertos?
00:09:55
Sí, hombre, hay muchas empresas.
00:09:57
Hay empresas de telecomunicación que sí que se aplica bien con un gobierno de la inteligencia artificial. El punto aquí es que las empresas que hacen casos de uso de IA deberían gobernar todas esas IAs.
00:09:59
Que eso significa que haya un equipo multidisciplinar que aborde ese proyecto desde un punto de vista, desde diferentes aspectos, por ejemplo, de ciberseguridad, de ética, de la IA, de legal, del técnico y que todo quede recogido y se sepa quién son los responsables de esos proyectos.
00:10:18
Por si acaso falla o lo que sea, que se sepa perfectamente. Y eso se está empezando a implementar y las empresas que están implementando ya esa gobernanza de la IA son las que están actuando bien.
00:10:44
En el caso de la Telco o también en el caso de otras empresas, por ejemplo en banca, sí que hay bancos que sí que están considerando todos estos aspectos y aplicando a todos esos modelos que generan un código para que haga la explicatividad,
00:10:58
que se sepa qué variables han definido el modelo, que se sepa que se haga la ética en el entuen del caso de uso,
00:11:20
que se gobierne, que se miren los aspectos de ciberseguridad donde hay vulnerabilidades,
00:11:30
porque claro, hemos introducido la inteligencia artificial.
00:11:35
Pero claro, esto provoca, por ejemplo, en el caso del chat GPT, que si lo tienes automatizado en una empresa,
00:11:39
que se cambien palabras de ese prompt y entonces da una respuesta totalmente contraria, puede ser.
00:11:45
Entonces eso hay que gobernarlo en las empresas, sí.
00:11:52
Dicho en el mundo empresarial, implica que la palabra caso de uso equivale a proyecto.
00:11:55
Es decir, dentro de lo que es el alcance del proyecto, que es la definición del caso de uso,
00:12:02
hay que poner que igual que está impactado el de infraestructura, el de la nube, el de base de datos,
00:12:08
está impactado el equipo de IA
00:12:13
y luego al igual que tú tienes
00:12:15
dentro del mundo del dato
00:12:17
tienes el de calidad, el de gobierno
00:12:19
pues es lo que está comentando
00:12:21
es decir, alguien tiene que validar que un PRON
00:12:22
es correcto, o el planteamiento
00:12:25
que también comentaba antes Carmen, el hecho de que
00:12:27
un mismo PRON, el mismo contexto
00:12:29
tiene que dar el mismo resultado, porque tienes que ser
00:12:31
capaz de ser trazable, entonces bueno
00:12:33
desde el punto de vista operativo tienes que introducirlo
00:12:34
en tu way of working, o sea tu forma de hacer proyectos
00:12:36
corporativos aparte de técnicos
00:12:39
y que luego pues hay nuevos roles que
00:12:41
Y eso da una oportunidad tremenda de nuevos perfiles y nuevas oportunidades de trabajo.
00:12:43
Y hay que decir que ya hay técnicas que te permiten, por ejemplo,
00:12:47
el que se hacen varios PROM y luego se hace un prorrateo de las soluciones.
00:12:51
O sea, utilizamos la IA para validar la IA.
00:12:58
Eso es muy interesante.
00:13:03
Es la recursividad del PROM.
00:13:05
A veces, para conseguir un PROM más detallado, te haces un reprom.
00:13:07
es hazme un PRON
00:13:12
actúa como un perfil
00:13:13
hazme un PRON
00:13:15
de tal
00:13:15
le vas diciendo
00:13:16
los distintos aspectos
00:13:17
y que te construya el PRON
00:13:18
la salida
00:13:19
es la que tú luego
00:13:20
vas probando
00:13:21
y a su vez
00:13:22
como comienza ella
00:13:22
puedes tener otros PRON
00:13:23
que te validan
00:13:24
si eso que estás haciendo
00:13:25
es correcto
00:13:26
un ejemplo muy tonto
00:13:26
quieres configurar
00:13:28
un DNS
00:13:29
por un tema de correo tal
00:13:30
coges
00:13:31
lo pegas
00:13:32
y la propia ella
00:13:33
te dice
00:13:34
mira esto está bien
00:13:34
cuidado con esto
00:13:34
no sé qué
00:13:35
te va validando
00:13:36
o sea
00:13:37
lo puedes enfocar
00:13:37
ya no como pregunto al chat
00:13:38
sino le doy instrucciones para que me dé soluciones
00:13:40
que es un poco también el cambio de mindset que hay que empezar a introducir
00:13:43
y comentamos en el anterior podcast
00:13:46
de empezar a hablar
00:13:47
de dar instrucciones
00:13:49
y a partir de ahí tienes instrucciones y roles
00:13:50
uno implementa, otro ejecuta y otro te valida
00:13:52
y a partir de ahí empezar a pensar
00:13:55
que esas acciones las hacen IA
00:13:57
y tienen que tener ética
00:13:59
gobernanza para que las cosas funcionen
00:14:01
con coordinación, si no esto puede ser
00:14:03
la selva
00:14:05
y ahora más que vamos al mundo de los agentes de IA
00:14:06
donde ya hay aplicaciones
00:14:09
que se hacen sus propias aplicaciones
00:14:11
o sea, un agente
00:14:14
empieza a codificar, empieza a hacer el código
00:14:15
y dice, no, que me he equivocado
00:14:18
lo voy a corregir
00:14:20
y va haciéndolo autónomamente
00:14:21
esos son los agentes
00:14:23
la IA que es autónoma
00:14:24
y que va aportando
00:14:27
una aplicación o una página web
00:14:29
o lo que sea
00:14:31
que a nosotros nos costaría
00:14:32
meses de trabajo
00:14:34
te lo hacen en una hora
00:14:36
ejecuta mucho más eficazmente
00:14:38
las tareas. Conforme a lo que estáis diciendo
00:14:41
es obvio que va a haber una transformación
00:14:43
brutal en el mercado laboral
00:14:45
y teniendo en cuenta que nuestros
00:14:47
alumnos, muchos de ellos ya están trabajando
00:14:49
en empresa o van a salir próximamente
00:14:51
al mundo empresarial, ¿qué consejos
00:14:53
les daríais
00:14:56
para poder abordar
00:14:57
con éxito esta transformación
00:14:59
digital, esta transformación
00:15:01
en el mundo de la IA que es necesaria
00:15:03
para poder tener
00:15:05
un futuro laboral bueno, un futuro laboral que no sea precisamente un cambio negativo,
00:15:07
sino una transformación del desempeño de las funciones.
00:15:13
El consejo más obvio es que aprendan a utilizar la IA,
00:15:17
pero no solo la IA en la parte técnica como usuario,
00:15:23
sino que también la ética de la IA tienen que aprender.
00:15:28
Es necesario ya en nuestros días, donde vamos a ver cada vez más IA a nuestro alrededor,
00:15:31
que sepamos que estamos seguros
00:15:36
y que esa IA contempla la regulación ética.
00:15:39
De hecho, una cosa que a veces hemos comentado Carmelo
00:15:43
es el empezar a pensar que debemos saber
00:15:46
si lo que estamos viendo tiene ética o no tiene ética.
00:15:50
Otro día me comentabas sobre VO3
00:15:53
y ves los ejemplos de VO3,
00:15:54
que es la nueva versión de vídeo de Google, de Gemini,
00:15:56
y dices, ahí va.
00:16:00
Entonces, incluso ves fotos que incluso te cuesta fijarte
00:16:02
donde está la separación
00:16:05
entonces el concepto de autenticidad
00:16:07
de ética, legal, de que lo que estás
00:16:10
viendo es de verdad humano
00:16:11
o es de verdad IA
00:16:13
es un concepto que yo creo que tiene que venir
00:16:15
y que hay que aplicar y empezar a introducir
00:16:17
de una forma, con un criterio propio
00:16:19
es decir, los alumnos aquí en este sentido, lo que estoy viendo
00:16:21
¿tiene IA o tiene IA?
00:16:23
si tiene IA, ¿con qué criterio?
00:16:25
¿con qué objetivo? y es empezar a tener
00:16:27
ese desarrollo de persona
00:16:29
que enjuicia la IA
00:16:31
es súper inteligente, fenomenal
00:16:33
pero lo que está haciendo es correcto, es ético
00:16:35
y aparte saber que está hecho por ella
00:16:38
China ya está diciendo que lo que esté hecho de ella
00:16:43
tiene que llevar una especie de sello para que el humano
00:16:45
sepamos si esto es cierto o lo ha generado la IA
00:16:48
y se está trabajando en este campo ahora mucho
00:16:52
muy importante, sí, sí, y todo esto me lleva a pensar
00:16:54
el papel, el rol que jugamos nosotros los formadores
00:16:57
los docentes, los educadores en relación con el uso ético de la IA
00:17:00
¿cómo nos veis?
00:17:03
¿qué sugerís?
00:17:06
Bueno, también formación en IA
00:17:08
en ética de la IA
00:17:10
también, imprescindible
00:17:11
aquí ponéis un curso básico
00:17:13
de ética de la IA
00:17:15
yo creo que el papel
00:17:16
del educador, yo también
00:17:19
soy educadora
00:17:21
tiene que ser
00:17:22
transmitir a los alumnos
00:17:25
que ojo con esto, que es una herramienta
00:17:27
súper potente, que nos está ayudando
00:17:30
un montón y nos va a ayudar mucho
00:17:32
pero que tengan la capacidad
00:17:33
crítica para saber si
00:17:36
está siendo aplicado
00:17:37
por la guía o no
00:17:40
y que tengan un soft skill
00:17:41
que es
00:17:44
el pensamiento crítico por supuesto
00:17:46
pero yo creo que hay que educar
00:17:47
en lógica porque realmente
00:17:49
quien maneje bien la lógica
00:17:52
va
00:17:56
a sacarle más partido
00:17:57
a la inteligencia artificial
00:18:00
Porque los PROM, hay gente que mete PROMs en un chatbot, por ejemplo, como el chat GPT,
00:18:02
y le da distintos resultados a otro que lo ha metido de otra manera, ¿no?
00:18:10
Porque nuestro pensamiento es diferente.
00:18:13
La persona que vaya con lógica, que es lo que sigue la inteligencia artificial,
00:18:15
va a obtener muchísimos mejores resultados que quien no utilice la lógica.
00:18:21
Con lo cual, como educadoras, yo comentaría la lógica entre los alumnos,
00:18:26
la ética de la inteligencia artificial también
00:18:30
y que sepan utilizar la inteligencia artificial.
00:18:33
Sí, por fin ha llegado el momento en el que los alumnos
00:18:36
tienen que pensar, que no se planten ante un examen
00:18:38
solo porque hayan memorizado contenido,
00:18:41
sino que, lo insisto mucho, ahora tenemos la semana que viene,
00:18:43
empezamos con todos los exámenes del alumnado de este centro
00:18:46
y que piensen ante un examen,
00:18:51
no solo intenten tirar de memoria de los estudios,
00:18:54
sino que efectivamente utilicen la lógica.
00:18:57
Por fin hay un momento en que se sentirán obligados a utilizarla.
00:18:59
Totalmente. Y no se puede copiar y pegar.
00:19:03
Ese es el principal problema que veo yo.
00:19:06
También pasaba con el uso de la información que los alumnos buscan en Google,
00:19:08
en cualquier búsqueda.
00:19:11
O la enciclopedia.
00:19:12
O la enciclopedia, que finalmente es un copia-pega.
00:19:13
Ese es un problema que tenemos desde hace tiempo en las aulas
00:19:16
respecto a la capacidad crítica del alumnado,
00:19:20
la capacidad también de análisis, de redacción, de comprensión verbal incluso.
00:19:22
algún compañero lo planteaba hace poco
00:19:27
en una reunión y a mí es un aspecto
00:19:29
que me preocupa especialmente
00:19:31
vosotros, es una pregunta para los tres
00:19:32
¿creéis que sería
00:19:35
imprescindible que en niveles
00:19:37
educativos como primaria
00:19:39
incluso o secundaria
00:19:41
se introdujera el uso de la inteligencia
00:19:42
artificial de manera ética
00:19:45
y responsable para que el alumnado
00:19:47
supiera cómo utilizarla?
00:19:49
por supuesto
00:19:52
en otros países se hace
00:19:52
Es educación en tecnología bien llevada.
00:19:55
Es aprender bien desde el principio, porque al final
00:19:59
gran parte de los niños han aprendido solos.
00:20:01
Entonces, no digo de los vicios, pero no tienes un criterio
00:20:03
de por qué haces lo que haces.
00:20:07
Entonces, el ser consciente de cómo lo haces sería maravilloso.
00:20:08
Totalmente. Y yo añadiría filosofía.
00:20:12
Eso es lo importante, Carmen.
00:20:17
Porque tendemos a pensar solo en tecnología.
00:20:18
Y hay otros perfiles.
00:20:20
Es que le estamos dando vuelta a toda la educación ahora
00:20:22
cuando volvemos al humanismo
00:20:24
yo lo que digo es un humanismo digital
00:20:26
donde
00:20:29
la herramienta ya la tienes
00:20:29
lo que va a primar aquí es tu cerebro
00:20:32
cómo lo utilizas y cómo le sacas ese partido
00:20:34
entonces es un
00:20:37
renacimiento nuevo
00:20:38
un renacimiento digital
00:20:40
donde vamos a poder
00:20:42
hacer todo lo que queremos hacer
00:20:45
solo con visualizarlo
00:20:46
pensarlo
00:20:48
todo lo que queremos hacer con ética
00:20:50
Con ética, eso sí, ese aspecto es muy importante.
00:20:53
Pero sí que vamos a evitar esas barreras de entrada, sobre todo en las mujeres,
00:20:55
por ejemplo, que tienen programaciones muy pocas o en temas de inteligencia artificial.
00:21:01
Pero ya no hay que programar, o sea, la programación sí que va a estar para unos cuantos
00:21:08
que tengan que definir cosas muy expertas, pero para el resto vamos a programar con nuestra voz.
00:21:14
O sea, el lenguaje va a ser nuestra herramienta de programación.
00:21:22
Entonces, lo que hay que hacer es que ese lenguaje, ese pensamiento, sea correcto.
00:21:28
Y, por tanto, tenemos que volver a las humanidades.
00:21:32
Y sea enriquecedor.
00:21:36
Sin embargo, yo creo que en la actualidad mucha gente, y sobre todo los estudiantes jóvenes,
00:21:37
opinan que el uso de la inteligencia artificial lo que les va a evitar es tener que estudiar,
00:21:43
tener que comprender, tener que leer.
00:21:47
y esos tres aspectos a mí me preocupan
00:21:49
especialmente como educadora
00:21:53
creo que obviamente hay que
00:21:54
volver a los orígenes como tú bien indicas
00:21:56
y trabajar destrezas básicas
00:21:58
de comunicación oral y escrita para poder
00:22:00
trabajar bien y de forma
00:22:02
fiquente con la inteligencia artificial
00:22:04
Yo respondiendo a tu pregunta
00:22:06
te diría que tengo un bebé de dos años
00:22:08
y que ya no hay que irse hasta primaria
00:22:10
y esconder y yo creo que ya en preescolar
00:22:12
lo que se conocía antes como preescolar
00:22:14
en la anterior primaria ya deberíamos
00:22:15
formar a las personas
00:22:18
aunque sean unos seres diminutos
00:22:20
cuyo lenguaje aún no entendemos
00:22:21
porque tienen todavía su propio lenguaje
00:22:24
yo creo que ya deberíamos
00:22:26
sin embargo parece que estamos dando marcha atrás
00:22:27
se está prohibiendo la pantalla en el entorno educativo
00:22:29
se está prohibiendo el uso de los dispositivos
00:22:32
en España
00:22:34
te refieres?
00:22:35
en España, claro
00:22:36
porque en otros países desde preescolar ya dan inteligencia artificial
00:22:37
muy bien apuntado
00:22:40
en Estados Unidos sí
00:22:42
que salió en la noticia
00:22:43
en Finlandia también
00:22:45
¿dónde era? en Tailandia
00:22:47
en Tailandia, en China
00:22:49
también, tienen ya un conjunto
00:22:52
de horas y si no recuerdo mal
00:22:54
en Corea, no recuerdo en cuál de las dos
00:22:56
que son muy competitivos
00:22:57
también que salió un artículo del presidente
00:22:59
que estaba diciendo la inversión en inteligencia artificial
00:23:01
también, también
00:23:04
es un tema estratégico a nivel de país
00:23:05
de que tus ciudadanos y de tus niños
00:23:07
empiezan a vivir con eso
00:23:10
y no quedarse atrás en esta carrera
00:23:12
es un tema nativo, no sé si es nativo digital
00:23:13
es nativo guía o nativo...
00:23:15
Es nuestra nueva herramienta, igual que antes
00:23:17
teníamos un lápiz
00:23:19
no lo va a sustituir
00:23:21
pero sí que es verdad que es
00:23:24
otra herramienta que tienen que aprender desde pequeños
00:23:25
Sí, sí, mi bebé maneja
00:23:28
la tablet y el móvil mejor que yo, tiene dos años
00:23:29
yo al principio estaba un poco en contra
00:23:32
pero la Yaya dijo, Úrsula va a tener que utilizarlo
00:23:33
efectivamente
00:23:36
con dos años
00:23:37
y eso no le resta interés de los
00:23:38
juguetes tradicionales, es decir
00:23:41
perfectamente compatible
00:23:43
Muy bien, pues yo creo que hemos hecho un buen uso del tiempo.
00:23:46
Si queréis comentar algo más o alguna otra duda tenemos o queréis...
00:23:48
Bueno, yo querría animar, como sois docentes, a las niñas que se metan también en este campo
00:23:53
porque parece que les da como un poco de miedo, ¿no?
00:24:00
Y tenemos que estar allí primero para no sesgar lo que es el conocimiento que va cogiendo la IA,
00:24:03
sino aportar nuestro pensamiento también, que también es importante que tenga diversidad de la IA para aprender más y para darnos mejores recomendaciones.
00:24:10
Eso es muy interesante. Yo como mujer, como docente y además como ingeniera, ambas poco representadas en nuestro sector,
00:24:25
Te invito desde aquí, Carmen, a que hagamos un podcast el curso que viene para intentar animar a esas vocaciones tan necesarias dentro del mundo de la tecnología, que necesitamos nuevas programadoras, nuevas administradoras de red, mujeres que se incorporen al campo de la inteligencia artificial y que tengan al menos la mitad de entusiasmo que tú. Muchísimas gracias.
00:24:32
Muchas gracias a que estaré. Muchas gracias por la invitación y por este momento.
00:24:53
Muchas gracias.
00:24:57
Bueno, hemos hablado de riesgos, de oportunidades
00:24:58
de decisiones de lógica, de filosofía
00:25:01
del nuevo renacimiento, el renacimiento digital
00:25:03
la inteligencia artificial ya forma
00:25:05
parte de nuestras vidas, las ha cambiado
00:25:07
rotundamente y más por venir
00:25:09
apostar por una inteligencia artificial ética
00:25:11
es necesario
00:25:13
gracias a Carmen Reina y a Ángel Casado
00:25:14
por estar de nuevo con nosotros
00:25:17
y por supuesto a María Pilar
00:25:19
por vuestras aportaciones
00:25:21
si os ha gustado el podcast, sin dudarlo
00:25:23
podéis compartirlo con vuestros compañeros
00:25:25
incluso en vuestras empresas
00:25:27
y nos vemos en el próximo
00:25:29
episodio, recordad
00:25:32
la ética no es un extra
00:25:33
la ética es parte del profesional
00:25:35
que queremos ser, la inteligencia artificial
00:25:37
con ética no solo es posible
00:25:39
es necesaria, muchas gracias
00:25:41
- Materias:
- Artes gráficas, Alimentación
- Etiquetas:
- Agua
- Niveles educativos:
- ▼ Mostrar / ocultar niveles
- Formación Profesional
- Ciclo formativo de grado básico
- Primer Curso
- Segundo Curso
- Ciclo formativo de grado medio
- Primer Curso
- Segundo Curso
- Ciclo formativo de grado superior
- Primer Curso
- Segundo Curso
- Ciclo formativo de grado básico
- Subido por:
- Radio ies ignacioellacuria alcorcon
- Licencia:
- Dominio público
- Visualizaciones:
- 45
- Fecha:
- 31 de mayo de 2025 - 16:29
- Visibilidad:
- Público
- Centro:
- IES CIFP a Distancia Ignacio Ellacuría
- Duración:
- 25′ 52″
- Relación de aspecto:
- 1.78:1
- Resolución:
- 1920x1080 píxeles
- Tamaño:
- 2.56