Estructura prompt_3 - Contenido educativo
Ajuste de pantallaEl ajuste de pantalla se aprecia al ver el vídeo en pantalla completa. Elige la presentación que más te guste:
Sé imparcial. Añade a tu prompt la instrucción asegúrate de que tu respuesta es imparcial y no
00:00:03
se basa en estereotipos. Esto te puede servir para que la IA no se vaya a los primeros datos
00:00:12
de su conocimiento, que en muchas ocasiones pueden estar basados en informaciones sesgadas. La IA va
00:00:16
a analizar las fuentes y va a revisar si contienen determinados estereotipos antes de darte una
00:00:22
respuesta. Lo cierto es que Copilot, por ejemplo, ya añade una capa para evitar sesgos, pero dando
00:00:26
la instrucción nosotros mismos vamos a conseguir una respuesta más neutra porque se pueden replicar
00:00:32
sesgos presentes en los datos de entrenamiento. Cuando le pides a un modelo de IA que sea
00:00:37
imparcial lo que haces es activar ciertos mecanismos internos que están diseñados para
00:00:42
evitar respuestas sesgadas. Esto funciona porque los LLMs utilizan un proceso de ponderación de
00:00:46
contexto y un análisis de probabilidad. Básicamente el modelo revisa todas las posibles respuestas que
00:00:52
podría darte y en lugar de recurrir a los primeros datos que tiene que podrían estar influenciados
00:00:58
por estereotipos o sesgos prioriza aquellas opciones que son más neutrales y balanceadas
00:01:03
aunque los modelos ya cuentan con algunas capas para mitigar estos sesgos al recordarle que sea
00:01:08
imparcial se le fuerza a revisar más a fondo el contenido de sus datos de entrenamiento y
00:01:13
ajustar su respuesta para que sea más justa y menos influenciada por generalizaciones o por
00:01:18
miedos infundados. Pregúntame lo que necesites. Esta técnica consiste en dejar que la IA te haga
00:01:24
preguntas para completar los detalles que necesita en lugar de esperar que acierte la primera. Al
00:01:30
permitir que la IA te guíe con preguntas se reduce la posibilidad de que se invente cosas o asoma
00:01:35
información que no le has proporcionado. Esto va a hacer que las respuestas sean más ajustadas a la
00:01:40
realidad de lo que necesitas. Yo esta técnica la uso mucho y enriquece la interacción y lleva
00:01:45
respuestas más enfocadas. ¿Por qué? Cuando Copilot o ChatGPT te hacen preguntas para recabar
00:01:49
información entran en un proceso iterativo que va a mejorar el contexto que tienes sobre lo que
00:01:55
le pides. Y aunque la IA no aprende como un humano durante la conversación, sí que va a ajustar sus
00:02:00
respuestas basándose en la nueva información que le das. Cada ciclo de preguntas y respuestas
00:02:05
refina el contexto porque va a identificar lagunas de información y va a cubrirlas de forma progresiva.
00:02:11
Lo que queremos es disminuir el riesgo de que se invente o de que asuma detalles incorrectos.
00:02:17
Cuando te va preguntando cosas vamos a hacer que cada respuesta esté más enfocada, más personalizada
00:02:22
y que se ajuste mejor a los datos que le proporcionas y el resultado que tú tienes en mente.
00:02:28
Asigna un rol al modelo. Pídele al modelo que se ponga en un rol específico y verás cómo sus respuestas se adaptan a ese papel.
00:02:33
Esto es muy útil si quieres obtener respuestas desde una perspectiva concreta o especializada.
00:02:39
asignarle un rol va a hacer que las respuestas sean más enfocadas
00:02:45
y más relevantes para lo que necesitas.
00:02:48
¿Por qué?
00:02:50
Esta técnica aprovecha al máximo la flexibilidad contextual de los modelos,
00:02:51
gracias a la cual van a poder ajustar tanto el estilo como el contenido
00:02:55
de sus respuestas en función del rol que les asignes.
00:02:59
Esto es posible gracias a su capacidad para interpretar el contexto
00:03:02
que le proporcionas y seleccionar las estructuras de lenguaje
00:03:05
que mejor encajen.
00:03:08
Porque a lo largo de su entrenamiento, los modelos han sido expuestos
00:03:10
a una gran variedad de estilos de lenguaje y de situaciones por eso cuando les pides que actúen
00:03:12
como un coach de liderazgo o como un payaso de circo van a adaptar tanto el tono como el
00:03:17
contenido para reflejar ese papel específico si le pides que respondan de forma formal seria de
00:03:23
forma profesional van a adoptar ese enfoque más directo y más útil porque han aprendido de
00:03:29
ejemplos similares en los datos que han sido entrenados en cambio si le pides algo más
00:03:33
lúdico o más humorístico van a ajustar su lenguaje para reflejar ese tono porque también han sido
00:03:36
expuestos a esos contextos más desenfadados. Repite palabras clave. La repetición de palabras
00:03:41
clave es muy útil porque refuerza la importancia de ciertos conceptos o de temas dentro de un
00:03:47
prompt. Básicamente le dices a la IA lo que es importante para que se concentre más en esos
00:03:52
elementos de la pregunta. ¿Por qué? Los modelos de lenguaje utilizan mecanismos de atención para
00:03:57
calcular la relevancia de las palabras basándose en su frecuencia y el peso que tienen. Cuando
00:04:02
repetimos palabras clave le indicamos al modelo que esos elementos deben tener un mayor protagonismo
00:04:08
en su análisis y en la respuesta. Por ejemplo, en el caso de la sostenibilidad, cuando repetimos
00:04:13
varias veces la palabra sostenibilidad le ayudamos a que el modelo se enfoque más en ese tema y
00:04:18
proporcione una respuesta más detallada y relevante sobre prácticas sostenibles. Empieza tú la
00:04:24
respuesta. Especificar cómo debe comenzar la respuesta del modelo puede guiar efectivamente
00:04:29
la estructura y el contenido del texto que genera, porque cuando le proporcionamos un inicio estamos
00:04:34
dirigiendo al modelo a que responda en un tono, que adopte un estilo y que se enfoque en la manera
00:04:39
que tú quieres para que se mantenga alineado con tus expectativas desde el principio. ¿Por qué?
00:04:45
Esta técnica es muy efectiva porque por el propio sistema de predicción que usan los modelos de
00:04:50
lenguaje del que hablábamos al inicio, se llama modelado autoregresivo, básicamente este modelo
00:04:55
predice cada palabra basándose en las anteriores. Al dar un comienzo concreto se influye en las
00:05:00
primeras predicciones del modelo. Esto es importante porque cada predicción afecta a
00:05:06
las siguientes y crea un efecto dominó. El inicio va a actuar como una guía y va a marcar la pauta
00:05:10
para que todo el texto mantenga una coherencia con el estilo y contenido que tú le propones al
00:05:16
principio. Añade toda la información necesaria. Esta técnica parece muy sencilla pero resulta
00:05:21
muy efectiva. Se trata de pedirle en tu solicitud, en tu prompt, que incluya toda la información
00:05:27
necesaria. Con esta coletilla forzamos a que la IA nos devuelva una respuesta lo más completa
00:05:32
posible. Cuando le pides que se agregue toda la información necesaria, estás indicándole al modelo
00:05:37
que amplíe su respuesta y cubra temas de la manera más exhaustiva posible. Los LLMs ajustan la longitud
00:05:43
y el nivel de detalle de las respuestas en función de las instrucciones que reciben. Con esta instrucción
00:05:49
específica, activamos un proceso en el que el modelo busca incluir más detalles y más puntos
00:05:54
clave relacionados y evita respuestas más superficiales o más incompletas. Es como si le
00:05:59
dijeras a Copilot o a ChatGPT, no te limites a lo básico, dame todo lo que sepas que es importante
00:06:04
sobre esto. Y la IA, que está diseñada para balancear entre concisión y detalles según lo
00:06:10
que le pidas, responde al pie de la letra y va a ampliar lo que necesite para no dejar puntos
00:06:16
es importante sin tocar. Corregir sin cambiar el estilo. Pedirle a la IA que ajuste la gramática
00:06:21
o el vocabulario, pero manteniendo el estilo, te va a ayudar a que las correcciones que haga no
00:06:26
alteren la voz original, porque a veces puede ser que la IA cambie más de lo que esperabas,
00:06:31
ya que al mejorar una frase puede modificar un poco el estilo general. Pedirle que lo corrija
00:06:36
sin cambiar su estilo es la manera de mejorar el contenido sin perder la esencia del autor y del
00:06:41
texto original. Como hemos visto, los modelos ajustan las respuestas según los patrones que
00:06:46
han aprendido y hacen predicciones de palabras en función de esos datos. Cuando le pedimos que
00:06:50
corrijan la gramática o mejoren el vocabulario, se puede cambiar el tono. Por eso, si te importa
00:06:55
que la corrección sea más técnica pero sin perder la esencia de cómo hablas o cómo escribes, lo
00:07:00
mejor es ser específico y decirle que mantenga el estilo. Así la IA va a saber que no tiene que
00:07:06
tocar ese aspecto. Define sus fuentes de información. Pídele en el prompt que utilice
00:07:11
sólo ciertos datos y contenidos. La IA tiene una cantidad de fuentes enorme, pero también podemos
00:07:17
obtener respuestas distintas si le obligamos a basarse sólo en una parte de ellas. Así que si
00:07:22
especificas qué fuentes o qué tipos de información debe emplear, puedes enfocar sus respuestas de
00:07:28
manera más precisa. Esto es muy útil cuando quieres que se base, por ejemplo, sólo en información
00:07:33
reciente o cuando prefieres que ignore ciertos enfoques o teorías. ¿Por qué? Cuando le indicas
00:07:38
a Copilot que use solo ciertas fuentes de información, lo que hace es limitar el rango
00:07:43
de datos que puede utilizar. Y aunque el modelo tiene acceso a una gran cantidad de conocimiento,
00:07:49
al darle instrucciones específicas va a ajustar su proceso de generación filtrando lo que no se
00:07:54
ajusta a tus indicaciones. Por ejemplo, si le pides que no utilice información anterior a 2020,
00:07:59
la IA solo tendrá en cuenta los datos más recientes y te va a dar una respuesta más actual
00:08:04
y más relevante para tus necesidades. Pide que imite un estilo. Pedirle al modelo que imite un
00:08:09
estilo específico basado en un ejemplo puede ayudarte a generar contenido coherente con textos
00:08:15
previos. Puedes hacer dos cosas o le pasas un ejemplo con un texto para que siga el estilo o
00:08:21
bien le pides que se inspire en el estilo de un autor conocido. Esto es muy útil cuando quieres
00:08:26
mantener un tono, el ritmo, un enfoque específico y aseguras que el nuevo texto respeta las
00:08:30
características del original. Especifica el idioma y el dialecto. Para asegurarte de que el texto que
00:08:36
te devuelve la IA encaja con la gente a la que va dirigida, es importante decirle el idioma o el
00:08:41
dialecto que necesitas. Si pides español de España en lugar de español no americano, la IA va a ajustar
00:08:47
las expresiones y palabras para que suenen más naturales para ese público. ¿Por qué? Los modelos
00:08:53
que hay detrás de Copilot, ChatGPT, Cloud, están entrenados en muchos idiomas y dialectos
00:08:59
y esto les permite ajustar el contenido según la variante que pidas. Usan técnicas de procesamiento
00:09:05
del lenguaje natural para entender las diferencias entre los dialectos y adaptan el vocabulario
00:09:10
y las expresiones. Gracias a la representación contextual de las palabras, el modelo puede
00:09:15
identificar las sutilezas entre distintas variedades del español, como el uso de vosotros
00:09:21
en España o de ustedes en América Latina y las puede aplicar de manera coherente en las respuestas.
00:09:26
Esto va a garantizar que el contenido no solo esté en el idioma correcto, sino que también sea
00:09:32
adecuado para la región, para el grupo demográfico específico que se menciona en el prompt. Dos
00:09:36
reflexiones finales. Bien, después de explorar todas estas técnicas para sacar el máximo provecho
00:09:45
de la inteligencia artificial, hay un par de puntos importantes que debemos tener en cuenta. Primero,
00:09:50
Y esto es crucial. Siempre tienes que verificar la información que te proporciona Copilot o cualquier otra IA.
00:09:56
Estos sistemas son increíblemente potentes procesando información, pero a veces pueden alucinar.
00:10:03
Sí, alucinar. Pueden generar información que suena muy convincente, pero que en realidad es incorrecta o incluso inventada.
00:10:09
¿Por qué ocurre esto? Pues porque estos modelos han sido entrenados para cumplir su acometido, que es darte una respuesta.
00:10:17
incluso si para ello en ocasiones mezclan conceptos o crean datos falsos
00:10:23
por eso es fundamental que siempre compruebes lo que te dice la IA con otras fuentes fiables
00:10:28
y otro detalle interesante, puede que al hacer la misma pregunta a Copilot varias veces seguidas
00:10:33
obtengas respuestas diferentes, esto no es un error, es una característica
00:10:39
estos modelos son algo variables en su procesamiento
00:10:43
así que cada vez que analizan tu pregunta pueden tomar un camino ligeramente distinto
00:10:46
y por tanto darte una respuesta diferente.
00:10:51
Esto último no es necesariamente malo, de hecho puede ser muy útil para obtener ideas variadas.
00:10:54
Así que no dudes en reformular tus preguntas de diferentes maneras para ver qué resultados interesantes obtienes.
00:10:59
En resumen, la clave está en la práctica.
00:11:06
Experimenta con Copilot, encuentra tu estilo para comunicarte con él
00:11:09
y sobre todo no olvides usar el sentido común.
00:11:12
Con un poco de práctica pronto le cogerás el truco y empezarás a aprovechar todo su potencial.
00:11:15
Como hemos visto a lo largo de esta lección, la forma en que le hablamos a la inteligencia artificial marca una gran diferencia en los resultados que obtenemos
00:11:20
No se trata solo de soltar una pregunta y esperar que la guía acierte de pleno, sino que la tenemos que guiar con claridad, con contexto, con expectativas
00:11:34
Ya sea dividiendo las tareas complejas en pasos sencillos, dándole ejemplos, especificando para quién es la respuesta
00:11:43
Cada pequeño ajuste va a ayudar a que la respuesta sea mucho más precisa y sobre todo mucho más útil
00:11:50
Además, estas habilidades no solo mejoran nuestros resultados con la inteligencia artificial,
00:11:56
sino que también nos ayudan a pensar de una manera más estructurada y esto es un beneficio adicional.
00:12:00
Al final, el arte del prompting es como tener una conversación inteligente.
00:12:05
Cuanto más claro seas, más fácil va a ser que la IA te entienda y te dé justo lo que necesitas.
00:12:10
Y no te preocupes si no aciertas a la primera, porque la clave está en ir ajustando sobre la marcha.
00:12:15
Y como en toda buena conversación, cuanto mejor nos comuniquemos, mejores resultados vamos a obtener.
00:12:20
Así que a practicar y verás cómo mejora todo.
00:12:25
- Idioma/s:
- Materias:
- Tecnología, Tecnología Industrial, Tecnologías de la Información
- Niveles educativos:
- ▼ Mostrar / ocultar niveles
- Educación Secundaria Obligatoria
- Ordinaria
- Primer Ciclo
- Primer Curso
- Segundo Curso
- Segundo Ciclo
- Tercer Curso
- Cuarto Curso
- Diversificacion Curricular 1
- Diversificacion Curricular 2
- Primer Ciclo
- Compensatoria
- Ordinaria
- Bachillerato
- Primer Curso
- Segundo Curso
- Autor/es:
- Founderz
- Subido por:
- M. Pilar P.
- Licencia:
- Reconocimiento - No comercial
- Visualizaciones:
- 1
- Fecha:
- 9 de febrero de 2025 - 20:51
- Visibilidad:
- Clave
- Centro:
- IES VILLA DE VALLECAS
- Duración:
- 12′ 32″
- Relación de aspecto:
- 16:9 Es el estándar usado por la televisión de alta definición y en varias pantallas, es ancho y normalmente se le suele llamar panorámico o widescreen, aunque todas las relaciones (a excepción de la 1:1) son widescreen. El ángulo de la diagonal es de 29,36°.
- Resolución:
- 1376x776 píxeles
- Tamaño:
- 491.64 MBytes