Estructura Prompt_2 - Contenido educativo
Ajuste de pantallaEl ajuste de pantalla se aprecia al ver el vídeo en pantalla completa. Elige la presentación que más te guste:
Bien, vamos a entrar en materia sobre cómo aprovechar al máximo Copilot y otras herramientas
00:00:07
de inteligencia artificial. No es complicado, pero hay algunas estrategias que realmente van
00:00:12
a marcar la diferencia. El reto que tenemos aquí es aprender a comunicarnos de la manera más eficaz
00:00:16
con estas herramientas. Se trata de hacer peticiones, preguntas bien formadas y proporcionar
00:00:22
el contexto necesario para que las respuestas sean lo más útiles posibles. Cuando introduzcas estas
00:00:28
técnicas vas a ver un cambio significativo en tus resultados. Vas a ahorrar tiempo, vas a obtener
00:00:33
respuestas mucho más relevantes y aplicables y no te preocupes si al principio no sale perfecto,
00:00:38
como con cualquier habilidad se mejora con la práctica. Vamos a ello. Ve al grano sin protocolos.
00:00:42
Con la inteligencia artificial no hace falta ser especialmente educado ni refinado, así que no hace
00:00:49
falta que incluyas palabras como por favor, ni me gustaría. Las órdenes directas y sencillas te van
00:00:54
a dar muchos mejores resultados. A diferencia de las interacciones con las personas donde ser
00:01:00
educado y usar frases largas puede mejorar la comunicación, en la inteligencia artificial esto
00:01:04
no es necesario y puede incluso perjudicar el resultado. En lugar de ¿podrías explicarme por
00:01:09
favor la estructura de una célula humana? pídele explica la estructura de una célula humana. O bien
00:01:14
en lugar de ¿me preguntaba si podrías por favor darme algunas sugerencias sobre cómo mejorar mi
00:01:21
productividad en el trabajo. Di, dame sugerencias para mejorar mi productividad en el trabajo. ¿Por
00:01:26
qué? Cuando escribes un prompt que incluye frases como por favor, me gustaría, podrías, estás
00:01:32
añadiendo información que es completamente irrelevante para el modelo. Las frases educadas
00:01:38
o innecesariamente formales pueden añadir ruido al prompt y va a diluir el foco de la pregunta
00:01:43
principal e incluso puede hacer que la IA gaste recursos procesando partes del mensaje que en
00:01:49
realidad no son importantes. Por ejemplo, en lugar de enfocarse en la instrucción principal,
00:01:54
el modelo debe analizar palabras adicionales y puede hacer que la respuesta no sea tan precisa.
00:01:58
Los modelos de IA están entrenados para seguir instrucciones directas, por lo tanto, frases
00:02:03
simples y claras como explica la estructura de una célula humana o dame sugerencias para mejorar mi
00:02:07
productividad son interpretadas de manera más eficiente. Esto no significa que la IA no pueda
00:02:12
procesar instrucciones más educadas o formales, pero puede resultar en una respuesta menos enfocada
00:02:17
o más general. Usa delimitadores en tus prompts. Igual que las personas entendemos mejor los textos
00:02:23
con saltos de línea, separadores, comillas, la IA también se beneficia de tener una estructura
00:02:28
clara. Así que puedes usar símbolos o caracteres especiales para separar claramente la instrucción
00:02:33
principal, el contenido a preciosar y las instrucciones adicionales en tu prompt. Esto va
00:02:39
a ayudar a la IA a identificar y manejar correctamente cada parte de tu petición. En
00:02:44
realidad puedes escoger el símbolo que prefieras. Yo suelo usar dos barras, como en este ejemplo.
00:02:49
Traduce esto al inglés. Hola, ¿cómo estás? Me gusta jugar en el parque, mi color favorito es el azul.
00:02:55
Esta traducción es para una clase de inglés para niños de primaria. Usa vocabulario sencillo o
00:03:01
frases cortas. O en este otro ejemplo, analiza las siguientes estadísticas y proporciona insights.
00:03:06
Tasa de desempleo 2020, tasa de desempleo 2021-2022, incluye posibles causas de la tendencia
00:03:12
observada. ¿Por qué pasa esto? Los delimitadores organizan el prompt en partes claras, la instrucción
00:03:18
principal, el contenido a procesar, cualquier contexto adicional. Cuando estructuramos el
00:03:24
mensaje de esta forma, la IA puede identificar de manera más eficiente cada segmento. Por ejemplo,
00:03:29
puede separar la parte que debe traducir, la instrucción sobre cómo hacerlo y cualquier otro
00:03:35
dato de relevante. Esto va a hacer que la IA aplique el procesamiento correcto en cada parte
00:03:40
y te va a dar mejores resultados, tanto en precisión como en relevancia de la respuesta.
00:03:44
Si le pides a la IA traduce esto al inglés y luego incluyes varias frases seguidas sin ninguna separación,
00:03:49
la IA podría confundirse sobre dónde termina una instrucción y dónde empieza la otra.
00:03:55
Cuando agregamos los delimitadores, ayudamos a que la IA entienda mejor la tarea
00:04:00
y va a dar mejores resultados porque puede enfocarse en cada sección por separado
00:04:03
y aplicar el procesamiento adecuado a cada una.
00:04:08
Además, facilita la lectura y la comprensión del PROM
00:04:10
tanto para la IA como para el usuario humano.
00:04:13
Usa ejemplos para guiar la respuesta.
00:04:16
Un método muy bueno para que la IA responda en el estilo que tú quieras
00:04:17
es pasarle en el PROM ejemplos similares a los que buscas.
00:04:20
Puedes darle dos o tres respuestas parecidas
00:04:25
y pedirle que genere otras nuevas de ese mismo tipo.
00:04:27
Estos ejemplos ayudarán a la IA a enfocar mejor la generación
00:04:30
y la búsqueda de información.
00:04:34
Por ejemplo, genera tres eslóganes publicitarios
00:04:35
para una nueva marca de zapatillas deportivas. Los eslóganes deben ser cortos, memorables y
00:04:38
enfatizar la comodidad y el rendimiento. Aquí tienes algunos ejemplos del estilo que busco,
00:04:44
el ejemplo de Nike, Just Do It, el ejemplo de Adidas, Impossible is Nothing, el ejemplo de Puma,
00:04:49
Forever Faster. Ahora crea tres eslóganes originales para nuestra nueva marca de zapatillas
00:04:54
siguiendo un estilo similar. ¿Por qué? Los modelos de ellas son muy buenos para captar y replicar
00:04:59
patrones a partir de lo que le das como entrada. Cuando le proporcionas ejemplos claros, la
00:05:06
inteligencia artificial va a usar esas referencias para estructurar mejor su respuesta. Esto es por
00:05:10
su entronamiento con grandes cantidades de datos donde aprenden a reconocer secuencias y formatos
00:05:16
que se repiten mediante modelado secuencial. Esto le permite procesar la información de forma
00:05:21
ordenada y predecir qué es lo que debe generar a continuación. La IA no entiende el contexto de
00:05:26
la misma forma que lo haría un humano, pero sí sabe seguir patrones que se le dan. Al incluir
00:05:32
ejemplos en el PROM le estás dando una especie de guía a la IA sobre cómo quieres que sea la
00:05:37
respuesta. Básicamente le estás diciendo, mira, quiero algo parecido a esto. Y la IA puede generar
00:05:41
una respuesta que siga el mismo estilo, el tono, el formato que tú le has pasado. Esto va a reducir
00:05:46
el riesgo de obtener algo fuera de contexto o que no encaje realmente con lo que estás buscando.
00:05:52
Especifica el público al que va dirigido. ¿Para quién estás creando ese contenido? ¿Para qué
00:05:57
estás buscando esa respuesta. Define la audiencia en el PROM y el resultado va a ser totalmente
00:06:02
diferente si va dirigida a personas mayores, a expertos, a principiantes, porque va a estar más
00:06:06
enfocada al perfil que le pidas. ¿Por qué? Los modelos de lenguaje sabemos que son capaces de
00:06:12
ajustar su estilo, el tono, el nivel de detalle según la información que les proporcionas en el
00:06:18
PROM y cuando especificas para quién está dirigido el contenido, estás ayudando a la IA a adaptar su
00:06:23
respuesta a las características y necesidades de ese público en particular. La magia técnica aquí
00:06:29
está en cómo la IA modela el contexto a través de lo que tú le estás pidiendo. Cuando indicas que el
00:06:35
contenido es para doctorados en ingeniería ambiental o para artistas visuales, el modelo va a ajustar
00:06:40
su salida tomando en cuenta el vocabulario, el nivel de detalle, la profundidad de la explicación
00:06:46
que corresponde a cada grupo. Por ejemplo, para un público más técnico la IA puede utilizar términos
00:06:51
más complejos, puede profundizar en aspectos específicos que interesan a ese tipo de audiencia.
00:06:56
En cambio, para principiantes o audiencias más generales, va a simplificar el lenguaje y va a
00:07:01
evitar entrar en detalles demasiado complicados. Así que especificar el público no sólo cambia
00:07:07
el estilo de la respuesta, sino que permite a la IA ofrecer una salida más precisa, más relevante
00:07:11
y lo más importante, más efectiva para ese público en particular. Divide las tareas complejas en pasos
00:07:17
más sencillos. Si estás haciendo una petición compleja donde quieres hacer varias peticiones
00:07:22
o encadenar transformaciones, en vez de pedir todo en un único prompt, puedes convertir la solicitud
00:07:27
en una conversación con más instrucciones, más simples, más atómicas. Por ejemplo, funciona muy
00:07:33
bien primero pedirle una lista, luego extraer elementos y finalmente buscar relaciones. Esto
00:07:39
tiene que ver con cómo funcionan los modelos que procesan la información de manera secuencial,
00:07:45
es decir, paso a paso, construyendo una respuesta basándose en la información que reciben en cada momento.
00:07:49
Aquí es donde entra el concepto de composicionalidad.
00:07:55
Este concepto se refiere a la capacidad del modelo para entender instrucciones complejas
00:07:58
dividiéndolas en partes más pequeñas y más manejables.
00:08:02
Al pedirle, por ejemplo, primero una explicación general, luego una explicación detallada y finalmente un ejemplo,
00:08:05
estás alineando la petición con la forma en que la IA procesa y genera las respuestas.
00:08:11
Además, esto también se relaciona con la idea de carga cognitiva.
00:08:16
Aunque las guías no tienen cognición como los humanos, sí que tienen límites en cuanto a la cantidad de información que pueden procesar con precisión en un solo paso.
00:08:19
Cuando divides las tareas, haces que el modelo se enfoque en un aspecto específico de la solicitud, reduciendo la cantidad de elementos que tiene que gestionar cada vez.
00:08:27
Usa instrucciones en positivo.
00:08:36
Los modelos de lenguaje funcionan mejor cuando les dices qué hacer y no qué evitar.
00:08:38
Por cierto, esto funciona también con los niños.
00:08:43
Así que siempre que sea posible usa instrucciones afirmativas en lugar de negativas.
00:08:44
¿Por qué?
00:08:50
Esta técnica se basa en que los modelos tienden a responder mejor a instrucciones claras sobre qué hacer en lugar de qué no hacer
00:08:51
porque son más eficientes si les hablamos en positivo.
00:08:57
Esto es porque las instrucciones afirmativas permiten que el modelo procese la solicitud de forma inmediata y clara
00:09:00
sin tener que hacer interpretaciones adicionales.
00:09:07
Cuando usas un PROM negativo, como por ejemplo, no uses un lenguaje coloquial.
00:09:10
El modelo tiene que hacer un esfuerzo extra para deducir la acción contraria
00:09:14
y esto requiere un paso adicional de procesamiento para convertir lo que no se debe hacer en una acción a realizar
00:09:19
y esto podría afectar a la precisión o generar respuestas menos eficientes.
00:09:24
En cambio, los PROMs afirmativos son directamente procesables
00:09:29
y permite que la IA siga la instrucción de forma clara y sin ambigüedades.
00:09:32
Pide explicaciones adaptadas a distintos niveles.
00:09:37
Si necesitamos que la IA nos explique un tema de manera muy clara o necesitamos una respuesta sencilla,
00:09:39
un truco es pedirle que nos lo explique en términos simples, como si tuviéramos 11 años,
00:09:44
o como si fuéramos un estudiante de primer grado de filosofía, o como si estuvieras en una escuela con niños.
00:09:49
La IA se va a esforzar en adaptar el lenguaje para que sea más sencillo.
00:09:54
¿Por qué? Como ya hemos comentado, los modelos de IA han sido entrenados con una amplia variedad de textos
00:09:59
que abarcan distintos modelos de complejidad,
00:10:05
desde contenido muy técnico hasta explicaciones sencillas.
00:10:08
Estos modelos utilizan una técnica que se llama autoatención.
00:10:11
Esto les permite entender el contexto y las relaciones entre las palabras
00:10:15
dentro de una oración, dentro de un texto más largo.
00:10:18
Así que cuando le pides una explicación en términos simples
00:10:21
o como si tuvieras 11 años, el modelo ajusta su respuesta
00:10:24
seleccionando palabras, ejemplos, estructuras que vayan a ser más accesibles.
00:10:27
El modelo reconoce que debe adaptar el tono y la complejidad de la explicación a la audiencia
00:10:33
solicitada. Si utilizas esta técnica vas a ver que la IA adapta su respuesta simplificando el
00:10:37
lenguaje y reorganizando la información para hacerla más comprensible. Menciona una propina
00:10:42
ficticia o una penalización. La IA responde bien tanto a refuerzos positivos como a consecuencias
00:10:48
ficticias. Si le pides que lo haga mejor a cambio de una propina o la penalizas por no cumplir con
00:10:54
ciertos requisitos, el modelo va a interpretar estas señales como instrucciones para ofrecer
00:11:00
una respuesta más precisa y más detallada. Aunque los modelos de lenguaje no comprenden
00:11:04
conceptos como el dinero o las penalizaciones de manera literal, sí que están entrenados para
00:11:10
identificar ciertos términos y ajustarse a las expectativas. Cuando se mencionan incentivos como
00:11:15
propina o penalización, el modelo interpreta que se espera una respuesta más precisa, más detallada,
00:11:21
más rigurosa, esto sucede porque estas palabras actúan como señales que indican que debe priorizar
00:11:27
la calidad, la creatividad o el cumplimiento de los requisitos solicitados. Usa frases como debes.
00:11:33
Esto te va a resultar muy útil para refinar una respuesta en la que la IA no haya incluido
00:11:40
conceptos o temas que te interesaban. Cuando recibas la primera respuesta, le puedes añadir
00:11:45
un modificador como debes en mayúsculas y esto va a forzar a la IA a cumplir el requisito. Después
00:11:50
del prompt y la respuesta le puedes pedir debes usar analogías cotidianas. Si le has pedido por
00:11:56
ejemplo un prompt de receta de un pastel debes incluir al menos un ingrediente inusual que
00:12:01
mejore el sabor de manera sorprendente. ¿Por qué? Cuando utilizas palabras clave como debes en tus
00:12:06
prompts puedes ayudar a enfatizar ciertos aspectos de tu solicitud y llevar al modelo a prestar más
00:12:12
atención a esos elementos. Esto funciona porque los modelos responden a señales fuertes y palabras
00:12:17
como debes son interpretadas como modificadores directos que requieren un cumplimiento más
00:12:23
estricto. Que hable como un humano. Los escritos de Copilot o de ChatGPT están muy bien redactados,
00:12:27
pero suelen sonar bastante mecánicos. Cuando utilizas la frase responde de manera natural
00:12:34
o como un humano, vas a obtener respuestas más naturales, menos ortopédicas. Cuando solicitas
00:12:40
este tipo de respuestas, le estás indicando al modelo que adopte un estilo más relajado,
00:12:46
más conversacional y esto va a hacer que las respuestas sean más fáciles de entender y más
00:12:50
agradables para el usuario. Cuando le pides a la guía que responda como un humano, básicamente le
00:12:55
estás diciendo que hable de manera más relajada, como si estuviera teniendo una conversación normal
00:13:00
contigo. Los modelos de inteligencia artificial utilizan representaciones vectoriales que se
00:13:04
llaman embeddings para construir mapas con el significado de las palabras y las frases. Cuando
00:13:09
solicitamos un tono más humano, el modelo ajusta estas representaciones para favorecer estructuras
00:13:16
y vocabulario más coloquiales. En esos mapas, los modelos de ella tienen un montón de ejemplos,
00:13:22
algunos muy técnicos y otros más informales. Y cuando le dices que sea más humano, lo que hace
00:13:27
es ajustar su tono y estilo usando un lenguaje más simple, más directo, más fácil de entender. Es como
00:13:32
si estuviera dejando de lado el formalismo y optara por explicarse de una manera más cercana
00:13:37
como lo haría una persona real. Al final la idea es que la respuesta suene menos robótica, lo que
00:13:42
mejora la experiencia y el contenido que genere suene más natural. Usa palabras clave como piensa
00:13:46
paso a paso. Estimular al modelo a desglosar su razonamiento en pasos claros y secuenciales
00:13:52
facilita explicaciones más detalladas y más fáciles de seguir. Cuando le pides a un modelo
00:13:58
de IA que piense paso a paso, activas su capacidad de razonamiento secuencial y va a organizar su
00:14:03
respuesta de forma más lógica y estructurada. Las herramientas como ChatGPT o Copilot están
00:14:09
diseñadas para generar texto de manera secuencial, es decir, palabra por palabra de acuerdo al
00:14:15
contexto. Cuando desglosas un problema en pasos más pequeños, el modelo puede abordar cada parte
00:14:20
de manera más detallada y precisa, asegurándose de no saltarse detalles importantes. Este enfoque
00:14:26
es muy útil para tareas complejas y contenidos muy elaborados porque permite explicar claramente
00:14:31
cómo se relacionan los diferentes pasos entre sí.
00:14:37
- Idioma/s:
- Idioma/s subtítulos:
- Materias:
- Tecnología, Tecnología Industrial, Tecnologías de la Información
- Niveles educativos:
- ▼ Mostrar / ocultar niveles
- Educación Secundaria Obligatoria
- Ordinaria
- Primer Ciclo
- Primer Curso
- Segundo Curso
- Segundo Ciclo
- Tercer Curso
- Cuarto Curso
- Diversificacion Curricular 1
- Diversificacion Curricular 2
- Primer Ciclo
- Compensatoria
- Ordinaria
- Bachillerato
- Primer Curso
- Segundo Curso
- Autor/es:
- Founderz
- Subido por:
- M. Pilar P.
- Licencia:
- Reconocimiento - No comercial
- Visualizaciones:
- 1
- Fecha:
- 9 de febrero de 2025 - 20:48
- Visibilidad:
- Clave
- Centro:
- IES VILLA DE VALLECAS
- Duración:
- 14′ 49″
- Relación de aspecto:
- 16:9 Es el estándar usado por la televisión de alta definición y en varias pantallas, es ancho y normalmente se le suele llamar panorámico o widescreen, aunque todas las relaciones (a excepción de la 1:1) son widescreen. El ángulo de la diagonal es de 29,36°.
- Resolución:
- 1376x776 píxeles
- Tamaño:
- 580.81 MBytes