Saltar navegación

Ciberjueves con EducaMadrid: Carlos Rodríguez Corcuera

Ajuste de pantalla

El ajuste de pantalla se aprecia al ver el vídeo en pantalla completa. Elige la presentación que más te guste:

Subido el 26 de febrero de 2024 por EducaMadrid

7 visualizaciones

Descargar la transcripción

bueno pues vamos a hablar de la introducción digamos en temas muy técnicos básicamente el 00:00:00
viaje de cómo han evolucionado las redes desde lo más básico hasta digamos los modelos que 00:00:15
conoce los técnicos historias y luego al final un pequeño un poco en educación 00:00:20
pues luego hablaré un poquito de una buena idea 00:00:25
la verdad es un poco más técnica pero bueno 00:00:34
para este lado 00:00:39
es un típico diagrama de b es digamos aquí lo que hagamos es con un nivel genérico entonces 00:00:41
lo primero digamos sería englobar todo tipo de interés de modelos luego hay una parte que es 00:00:56
para que predica predica cosas que quieres que predica y luego ya nos metemos un poco en el tema 00:01:04
de aprendizaje profundo lo que llamamos la tip learning básicamente es la red de normales 00:01:14
básicamente voy a definir esto como contigo digamos características en función del enfoque 00:01:18
características las tareas que desempeñan luego su adaptación digamos a las diferentes situaciones 00:01:24
y luego la capacidad que tengan de más o menos potentes este tipo de modelos. 00:01:30
Lo primero, digamos, que va a empezar por arriba, que sería la inteligencia física aplicada, 00:01:36
la inteligencia física aplicada, esta que todo el mundo conoce, 00:01:41
que es la inteligencia que tiene un enfoque para predecir una situación en función de unos datos que queremos que revivan. 00:01:44
Las características de estos modelos son que, obviamente, los datos que tú tienes que darle son datos que tú le das para que el modelo aprenda, 00:01:52
Y desempeñan tareas específicas. Ahora hay otros modelos, pues obviamente, aunque nosotros pensamos que realmente puede hacer cualquier cosa, todavía no hemos llegado a ese nivel, que sería, digamos, la siguiente, que alguno de los estudios es la AGIE, ¿no?, que ya no tiene nada que ver con eso. 00:02:00
Luego, la capacidad de adaptación. 00:02:15
Pues claro, la capacidad de adaptación de una empresa 00:02:17
que está limitada, digamos, en su contexto. 00:02:18
O sea, no puede darte información que él no sabe. 00:02:22
Es verdad que puede darte información 00:02:24
que tú no le has entrenado, ¿vale? 00:02:26
Pero, obviamente, es siempre teniendo un contexto 00:02:29
de algo que ha aprendido. 00:02:32
Puede, digamos, interpretar ciertas cosas 00:02:33
que no esté primando en un contexto 00:02:36
que tú realmente le has dado. 00:02:38
Y luego, bueno, la capacidad. 00:02:40
Pues la capacidad tiene sus límites, ¿no? 00:02:42
porque como hemos dicho, la hemos entrenado en una serie de características, 00:02:43
pues eso al final no deja de ser la capacidad que tiene. 00:02:47
Vale. 00:02:50
Entonces, bueno, voy a hablar de esa, 00:02:51
y luego vamos a seguir con la siguiente, ¿no? 00:02:55
Inteligencia articular general. 00:02:57
Esto es lo que llaman la... 00:03:01
Esto está muy demorado ahora, 00:03:02
pero claro, es lo que usa todo el mundo, 00:03:03
es la carrera de fondo, ¿no? 00:03:04
Todos estos TPT y tal, lo que buscan al final es 00:03:06
tener una inteligencia articular general. 00:03:09
¿Qué es lo que te permite? 00:03:12
Esto ya es un poco... 00:03:13
Es verdad que ahora mismo estamos en una fase en la que este tipo de modelos sí que más o menos son un poco, son un poquito ágiles. 00:03:15
Luego comentaremos por qué, porque las clientes al final aprenden cosas que no sabes que han aprendido. 00:03:21
Luego con un par de ejemplos sí se entenderán mucho mejor. 00:03:27
El enfoque de estas generales, pues, que sea, digamos, un enfoque que se va dando como un humano. 00:03:30
Es un poco ficticio, pero bueno, es la idea. 00:03:36
Esto al final se definió hace muchos años y obviamente ahora mismo los temas están un poquito más impulsos. 00:03:38
Luego, las características, pues solamente eso. Al final las características son lo que le hemos entrenado y es capaz de inferir cosas que no se han inferido. 00:03:44
Ahora, ¿cuál es la característica que tiene? Pues que, a ver, esto trabaja por señas. Tú a un GPT le enseñas texto o imagen, pues qué pasa. 00:03:55
las tenedas de teoría 00:04:04
deberían interpretar 00:04:06
cualquier tipo de señal 00:04:07
sea algo que sea 00:04:08
definitiva 00:04:09
el texto 00:04:10
y que todo 00:04:11
al final 00:04:11
se convierta en algo 00:04:12
y te vuelva a devolver 00:04:13
algo 00:04:14
con todos 00:04:15
esos tipos de 00:04:16
¿vale? 00:04:17
luego 00:04:18
las tareas que desempeña 00:04:19
pues todas 00:04:20
básicamente 00:04:21
lo que haría un humano 00:04:23
supongamos que 00:04:24
quieres que 00:04:25
yo lo sea 00:04:26
arregle un coche 00:04:26
le dicen 00:04:27
arreglar un coche 00:04:28
una vez nunca se subía 00:04:28
en teoría 00:04:30
esa es la idea 00:04:31
luego 00:04:32
la adaptación 00:04:33
nosotros somos capaces de adaptarnos por ejemplo una foto y tú luego sabes 00:04:34
una foto 00:04:42
que hay un letrero y ahí que dice tal como dice esto es que es una pieza será de una 00:04:47
mostrar la capacidad de acción que tiene este tipo de este tipo de modelo a veces 00:04:53
y luego esto para esto ya es la superintegra artificial pues 00:04:58
que realmente sean digamos que es que superan al humano en todos los sentidos 00:05:11
entonces vamos a lo que es lo de abajo que es lo que más nos ha servido 00:05:21
el principio con cuatro por el semisupervisado 00:05:29
nosotros le damos unos datos y esta pared generar una infancia 00:05:36
él va aprendiendo una serie de cosas y al final tú le dices pues esto es un 00:05:43
el resultado y también era una persona se dedica a etiquetar aquí viene la parte digamos que se 00:05:48
está quitando ahora mismo porque todos los modelos antiguos como todos supervisados 00:06:04
¿Por qué? 00:06:12
Porque tú tenías 00:06:12
un equipo de personas 00:06:13
que te iban dando datos, 00:06:14
creando datos 00:06:16
y que luego 00:06:17
tú el modelo aprendes. 00:06:18
Luego veremos 00:06:19
que ahora mismo 00:06:20
lo que se está llevando 00:06:21
es el no supervisado. 00:06:22
Entonces, 00:06:27
el enfoque 00:06:28
de este tipo de modelos 00:06:28
es resolver 00:06:30
unas tareas concretas. 00:06:31
Por ejemplo, 00:06:33
nosotros tenemos 00:06:34
una imagen 00:06:34
que es capaz de detectar 00:06:36
un gato. 00:06:37
Entonces, 00:06:39
el link que le vamos a dar 00:06:39
a una cola de gato 00:06:40
es capaz de 00:06:40
interpretarlo. 00:06:41
las tareas específicas y luego de una capacidad de aprendizaje limita 00:06:43
es súper bien 00:06:52
simplemente son casos muy concretos donde tú le das datos etiquetados y datos no etiquetados 00:06:57
Realmente no hay ninguna red, 00:07:05
realmente simplemente este tipo de cosas. 00:07:06
Luego tenemos la aplicación de los localizados. 00:07:08
Entonces, 00:07:10
que dan las redes normales, 00:07:10
como vemos ahora, 00:07:11
el B2 y esta, 00:07:12
que tú le das un, 00:07:13
coge todo internet y lo sube, 00:07:15
¿vale? 00:07:17
Entonces, 00:07:18
¿qué pasa? 00:07:18
Que ahí tú no tienes una persona que diga, 00:07:18
cogen internet y aprenden todo lo que vean 00:07:19
y lo van aprendiendo. 00:07:22
Por eso no es localizado, 00:07:23
porque tú no tienes una persona 00:07:24
que de hecho ahí también es la parte 00:07:25
de muchas vulnerabilidades, 00:07:27
que aprenden cosas que no quieren que aprendan, 00:07:29
pero aprenden, 00:07:30
¿vale? 00:07:31
Porque al final tú no le estás limitando 00:07:32
la capacidad de proyectaje, 00:07:33
todo lo que puedas y ya es que esto después de un sitio de pago una vulnerabilidad 00:07:34
es el problema con el que se está lanzando ahora no como hacer un modelo aprenda cosas que no 00:07:40
quieren pero si tú le coges le metes trillones de datos que persona humana está ponen a separar 00:07:44
cuáles son los datos buenos y los malos y luego la ventaja por refuerzo esto está muy chulo porque 00:07:51
esto es la señora del grito pero hay modelos que realmente tú por ejemplo imagínate tú tienes un 00:07:56
videojuego estudiaba dando aprendiendo por ejemplo superman es un caso muy típico 00:08:01
aprende 00:08:08
aprendido que 00:08:15
tiene que saltar a iterar de forma dinámica en función de los de los 00:08:21
hijos que le va dando este barro terminando y aprendiendo digamos 00:08:26
dinámicamente esto es que estábamos en robótica por ejemplo el perrito de 00:08:29
boston dinamics pues lo que hacen así porque tú le pones al perrito y le dices 00:08:33
tú quédate de pie para perfectos o más o menos le cuesta pero que lo consiga 00:08:38
hacer ahora muy de para adelante con una pata más se cae 00:08:41
aprendiendo poco a poco a que la pata pues como colocar 00:08:45
son modelos que cuesta mucho entrenar pero luego queda 00:08:55
pero una parte que no sea supervisado puede salir a producción 00:09:01
un problema 00:09:09
de la firma 00:09:21
no tiene 00:09:28
sí que está aprendiendo que ciertos elementos 00:09:33
seguramente entonces tú luego le pones aprendido que ciertos colores 00:09:42
visual pero tú estás seguramente tú estás etiquetando que él ha entendido 00:09:49
que son ciertas características, es donde termina que una persona de raza negra. 00:09:57
Tú luego le pones algo parecido y te lo va a dar. 00:10:02
Eso es el típico sesgo, se ve mucho, por ejemplo, 00:10:05
cuando está, por ejemplo, el lenguaje que dice. 00:10:08
Es el típico caso, ¿no? Tú le pones podita. 00:10:10
Entonces, tú le dices que el médico es un, 00:10:13
entonces seguramente te diga que es un hombre, 00:10:15
pero yo lo probaré. 00:10:17
Y si además vos te pones una enfermera, ¿qué? 00:10:19
Entonces está aquí. 00:10:21
El enfermero, a lo mejor te dice un nombre de mujer. 00:10:22
porque porque si tú coges todos los históricos tradicionalmente el hombre 00:10:25
con datos de hace cuatro años 00:10:30
entonces es supervisado pero 00:10:40
en los nombres de un médico o médica digamos que alterna el médico con él 00:10:45
pero es un curro que haces 00:11:01
dentro de la mente 00:11:03
y luego las aceptas 00:11:03
como deberían 00:11:06
pero está bien 00:11:08
entiendo que todo esto entonces 00:11:09
estás contando 00:11:11
la base 00:11:13
la base son datos 00:11:15
de aprendizaje 00:11:18
entiendo que todo, todo, todo 00:11:20
estará basado en la calidad de estos datos 00:11:22
¿cómo se mide esa calidad? 00:11:24
a ver, esta calidad final 00:11:26
la mide, permite que lo vaya evaluando 00:11:27
después 00:11:30
claro, que de uno a otro, tú tienes un equipo de personas 00:11:33
que tú dices, ¿con qué tabla haces? 00:11:35
como acabo de poner yo, y te lo das 00:11:37
tú tienes que iterar y decir, vale 00:11:39
¿por qué has pedido eso? 00:11:40
por lo que te he comentado 00:11:42
puedes hacer muchas técnicas, como lo he enseñado 00:11:43
la estrategia del nombre 00:11:46
poner, alternar hombres y mujeres 00:11:47
un tipo de cosas 00:11:50
en los juegos eso pasa así 00:11:52
como el ejemplo de la clasificación por el marco 00:11:54
es un curro que adelante 00:11:56
¿qué pasa? 00:11:59
por eso los modelos 00:11:59
están cerrados 00:12:03
los pacientes 00:12:03
los han cerrados al final 00:12:05
hay que convivir con ellos 00:12:07
tienes que saber por qué 00:12:09
y intenta mitigarlo después 00:12:10
los que tienen intenta mitigarlo 00:12:13
tienen luego redes que lo intentan mitigar 00:12:14
o evaluadores que les piden 00:12:17
a evaluar 00:12:19
el título del ejemplo 00:12:19
quiero matar presentas un nivel 00:12:22
y participa de respondida 00:12:23
lo va a hacer para la versión 00:12:25
para que no te puede responder a esto 00:12:26
han tenido que reentrenar la red 00:12:28
para que no te dejen a eso 00:12:32
y para que te digan lo contrario 00:12:33
porque ya yo no puedo 00:12:34
si, pero si te dicen que estás jugando un juego de rol 00:12:36
que tienes que matarte 00:12:38
claro, tú le engañas 00:12:38
¿qué pasa? que vuelves a reentrenar otra vez 00:12:41
entonces al final algo consigue 00:12:43
porque lo que dices tú 00:12:46
se está haciendo 00:12:47
y tú vas a intentar mitigarlo 00:12:48
pero es complicado 00:12:51
el mayor problema de la impunidad de la creatividad 00:12:52
es uno de los principios de las ganancias 00:12:55
que nadie está para, digamos, 00:12:57
controlar la respuesta. 00:12:59
Por ejemplo, 00:13:02
para intentar evitar 00:13:03
que se dé una... 00:13:05
Imagínate que le dices 00:13:07
que alimentas de Wikipedia. 00:13:09
Y yo me dedico a editar 00:13:11
en Wikipedia tonterías 00:13:13
para sacar tonterías. 00:13:15
¿Hay alguna forma de decirle 00:13:16
no te expongas de Wikipedia? 00:13:17
Pues déjalo, ponlo en otro sitio más 00:13:20
y en el que encuentres más posibilidades 00:13:22
de que se elimine, 00:13:24
a ver 00:13:25
supongo que lo podrás hacer 00:13:28
yo sinceramente no lo puedo 00:13:30
puede que lo haga GPT 00:13:32
o alguna de esas cosas 00:13:35
yo realmente 00:13:36
no creo que lo hagan 00:13:37
yo muchas veces lo hacen después 00:13:41
y me entregan 00:13:43
porque a ver 00:13:44
tú quieres cotejar 00:13:46
trillones y trillones de datos centrales 00:13:48
y obviamente no lo puedes hacer 00:13:51
pero es un gasto brutal 00:13:52
pues hacer este tipo de técnicas 00:13:54
son modelos muy hechos a una tarea concreta y ahí lo busco hacer este tipo de cosas pero 00:14:00
cuando tú haces tu modelo grande de m ahí lo que estamos diciendo es vale tú estás metiendo 00:14:16
los 6 pero si yo quiero tocar la red realmente les meten otros es por mí pero si yo quiero que 00:14:25
la red no aprende a hacer estas cosas yo les quise estar en la propia red para que lo haga 00:14:31
pero al final no sea como las redes pequeñas y que yo he visto que lo intentan hacer pero 00:14:37
pero bueno al final tú quieres que vamos a intentar dejar las preguntas para el final 00:14:46
así que vamos a argumentar de cuenta porque si no lo hemos terminado 00:14:57
a nivel básico hasta un nivel más 00:15:05
tenemos las convolucionales que son las de imagen lo que es lo que se basan es que tú tienes una 00:15:14
imagen de imágenes de píxeles entonces éstas funcionan con una especie de filtro que va a 00:15:21
estar escaneando cada una de las de los píxeles y luego a través de las técnicas pues para 00:15:30
absorbiendo la información de la imagen luego tenemos la recurrente 00:15:35
porque ahora ya no se están a recurrentes 00:15:43
se usan las redes 00:15:46
digamos, las plataformas 00:15:48
la red de las recurrentes 00:15:49
imagínate, yo tengo una frase 00:15:52
el perro come un hueso 00:15:53
entonces tú vas practicando 00:15:56
luego el perro 00:15:57
y a veces parte de lo que ha tenido de él 00:16:00
lo come 00:16:02
y no se llama recurrente 00:16:04
porque vas retroalimentando la red 00:16:05
por lo anterior 00:16:07
y luego tenemos las pantalones, que estas tan guays 00:16:08
porque está lo que hacen es una red y luego tienes otra red entonces digamos que el juego 00:16:11
es que tú eres una red y la otra vez intenta necesitamos molestar a la otra entonces intenta 00:16:17
ser entre ellas rivales a ver cuál da el mejor resultado la forma que entre ellas se retroalimentan 00:16:26
y aprende esto es tan chulo eso estos labores que durante los años funcionan bastante bien 00:16:31
esto es un perfecto esto es una foto un poco pues la única foto de wikipedia 00:16:37
esto digamos la unidad básica de una neurona esto intenta simular digamos una final sino 00:16:54
de una neurona y cómo funcionan los gustos a ver esto nosotros le damos una entrada vale un x1 00:16:59
estamos dando y luego tenemos una especie de esto es la clave de cómo nosotros tenemos una 00:17:09
función que es una función mx más vale hay la clave todo es que tenemos un valor vale es el 00:17:18
por lo que se va a multiplicar la entrada. Luego hacemos una suma ponderada de estas 00:17:28
señales y luego sumadora y luego tenemos la aproximación. Esto sería como una neurona 00:17:35
le manda una serie de señales y luego la neurona decide si esta información se activa 00:17:43
o no. Significa que va a pasar a la siguiente neurona y le va a entrar la información o 00:17:48
esto porque porque funciona así porque ahora mismo tú tienes una información lo que haces 00:17:53
es entrenar a la neurona para que este texto le dé un valor al al digamos al mismo la forma de 00:18:00
local no lo veremos cada neurona al final se va a especializar en una de las de los del tipo de 00:18:07
como el cerebro humano 00:18:14
si alguno ve las típicas fotos del cerebro humano 00:18:17
ve que hay neuronas que se entienden y neuronas que se apagan 00:18:19
básicamente es una 00:18:22
entretada replicada 00:18:24
entonces, para que una neurona 00:18:25
pase de una zona a otra 00:18:27
hay un proceso 00:18:29
simulado con las funciones lineales 00:18:30
y luego, sumas todos los lados 00:18:33
de las funciones lineales y luego decimos 00:18:36
esto pasa o no pasa 00:18:37
y se lo comunica a la siguiente neurona 00:18:39
Ahora vamos a ver, sabiendo que se llama el perfecto, perfecto, ¿vale? 00:18:41
Ahora, una renal no solamente es un conjunto de perfectores, ¿vale? 00:18:49
Es de integramiento de las cargas, ¿vale? 00:18:53
Nosotros tenemos ahora mismo varias entradas. 00:18:57
Entonces, como os he comentado, una neurona se especializa al final en una de las cosas, digamos, que él acaba aprendiendo. 00:18:59
tengo pelotas 00:19:07
para llover 00:19:26
si no si tengo todas las ramas correctas para poder eso es muy fácil porque es un camino ahora 00:19:28
aquí no es el camino pues ahora porque tú no entres ahora no hay dios que sepa qué hace cada 00:19:37
3 375 millones de panamá 275 millones de pesos 00:19:48
a ver básicamente como ves estas líneas son las intercomunicaciones 00:20:02
la entrada 00:20:17
y se interconectan entre ellas y luego tenemos una única 00:20:26
capa de salir de la capa de salir 00:20:30
hay una cosa clave que es el alimento ha sido como un tipo de válida 00:20:35
esto no funciona tú le metes una cosa y tiene un peso una mente aleatoria va pasando por las 00:20:44
capas y llega hasta que la salida y yo me diste este resultado es correcto no pues hay una función 00:20:50
que tiene el error 00:20:58
hay una función de error 00:21:00
que junto con la función de optimización 00:21:03
lo que hace es llevar para atrás 00:21:05
el error 00:21:07
que tiene, entonces va digamos de forma iterativa 00:21:08
va cambiando sus pesos 00:21:11
para correr, es muy bruto 00:21:13
pero funciona, sigue iterando 00:21:16
continuamente para que al final 00:21:18
funcione 00:21:20
muy bruto pero funciona 00:21:22
hace millones y millones de iteraciones 00:21:24
hasta que al final da la vuelta 00:21:26
entonces aquí los pesos los va modificando 00:21:28
la arquitectura y lo que han publicado 00:21:30
la arquitectura tienes pero eso no es importante 00:21:36
vale ahora venimos a la parte digamos que es revolucionado el mercado que estás por esto 00:21:45
que dieron con una clave que es el transformar que es un tipo de arquitectura diferente hemos 00:21:51
hablado de que las redes recurrentes va liderando sobre una palabra que va metiendo la alimentación 00:22:02
digamos pasándole pues esto no esto es todo el tiempo de golpe y tú lo vas a procesar a 00:22:10
la clave es atención porque tuvieron que pero aquí tengo que prestar atención el perro que he comido 00:22:18
una zanahoria en todas las técnicas es en mi casa pero con mi casa está súper 00:22:40
mente relacionado porque es mi tu cabeza sabe que me traté al perro pero si tú 00:22:49
estás una recurrente es en y se va perdiendo a lo largo de las frases 00:22:55
poder circular entonces por eso la clave de todo esto es que le metemos todo de 00:22:58
golpe para que todo digamos tenga la misma red aquí hay una serie de papeles 00:23:03
tenemos ahora mismo le estamos metiendo todo el texto esto tiene una serie de capas 00:23:10
como funciona la frase y cada una de las palabras 00:23:24
como dos una que es él 00:23:29
qué es lo que significa 00:23:35
de lo que se trata de lo que se trata en este juego es decirle a un la palabra no se hizo pero 00:23:42
con mi casa tiene que tener una relación bastante bastante cercana llegamos aquí sería la consulta 00:23:48
sería el verbo y luego la clave sería que mi casa porque hay porque tú lo que quieres es que 00:23:56
esa parte primera esté muy relacionada con eso esto es una red que dice la información 00:24:01
porque imagínate yo le meto mucho aspecto jurídico y la diva y la verdad es que se las 00:24:10
asesinó infinitamente cada vez que llegue a carlos rodríguez para decir que es el asesino 00:24:20
porque por eso a veces te dan las fuerzas te dan cosas las modelos 00:24:28
porque el parejo entre la palabra y la clave están muy cercanas porque lo que han aprendido 00:24:34
Esto al final determina una matriz de cómo está relacionada una palabra con el resto. 00:24:47
Entonces, esto realmente tiene un montón de capas de atención, no tiene sólidas, tiene infinitas. 00:25:02
De tal forma que al final, cada una de las capas de atención se va a fijar en ciertos aspectos. 00:25:08
entonces lo que nos va a dar es que al final el resultado digamos de una consulta con muchas 00:25:15
palabras se deriva al final en un elemento que contenía todo una única clave donde tienes un 00:25:23
instrumento de toda la fase anterior entonces luego le metemos luego se normaliza pero bueno 00:25:30
al final 00:25:39
a una costa 00:25:44
para que todo tenga igual de importancia 00:25:56
si es importante que esté romántico o sí 00:25:58
y luego tenemos una capa de tipo y lo mismo vamos atrás hasta que al final 00:26:12
este es el bloque de transforma 00:26:23
entonces vamos quitando continuamente 00:26:25
a la capa de atención 00:26:29
vale, aquí hay una cosa que es 00:26:31
bueno, se nos 00:26:34
aquí hay una parte que es el botizar en code 00:26:35
¿cómo funciona esto? 00:26:37
yo os he dicho que las redes recurrentes 00:26:41
van de izquierda a derecha 00:26:44
así 00:26:45
bueno, en el blog 00:26:46
vamos de izquierda a derecha 00:26:49
¿el orden de las palabras para un transforma es importante? 00:26:51
como hemos visto, no 00:26:55
¿Qué es lo que hace esta función? 00:26:57
Esta función transforma la posición de las palabras en funciones sinusoidales. 00:26:59
Digamos que cada palabra, cada posición de la palabra vibra a una frecuencia diferente. 00:27:06
Entonces, esta palabra, digamos, si yo le hiciera esto, el orden de las palabras sería muy relevante. 00:27:15
Yo no quiero que el orden de las palabras sea relevante. 00:27:23
Entonces, a través de este posibilidad de encoding, nosotros le estamos dando una especie de ordenación, pero llevado, digamos, a función, si no se oye. 00:27:29
Entonces, con este posibilidad de encoding, vosotros quedaros con que al final esta capa lo que hace es decirle un orden a la red. Esto porque imagínate que tú tienes una traducción. 00:27:37
yo digo el perro 00:27:50
hay una palabra que traduzca la palabra 2 está relacionado con la 3 y la 3 con la 2 00:27:57
entonces con este tipo de técnicas lo tiene muy bien para traducir porque yo le estoy yo 00:28:11
le estoy diciendo en qué parte de la palabra tiene que fijarse el él 00:28:19
pero la capa 00:28:26
más o menos 00:28:31
entonces bueno está claro o no el transforme vale 00:28:38
en la capa de transforme 00:28:47
esta sería la capa de lo que llaman el encoder 00:28:49
esta sería la parte que 00:28:54
y nosotros queremos traducir 00:28:57
con nosotros aquí le meteríamos la traducción 00:28:59
esto tiene también una capa de atención 00:29:02
que haría lo mismo que 00:29:05
la suma de estas dos vectores 00:29:07
se inyecta aquí con otra capa de atención 00:29:12
y ahí digamos que haríamos el parejo 00:29:15
que se ha montado entre una traducción y otra 00:29:17
de la palabra, de la inversión de palabras, uno está relacionado con su palabra en inglés. 00:29:19
Esta sería la capa que iría a ese tipo de cosas. 00:29:24
Y luego, bueno, normalizamos, el filtro para llevar atrás, 00:29:28
llevamos para que el modelo pueda ser capaz de aprender, 00:29:31
y al final te da un resultado. 00:29:34
¿Vale? 00:29:37
Esto no queda muy bueno, ¿sí? 00:29:39
Vale. 00:29:43
LL. 00:29:46
es una de las capas pero que algunas de las capas no es capaz de aprender toda la información que 00:29:46
tiene un sistema entonces lo que se hace es meter muchas capas al final esto al final de lo que se 00:29:58
trata es de yo tengo una una neurona una capa de transformar que estaba de una cierta una 00:30:09
de esta parte de información que al final digamos se especializa en una parte en concreto como por 00:30:14
ejemplo un cerebro pues tú tienes tus neuronas y tú por ejemplo en una parte te dedicas al 00:30:19
alfato y otra te dedicas al ser, al oír, pues al final las señales, una es para interpretar, 00:30:25
una es para escuchar y otra. Vale, entonces ¿qué es lo que hacemos con los LLM? Los LLM básicamente es meterle un montón de métodos, muchísimas 00:30:31
capas transformen de la forma es capaz de aprender muchas cosas aquí tenemos por ejemplo un bloque 00:30:41
transforme como el que hemos visto y esto tenía una combinación de capas sería un transforme 00:30:50
adelante pues al final en cada una de las capas funciones digamos una concreta 00:30:58
al final será un resultado que es comparable con porque absorbió toda 00:31:12
la información que aprendió de cada una de las capas transformes 00:31:17
de los modelos 00:31:23
esto es un aprendizaje 00:31:40
profundo 00:31:43
Yo no te puedo decir, la capa 1 es tal, la capa 2... 00:31:53
Pues haz un análisis, ¿vale? 00:31:57
Tú puedes coger una palabra y decir, vale, ¿qué capa se ilumina? 00:31:58
Y sí, se puede hacer. 00:32:02
Pero creo que lo contas sí. 00:32:03
Pero tú al final no puedes llegar a un valor concreto. 00:32:04
Porque claro, tú como persona humana puedes decir, 00:32:08
esta capa se edita matemáticamente. 00:32:10
Pero a lo mejor por la capa de matemáticas también pasa 00:32:12
otro tipo de redes, o sea, otro tipo de mensajes, 00:32:14
aunque parezca que no es posible decir matemáticas, 00:32:18
porque al final la red no está como aprendiz. 00:32:21
porque a través de todo este aprendizaje estos modelos son capaces de comprender 00:32:23
y esto al final tienes un final un conjunto de información digamos espacial donde toda 00:32:39
la información obtenida en sus relaciones entre las redes estaba de comprender todo 00:32:59
el contexto a la vez hemos visto que es por eso comprender todo el contexto es un contexto 00:33:04
estas son de propósito general general pero para un caso funcional que tú deseas 00:33:13
utilizamos redes y nosotros tenemos documentos judiciales para los autos 00:33:20
no lo han visto porque lo han entrado con wikipedia 00:33:28
hay cuatro por ejemplo tenemos que meterle una una aprendizaje para que se plantea 00:33:40
el texto y realmente lo que le metes es un motor de textos jurídicos y luego le dices completa la 00:33:47
la frase. Entonces, cuando tú le dices que completa la frase, realmente tú coges la 00:33:54
frase, ¿no? Te dice, ¿sabes? Sigue con la frase. Tú sabes realmente cómo acaba. Entonces, 00:34:01
tú le dices, este es el acusado, ¿no? Y te dice, pues, y realmente interpreta, este 00:34:04
es el demandado, es el malo, es el acusado. Entonces, va hacia atrás y va aprendiendo 00:34:09
interativamente a relacionar el acusado con ciertas palabras. Por ejemplo, el delito se 00:34:15
acusado con acusado estaba aprendiendo que tú le dices continuará como hemos visto esto 00:34:21
ha comentado 00:34:30
aprende de todo el código penal y criminal 00:34:37
y le dices 00:34:41
el modelo que responde 00:34:47
y luego, solamente sale 00:35:00
el quijote es un libro 00:35:02
el modelo realmente, el modelo te responde 00:35:04
define el quijote 00:35:06
esto es un libro, te lo da todo 00:35:08
junto, para que tú lo cortas 00:35:10
y tú me dices que ves esta parte cortada 00:35:12
de la izquierda, tú te la quitas 00:35:14
para que te responda, pero realmente tú 00:35:16
le estás metiendo todo el rato el mismo 00:35:18
digamos que es un otro tipo todo el rato 00:35:20
pero realmente es un modelo 00:35:21
que significa 00:35:23
agente generativo 00:35:24
entonces 00:35:26
al final lo que va haciendo es generar texto 00:35:28
y aprende más ganando y aprendiendo de hecho es para comentar en el siguiente slide 00:35:33
de parámetros 00:35:46
por ejemplo 00:35:57
esta frase es positiva y nunca para aprender 00:36:16
este contexto 00:36:25
en este contexto el libro escrito por serrano 00:36:31
en ningún momento seguramente el modelo de una similar pero se va a responder 00:36:39
es un libro escrito por cero. 00:36:43
¿Esto cómo lo ha aprendido? Pues ahí está la magia. 00:36:46
Realmente tú no le has dicho cómo tiene que responder. 00:36:49
Él aprende a responder el solito. 00:36:52
Eso fue lo que, digamos, la gente se dijo, 00:36:54
es que esto, realmente yo le estoy haciendo preguntas 00:36:57
que no lo he entrado y, sin embargo, 00:37:00
había inferido este tipo de situaciones. 00:37:02
Y la verdad es que eso, 00:37:04
cuando lo probaron y empezó a funcionar, 00:37:06
supo un poquito, pero dices, 00:37:09
aprende cosas que yo no le he dicho 00:37:11
pero has podido leer 00:37:13
que el autor está firmado 00:37:16
pero claro, tú le estás preguntando 00:37:17
a un contexto 00:37:20
y en este contexto, tú no le has enseñado 00:37:21
preguntas exactas 00:37:23
tú le has enseñado 00:37:24
simplemente le has leído un montón de textos 00:37:26
de la Wikipedia y es lo único aprendido a decir 00:37:30
que una frase por ejemplo es positiva o negativa 00:37:32
antes tú cogías 00:37:34
y decías 00:37:36
esta frase es positiva 00:37:36
porque al final tu tío le decía 00:37:39
por ejemplo 00:37:40
aprendido 00:37:45
cosas 00:37:52
general 00:37:54
pero hay un poquito 00:37:57
de este conocimiento 00:37:59
que dices 00:38:02
la definición de ágil 00:38:03
aprende cosas que tú no le enseñas 00:38:04
obviamente aprende cosas que no haces 00:38:07
Y esta fue la propuesta. 00:38:10
A ver, al final, ¿cuántos de ustedes entendieron? 00:38:14
Yo no sé si ellos sabían realmente qué iba presentando. 00:38:16
Porque con el GPT-2, por ejemplo, tú le haces preguntas 00:38:18
y no la acaban de responder. 00:38:20
Cuando ellos entendieron el trabajo con el GPT-3, dijeron, 00:38:22
¿qué responde a todas? ¿Quién lo entera? 00:38:24
Ojalá, son 175 millones de pagamentos. 00:38:26
Pues había aprendido cosas, de cierta manera lo has dicho, ¿vale? 00:38:28
Obviamente, ahora con el modelo de ahora, el 4, pues, 00:38:32
es una barbaridad. 00:38:35
Menos de 4 billones de pagamentos, pero es una bestialidad. 00:38:37
yo a nosotros les hemos probado y el grano para los modelos más más antiguos y es una 00:38:40
barbaridad como cambiará pues no es capaz de obtener una respuesta óptima 00:38:47
esto es un problema general porque porque hemos 00:38:58
he dicho está para interpretar cosas que realmente no viste y bueno se basa nuevamente la generación 00:39:03
de estos documentados en las historias y al final va generando texto de hecho una cosa que 00:39:10
en los elementos 00:39:15
¿vale? 00:39:16
cojando todos 00:39:18
hay lo que es un JSON 00:39:19
¿no? 00:39:19
y le doy un momento 00:39:20
pues dado este JSON 00:39:20
un JSON 00:39:22
respuesta 00:39:24
positiva o negativa 00:39:25
yo le paso el ejemplo 00:39:27
y le digo 00:39:28
y le pongo un ejemplo 00:39:29
entonces 00:39:31
no me gusta la comida 00:39:33
¿vale? 00:39:35
y le digo 00:39:35
que respondeme 00:39:35
en esta forma 00:39:36
y yo le bajo un JSON 00:39:37
y le digo 00:39:38
si está 00:39:39
si es positivo 00:39:40
ponme la verdadera 00:39:41
si es negativo 00:39:42
ponme la negativa 00:39:43
porque el modelo 00:39:43
que responde 00:39:44
esto es lo que se llama one shot con cualquier palabra, esto se llama one shot, que tú le das un ejemplito, vale, y es capaz de responder el mismo que tú le das, respondeme así, yo lo uso en el lápiz, para que tú lo veas con el lápiz, me gusta eso, súper cómodo, pues tú le dices, devuelve una pieza de informar, una pieza de informar, y tienes una pieza ahí y se me hace una pregunta, le pones un ejemplo o dos si quieres, siempre se utilizan los agentes, por ejemplo yo tengo una página web y yo le digo, quiero que mi página web responda a mi pregunta, 00:39:45
a frases que tienen que ver con mi tienda. Y le pongo tres ejemplos. Y le pongo tres ejemplos negativos. 00:40:15
Y le digo, si alguien me pregunta por... Este ejemplo lo he visto yo en Microsoft, ¿vale? 00:40:21
Ellos lo meten en su tienda y alguien de ellos le pone el ejemplo de, si alguien te pregunta por productos de Zony, 00:40:27
dice que no lo vende. Y en tiempo real, pues lo pasa. Y tú le preguntas, quiero comprar la pete. 00:40:34
los modelos ahora ahora realmente 00:40:40
casi lo que quieres en el momento 00:41:04
funcionar funciona 00:41:07
a ver, no es perfecto 00:41:10
pero si se puede hacer 00:41:11
¿vale? 00:41:13
entonces bueno, este es el modelo GPT original 00:41:15
obviamente después 00:41:17
la primera versión de GPT era 00:41:19
2020 fue la primera versión 00:41:21
de GPT 00:41:23
y al final 00:41:24
GPT-3 y GPT-4 es lo mismo pero más grande 00:41:27
y mete muchos más parámetros 00:41:29
y mucha más información 00:41:31
y es capaz de experimentar 00:41:32
luego por ejemplo 00:41:35
si tú quieres hacer un panel de unicom 00:41:37
puedes hacer 00:41:40
una serie de documentos que el modelo no haya visto 00:41:41
se lo puedes 00:41:46
entrenar 00:41:49
¿por qué? 00:41:49
porque el modelo generaliza bien 00:41:52
todo lo que tú quieras pero hay palabras que no conoces 00:41:54
entonces te vas a dar palabras que no conoces 00:41:56
y si hay palabras que no conoces 00:41:58
pues lo que te hizo 00:42:00
¿Cómo funciona esto en inglés? Tú le has metido a los brutos textos en español, textos en inglés, textos en alemán, tú le metes todo ahí de golpe. 00:42:01
no le están diciendo como activamente esto y esto es introducido 00:42:18
todos los idiomas 00:42:25
y esto para el nuevo futuro 00:42:29
entonces 00:42:30
es un idioma 00:42:32
entonces 00:42:34
esta parte ya es más 00:42:37
vale, uno de los principales 00:42:39
todo el mundo los conoce 00:42:42
porque todo el mundo conoce este tipo de modelos 00:42:43
entonces, este es el modelo que va a ir a definir 00:42:46
entonces, este es como 00:42:48
a lo que son inicialmente pero luego como hemos visto son capaces de producir porque 00:42:49
al final tú le dices produce méxico y lo acaba traduciendo que al final hay que lo que puede 00:42:55
pasar vamos a pensar porque la misma en urbana que dice el perro es la misma en urbana nacional 00:43:01
que activa el perro es el perro que es lazy tendrá una urbana adelante que le diga que es cambiar luego el idioma 00:43:09
pero realmente al final el conocimiento de la frase es la misma 00:43:16
es el mismo concepto 00:43:20
el resumen, esto es muy típico 00:43:22
yo lo he probado mucho, cuando tienes un documento muy grande 00:43:27
te lo pasas y le dices, hazme un resumen 00:43:31
aquí hay una cosa que es importante 00:43:33
el contexto 00:43:36
esto tiene una limitación 00:43:39
los modelos tú no los puedes meter 00:43:44
toda la información del mundo 00:43:46
tú cuando los entrenas 00:43:48
los vas entrenando con cachitos 00:43:49
tú le metes unos cachitos 00:43:51
y le metes otros cachitos 00:43:52
entonces tú cuando 00:43:53
si tú le metes un cartel más o menos grande 00:43:57
lo que va a hacer el modelo es cortar 00:43:59
no sé si lo habéis visto 00:44:00
pero le metes un texto muy grande 00:44:03
al par de la información que se queda afuera 00:44:04
porque no cabe 00:44:07
como os he comentado 00:44:08
tú no le vas a poner un bloque 00:44:10
pero eso no significa 00:44:11
que yo lo puedo meter 00:44:14
todo el mundo 00:44:15
porque 00:44:16
a ver 00:44:16
puedo hacer 00:44:17
pero claro 00:44:18
el modelo crece exponencialmente 00:44:19
sabes 00:44:20
tú puedes hacer un modelo 00:44:21
de un millón de entradas 00:44:23
o sea de un millón 00:44:24
de palabras 00:44:24
pero el modelo crece 00:44:25
exponencialmente 00:44:26
y todo 00:44:27
aunque los últimos modelos 00:44:27
son bastante grandes 00:44:29
te puedes meter 00:44:30
bastantes filas de palabras 00:44:32
finales 00:44:33
si tienes 00:44:35
que te propenas 00:44:36
y este tipo de gente 00:44:37
pues tienes 00:44:38
cosas 00:44:39
tengo el dinero 00:44:39
nosotros teníamos una base de datos 00:44:41
las vacaciones 00:45:00
va a ser capaz de buscar la información dentro de mi base de datos y va a poder recuperar a lo mejor 00:45:05
en el texto no pone las vacaciones que le corresponde a un empleado puede disfrutar 00:45:19
tantos días obviamente no es exactamente en un buscador que si no es la palabra 00:45:30
ahora como obviamente sabemos que comprende el lenguaje pues es capaz de 00:45:39
responder 00:45:45
la información 00:45:49
cuando yo quiero obtener 00:45:59
una 00:46:08
de esta palabra de este texto las a las personas 00:46:09
a ver al final un charco de una estructura verás lo mismo solo voy a estar virtual 00:46:25
es que tiene información previa por ejemplo tiene una empresa y tienen los datos de trabajador los 00:46:33
y no conoce nada 00:46:46
ahora mismo esto bueno pero todo esto es posible aquí vamos por si queréis decir algo 00:46:49
si quieres preguntar lo que sea 00:46:58
nadie 00:47:07
la siguiente es la que comentó cosas de educación que puede ser 00:47:15
y me interesa un poco también saber yo 00:47:22
qué problemas hay en la educación 00:47:27
todos estos modelos 00:47:34
en mi hogar 00:47:44
porque no sé cómo 00:47:50
muy fiable y que tiene un lenguaje periodístico que luego está 00:48:01
muy bien para hacer artículos pero generar un artículo de tax claro si tú le metes el 00:48:14
esto es 00:48:19
aquí 00:48:28
utilizado 00:48:47
que no han tenido este tipo de problemas 00:48:53
ellos curan y perjuran de que han usado datos públicos, no lo saben, si esto pasa tampoco a mi me van a hacer mal, porque ellos necesitan un artículo que está digamos en público, entonces a mi probablemente no lo pueden hacer nada, yo puedo cambiar el modelo por otro 00:48:58
Pero, por ejemplo, los datos pueden ser públicos y estar haciendo un scrapping que a lo mejor no está automatizado. 00:49:18
Sí, de hecho eso lo hacen. 00:49:25
Pero claro, eso no es lo que vamos a mostrar. 00:49:27
Y el New York Times, yo me puedo creer como lo han picado. 00:49:30
Porque al final de ellos lo que hacen es entrar en un modelo que detecta. 00:49:34
Según lo que han cogido, han cogido un modelo para detectar que el modelo hace una escena de la cabeza. 00:49:37
y detectas 00:49:42
y le pasan los artículos 00:49:44
de New York Times 00:49:46
y le dicen 00:49:48
¿este artículo es de New York Times o no? 00:49:50
y al final 00:49:52
supongo que la van a descartar 00:49:54
¿no es serio? 00:49:56
claro, realmente no lo sé 00:49:59
porque realmente no se me ha detectado 00:50:00
porque, o sea, no te va a dar la información 00:50:03
es que va a perforar siempre 00:50:04
que no nos va a dar 00:50:07
también hay 00:50:08
hay una vez por ejemplo que el otro día 00:50:11
salió hace unas semanas 00:50:22
tenemos un poco la imagen trabajo modelo 00:50:29
el modelo previo ya ha modificado a nivel de píxeles que los humanos no ve si no ve 00:50:33
y el modelo se sucia 00:50:46
pero no sé cómo han hecho pero 00:50:56
un castillo de imágenes de castillos que tiene esta red que envenena 00:50:59
el resultado que le va a dar va a ser 00:51:14
la calidad que 00:51:16
al final, nice test 00:51:18
sí, sí, o sea, pero con el EPS 00:51:19
más difícil, porque tú el texto lo ves 00:51:23
sí, cuando el texto 00:51:25
es el plan 00:51:26
puede venir 00:51:28
y es un plan 00:51:29
tú no puedes saber, por ejemplo, si eso ha entrado 00:51:32
o no con unos datos, o sea, tú puedes pensar 00:51:35
que la resta de un resultado parecido a lo que 00:51:36
la resta es de una persona 00:51:39
en realidad es un estilo con una persona 00:51:40
tú no puedes decir realmente que este 00:51:42
que este modelo ha aprendido de mí, o de ti. 00:51:44
Si tú tienes una línea de distancia artificial que ve como el reverte, 00:51:48
pues el reverte puede decir, esta línea de distancia artificial me está plagiando. 00:51:53
Sí, entonces supongo que es el que yo le he mostrado antes. 00:51:57
Bueno, no lo podemos notar porque hay herramientas para ese replacio 00:52:00
que dice que esto lo he moverto más o menos un 90% 00:52:04
Tiene que ir a la derecha. 00:52:07
Tiene que ir a la derecha, pero bueno, así tú vas... 00:52:09
hasta los modelos sentados para ti porque vas a decir que este modelo ha aprendido 00:52:11
realmente no puede demostrar que si tienes una red que se diga que este 00:52:20
este artículo está escrito por mí está realmente trae una respetada para que 00:52:37
no sé a qué nivel puede demostrar 00:52:41
pero no sé si no 00:52:45
todavía 00:52:51
para que no se descontrole 00:53:00
a lo mejor lo que tengo que hacer primero es la legislación 00:53:13
de duración del país 00:53:19
y todo lo que se haga de esto 00:53:21
en estos parámetros 00:53:25
antes de enterrarlos pero seguramente las dos cosas 00:53:27
esto 00:53:36
de lo que dice la educación en España 00:53:46
y que esto no... 00:53:50
Sí, eso lo hacen, muchas veces 00:53:53
han analizado las respuestas 00:53:56
el resultado luego lo pasan por una vez 00:53:57
que termina si es un resultado, digamos 00:54:00
legal o no 00:54:03
pero tú has enterado una respuesta que es clara 00:54:07
¿estás supervisado o no? 00:54:09
esa parte sí que es supervisada 00:54:12
pero el modelo grande 00:54:13
son mitigaciones 00:54:15
quiero un artículo de educación que hable de 00:54:20
deporte a lo mejor la palabra deporte es un artículo de fútbol 00:54:34
o solamente va a estar relacionado, entonces tú puedes 00:54:41
coger artículos y los puedes 00:54:43
contextualizar en una base de datos, entonces una persona 00:54:45
te hace mirar los documentos 00:54:47
únicamente le dices, yo te doy 00:54:49
10 clases, como hemos visto, y le dices 00:54:51
vale, ¿y este texto a qué clase te pertenece? 00:54:53
un punto, un punto, el otro va a ser un punto 00:54:55
y va a funcionar bastante bien 00:54:57
vale, como se trata de multidioma, obviamente tú le metes 00:54:59
le metes en inglés, le metes en español 00:55:01
o alemán y 00:55:04
va a ver si está funcionando 00:55:05
la opción, son muy útiles para la opción 00:55:07
al final como se ha dicho con el encoder de poder de transforme capaz de equilibrar las posiciones 00:55:09
en el contenido 00:55:15
por ejemplo 00:55:17
genera ejercicio 00:55:18
tú le das un texto 00:55:19
de educación 00:55:19
y le dices 00:55:20
dime preguntas 00:55:22
para este artículo 00:55:25
en concreto 00:55:26
mandas al niño 00:55:26
le dices 00:55:27
le mandas las preguntas 00:55:28
en función de 00:55:29
si no tienes que currar 00:55:30
entonces 00:55:32
en inglés 00:55:33
a ver 00:55:33
esto lo hace 00:55:34
el niño 00:55:34
claro 00:55:35
claro 00:55:35
lo vio 00:55:36
con esto 00:55:38
y no 00:55:39
tú lo dices 00:55:40
para generar ejercicio 00:55:40
es que yo lo uso 00:55:41
para el joven 00:55:42
claro 00:55:42
yo creo que 00:55:43
la forma de valorar el esfuerzo que un alumno tiene que hacer para resolver una tarea 00:55:45
pero 00:55:53
resumen de síntesis 00:56:02
eso con google maps 00:56:14
yo que sepa 00:56:19
yo pienso que cada vez nos volvemos tontos 00:56:23
con este tipo de herramientas 00:56:25
yo antes con google maps sabía considerar 00:56:26
en cualquier momento que haya 00:56:28
pero más o menos tiene una cierta orientación 00:56:30
y ahora yo con google maps no sé ni ir a 00:56:31
¿cuál? 00:56:34
eso es lo que yo creo que hay que revolucionar 00:56:36
sí, pero vamos a ver cómo 00:56:38
porque cada vez existe la herramienta 00:56:40
a ver qué le haces, que no lo hago 00:56:42
en este ámbito del sitio 00:56:43
no sólo 00:56:52
los tipos de contestas 00:57:14
que yo pensaba 00:57:20
todos hemos visto 00:57:35
tenemos como hemos dicho como bien dicho los retos y monedales son los datos como entrenan 00:57:46
los entrenamientos luego el modelo 00:57:57
entonces 00:58:02
el modelo 00:58:12
todo lo que le ha dicho piensa que es correcto 00:58:33
entonces él dice 00:58:37
la siguiente palabra 00:58:39
la siguiente palabra más probable es esa 00:58:39
la siguiente palabra más probable 00:58:43
¿qué pasa? él no asume que la palabra que le ha dicho 00:58:44
está mal, es como una persona 00:58:47
yo voy hablando y digo 00:58:49
me he equivocado, perdón 00:58:50
como me ha pasado antes 00:58:51
entonces él asume que todo lo que dice está bien 00:58:53
entonces claro, hay un momento en que empieza a alucinar 00:58:56
y empieza a decir 00:58:59
última ocasión 00:59:01
pero claro, si luego lo veis 00:59:02
son divulgaciones por él 00:59:03
o sea, que es un texto con que 00:59:05
se le ha ido la olla, pero está bien 00:59:08
está bien escrito 00:59:10
¿sabes? ese es el problema, porque él asume que lo ve y que está bien 00:59:11
y pues vale 00:59:14
de hecho 00:59:16
eso pasa, por ejemplo 00:59:19
de hecho, mira, hay un problema, por ejemplo 00:59:21
que está entendiendo los funcionarios 00:59:23
toda la gente, vale, él ha aprendido que 00:59:24
el antiguo 00:59:26
que es el otro día 00:59:28
porque el aprendido que era antes 00:59:30
yo le digo el nuevo de twitter es de los más 00:59:40
y me sigue diciendo que es cuando yo le he dicho definitivamente que es su pasada 00:59:46
muchas cosas hay una técnica que es coger una red y que luego salen la pregunta a otra vez un poco 00:59:53
diferente y la pregunta es la primera y al final entiendan cómo es que son técnicas de 01:00:04
porque todavía una mayor cantidad de páginas 01:00:11
en medio de este corregido esta es la gracia 01:00:16
seguro que en algún sitio de internet 01:00:23
derivado de la primera parte que es la capa de atención que es la capa de acción 01:00:46
de la cual está el valor están relacionados pues solamente tiene una razón muy directa en ese 01:01:10
claro esto pasa mucho con gpt pero en los nuevos modelos no está sucediendo 01:01:19
han creado unos modelos 01:01:49
han hecho como os he dicho que cada capa 01:01:58
y han cogido modelos que se especializan en cada una de las cosas 01:02:01
de tal forma que hay modelos 01:02:10
para que el trono en alguna de las cosas para que el trono sea mucho más relevante y no divague 01:02:13
porque hay una capa que ha perdido mucho esa parte pero esta capa que no los modelos así 01:02:32
se ha mitigado bastante bueno aquí con estos estallentados vamos aquí al final 01:02:40
pues un segmento de datos 01:02:46
que coges el modelo y lo reentrenas intentando mitigar 01:02:56
más representativos y luego evaluar 01:03:10
los datos 01:03:18
sintéticos os he dicho al final yo puedo una palabra 01:03:24
una organización y quitarle el nombre o al quitar una palabra y poner datos sintéticos para no meter 01:03:33
datos datos sensibles para que no aprendas de estas cosas por ejemplo si tú quieres para un 01:03:45
caso concreto de ya no preguntas y respuestas pero si tú lo quieres por ejemplo para que se 01:03:55
resumas de estas cosas es muy útil lo único que quiere es que sepa lenguaje 01:04:02
para evitar que asocien conocimientos y luego alucinación a ver hay una parte muy fácil 01:04:10
el modelo y luego reentrenarlo para cada una de las encuestas como se ha dicho 01:04:20
este es el contexto y este es el resumen 01:04:30
obviamente el modelo no hace modelo digamos estoy jugando para que 01:04:39
pero estoy quitando la continuación porque lo he 01:04:44
para que se fijen mucho en el contexto y resumen con esto es muy útil para las 01:05:01
solucionaciones caso concreto de que querrán tarea muy específica esto funciona muy bien 01:05:08
otra cosa que se ha comentado aplicaciones y ejemplos pues yo te pongo un ejemplo 01:05:15
en teoría se hace este es el twitter responde con esta pregunta yo tengo muchos ejemplos para 01:05:20
que tú estás después a lo que yo quiero y se fijan mucho en lo que no lo que él sabe sino 01:05:36
lo que lo que yo estoy metiendo en el contexto con esto me lleva bastante las funciones que 01:05:41
en general pero para casos muy concretos y que se te funcionan 01:05:46
en la conclusión como al final esto es un mundo abierto entonces hay que comprender los límites 01:05:56
y luego una variación de la privacidad y luego estos modelos tienen que ser más adaptables y 01:06:04
continuamente están haciendo al final lo que hacen es 01:06:25
cabellos más grandes, más grandes, más grandes 01:06:34
vale 01:06:36
y ya está 01:06:38
Subido por:
EducaMadrid
Licencia:
Todos los derechos reservados
Visualizaciones:
7
Fecha:
26 de febrero de 2024 - 10:59
Visibilidad:
Clave
Duración:
1h′ 06′ 46″
Relación de aspecto:
1.78:1
Resolución:
1280x720 píxeles
Tamaño:
180.12 MBytes

Del mismo autor…

Ver más del mismo autor


EducaMadrid, Plataforma Educativa de la Comunidad de Madrid

Plataforma Educativa EducaMadrid