Ciberjueves con EducaMadrid: Carlos Rodríguez Corcuera
Ajuste de pantallaEl ajuste de pantalla se aprecia al ver el vídeo en pantalla completa. Elige la presentación que más te guste:
bueno pues vamos a hablar de la introducción digamos en temas muy técnicos básicamente el
00:00:00
viaje de cómo han evolucionado las redes desde lo más básico hasta digamos los modelos que
00:00:15
conoce los técnicos historias y luego al final un pequeño un poco en educación
00:00:20
pues luego hablaré un poquito de una buena idea
00:00:25
la verdad es un poco más técnica pero bueno
00:00:34
para este lado
00:00:39
es un típico diagrama de b es digamos aquí lo que hagamos es con un nivel genérico entonces
00:00:41
lo primero digamos sería englobar todo tipo de interés de modelos luego hay una parte que es
00:00:56
para que predica predica cosas que quieres que predica y luego ya nos metemos un poco en el tema
00:01:04
de aprendizaje profundo lo que llamamos la tip learning básicamente es la red de normales
00:01:14
básicamente voy a definir esto como contigo digamos características en función del enfoque
00:01:18
características las tareas que desempeñan luego su adaptación digamos a las diferentes situaciones
00:01:24
y luego la capacidad que tengan de más o menos potentes este tipo de modelos.
00:01:30
Lo primero, digamos, que va a empezar por arriba, que sería la inteligencia física aplicada,
00:01:36
la inteligencia física aplicada, esta que todo el mundo conoce,
00:01:41
que es la inteligencia que tiene un enfoque para predecir una situación en función de unos datos que queremos que revivan.
00:01:44
Las características de estos modelos son que, obviamente, los datos que tú tienes que darle son datos que tú le das para que el modelo aprenda,
00:01:52
Y desempeñan tareas específicas. Ahora hay otros modelos, pues obviamente, aunque nosotros pensamos que realmente puede hacer cualquier cosa, todavía no hemos llegado a ese nivel, que sería, digamos, la siguiente, que alguno de los estudios es la AGIE, ¿no?, que ya no tiene nada que ver con eso.
00:02:00
Luego, la capacidad de adaptación.
00:02:15
Pues claro, la capacidad de adaptación de una empresa
00:02:17
que está limitada, digamos, en su contexto.
00:02:18
O sea, no puede darte información que él no sabe.
00:02:22
Es verdad que puede darte información
00:02:24
que tú no le has entrenado, ¿vale?
00:02:26
Pero, obviamente, es siempre teniendo un contexto
00:02:29
de algo que ha aprendido.
00:02:32
Puede, digamos, interpretar ciertas cosas
00:02:33
que no esté primando en un contexto
00:02:36
que tú realmente le has dado.
00:02:38
Y luego, bueno, la capacidad.
00:02:40
Pues la capacidad tiene sus límites, ¿no?
00:02:42
porque como hemos dicho, la hemos entrenado en una serie de características,
00:02:43
pues eso al final no deja de ser la capacidad que tiene.
00:02:47
Vale.
00:02:50
Entonces, bueno, voy a hablar de esa,
00:02:51
y luego vamos a seguir con la siguiente, ¿no?
00:02:55
Inteligencia articular general.
00:02:57
Esto es lo que llaman la...
00:03:01
Esto está muy demorado ahora,
00:03:02
pero claro, es lo que usa todo el mundo,
00:03:03
es la carrera de fondo, ¿no?
00:03:04
Todos estos TPT y tal, lo que buscan al final es
00:03:06
tener una inteligencia articular general.
00:03:09
¿Qué es lo que te permite?
00:03:12
Esto ya es un poco...
00:03:13
Es verdad que ahora mismo estamos en una fase en la que este tipo de modelos sí que más o menos son un poco, son un poquito ágiles.
00:03:15
Luego comentaremos por qué, porque las clientes al final aprenden cosas que no sabes que han aprendido.
00:03:21
Luego con un par de ejemplos sí se entenderán mucho mejor.
00:03:27
El enfoque de estas generales, pues, que sea, digamos, un enfoque que se va dando como un humano.
00:03:30
Es un poco ficticio, pero bueno, es la idea.
00:03:36
Esto al final se definió hace muchos años y obviamente ahora mismo los temas están un poquito más impulsos.
00:03:38
Luego, las características, pues solamente eso. Al final las características son lo que le hemos entrenado y es capaz de inferir cosas que no se han inferido.
00:03:44
Ahora, ¿cuál es la característica que tiene? Pues que, a ver, esto trabaja por señas. Tú a un GPT le enseñas texto o imagen, pues qué pasa.
00:03:55
las tenedas de teoría
00:04:04
deberían interpretar
00:04:06
cualquier tipo de señal
00:04:07
sea algo que sea
00:04:08
definitiva
00:04:09
el texto
00:04:10
y que todo
00:04:11
al final
00:04:11
se convierta en algo
00:04:12
y te vuelva a devolver
00:04:13
algo
00:04:14
con todos
00:04:15
esos tipos de
00:04:16
¿vale?
00:04:17
luego
00:04:18
las tareas que desempeña
00:04:19
pues todas
00:04:20
básicamente
00:04:21
lo que haría un humano
00:04:23
supongamos que
00:04:24
quieres que
00:04:25
yo lo sea
00:04:26
arregle un coche
00:04:26
le dicen
00:04:27
arreglar un coche
00:04:28
una vez nunca se subía
00:04:28
en teoría
00:04:30
esa es la idea
00:04:31
luego
00:04:32
la adaptación
00:04:33
nosotros somos capaces de adaptarnos por ejemplo una foto y tú luego sabes
00:04:34
una foto
00:04:42
que hay un letrero y ahí que dice tal como dice esto es que es una pieza será de una
00:04:47
mostrar la capacidad de acción que tiene este tipo de este tipo de modelo a veces
00:04:53
y luego esto para esto ya es la superintegra artificial pues
00:04:58
que realmente sean digamos que es que superan al humano en todos los sentidos
00:05:11
entonces vamos a lo que es lo de abajo que es lo que más nos ha servido
00:05:21
el principio con cuatro por el semisupervisado
00:05:29
nosotros le damos unos datos y esta pared generar una infancia
00:05:36
él va aprendiendo una serie de cosas y al final tú le dices pues esto es un
00:05:43
el resultado y también era una persona se dedica a etiquetar aquí viene la parte digamos que se
00:05:48
está quitando ahora mismo porque todos los modelos antiguos como todos supervisados
00:06:04
¿Por qué?
00:06:12
Porque tú tenías
00:06:12
un equipo de personas
00:06:13
que te iban dando datos,
00:06:14
creando datos
00:06:16
y que luego
00:06:17
tú el modelo aprendes.
00:06:18
Luego veremos
00:06:19
que ahora mismo
00:06:20
lo que se está llevando
00:06:21
es el no supervisado.
00:06:22
Entonces,
00:06:27
el enfoque
00:06:28
de este tipo de modelos
00:06:28
es resolver
00:06:30
unas tareas concretas.
00:06:31
Por ejemplo,
00:06:33
nosotros tenemos
00:06:34
una imagen
00:06:34
que es capaz de detectar
00:06:36
un gato.
00:06:37
Entonces,
00:06:39
el link que le vamos a dar
00:06:39
a una cola de gato
00:06:40
es capaz de
00:06:40
interpretarlo.
00:06:41
las tareas específicas y luego de una capacidad de aprendizaje limita
00:06:43
es súper bien
00:06:52
simplemente son casos muy concretos donde tú le das datos etiquetados y datos no etiquetados
00:06:57
Realmente no hay ninguna red,
00:07:05
realmente simplemente este tipo de cosas.
00:07:06
Luego tenemos la aplicación de los localizados.
00:07:08
Entonces,
00:07:10
que dan las redes normales,
00:07:10
como vemos ahora,
00:07:11
el B2 y esta,
00:07:12
que tú le das un,
00:07:13
coge todo internet y lo sube,
00:07:15
¿vale?
00:07:17
Entonces,
00:07:18
¿qué pasa?
00:07:18
Que ahí tú no tienes una persona que diga,
00:07:18
cogen internet y aprenden todo lo que vean
00:07:19
y lo van aprendiendo.
00:07:22
Por eso no es localizado,
00:07:23
porque tú no tienes una persona
00:07:24
que de hecho ahí también es la parte
00:07:25
de muchas vulnerabilidades,
00:07:27
que aprenden cosas que no quieren que aprendan,
00:07:29
pero aprenden,
00:07:30
¿vale?
00:07:31
Porque al final tú no le estás limitando
00:07:32
la capacidad de proyectaje,
00:07:33
todo lo que puedas y ya es que esto después de un sitio de pago una vulnerabilidad
00:07:34
es el problema con el que se está lanzando ahora no como hacer un modelo aprenda cosas que no
00:07:40
quieren pero si tú le coges le metes trillones de datos que persona humana está ponen a separar
00:07:44
cuáles son los datos buenos y los malos y luego la ventaja por refuerzo esto está muy chulo porque
00:07:51
esto es la señora del grito pero hay modelos que realmente tú por ejemplo imagínate tú tienes un
00:07:56
videojuego estudiaba dando aprendiendo por ejemplo superman es un caso muy típico
00:08:01
aprende
00:08:08
aprendido que
00:08:15
tiene que saltar a iterar de forma dinámica en función de los de los
00:08:21
hijos que le va dando este barro terminando y aprendiendo digamos
00:08:26
dinámicamente esto es que estábamos en robótica por ejemplo el perrito de
00:08:29
boston dinamics pues lo que hacen así porque tú le pones al perrito y le dices
00:08:33
tú quédate de pie para perfectos o más o menos le cuesta pero que lo consiga
00:08:38
hacer ahora muy de para adelante con una pata más se cae
00:08:41
aprendiendo poco a poco a que la pata pues como colocar
00:08:45
son modelos que cuesta mucho entrenar pero luego queda
00:08:55
pero una parte que no sea supervisado puede salir a producción
00:09:01
un problema
00:09:09
de la firma
00:09:21
no tiene
00:09:28
sí que está aprendiendo que ciertos elementos
00:09:33
seguramente entonces tú luego le pones aprendido que ciertos colores
00:09:42
visual pero tú estás seguramente tú estás etiquetando que él ha entendido
00:09:49
que son ciertas características, es donde termina que una persona de raza negra.
00:09:57
Tú luego le pones algo parecido y te lo va a dar.
00:10:02
Eso es el típico sesgo, se ve mucho, por ejemplo,
00:10:05
cuando está, por ejemplo, el lenguaje que dice.
00:10:08
Es el típico caso, ¿no? Tú le pones podita.
00:10:10
Entonces, tú le dices que el médico es un,
00:10:13
entonces seguramente te diga que es un hombre,
00:10:15
pero yo lo probaré.
00:10:17
Y si además vos te pones una enfermera, ¿qué?
00:10:19
Entonces está aquí.
00:10:21
El enfermero, a lo mejor te dice un nombre de mujer.
00:10:22
porque porque si tú coges todos los históricos tradicionalmente el hombre
00:10:25
con datos de hace cuatro años
00:10:30
entonces es supervisado pero
00:10:40
en los nombres de un médico o médica digamos que alterna el médico con él
00:10:45
pero es un curro que haces
00:11:01
dentro de la mente
00:11:03
y luego las aceptas
00:11:03
como deberían
00:11:06
pero está bien
00:11:08
entiendo que todo esto entonces
00:11:09
estás contando
00:11:11
la base
00:11:13
la base son datos
00:11:15
de aprendizaje
00:11:18
entiendo que todo, todo, todo
00:11:20
estará basado en la calidad de estos datos
00:11:22
¿cómo se mide esa calidad?
00:11:24
a ver, esta calidad final
00:11:26
la mide, permite que lo vaya evaluando
00:11:27
después
00:11:30
claro, que de uno a otro, tú tienes un equipo de personas
00:11:33
que tú dices, ¿con qué tabla haces?
00:11:35
como acabo de poner yo, y te lo das
00:11:37
tú tienes que iterar y decir, vale
00:11:39
¿por qué has pedido eso?
00:11:40
por lo que te he comentado
00:11:42
puedes hacer muchas técnicas, como lo he enseñado
00:11:43
la estrategia del nombre
00:11:46
poner, alternar hombres y mujeres
00:11:47
un tipo de cosas
00:11:50
en los juegos eso pasa así
00:11:52
como el ejemplo de la clasificación por el marco
00:11:54
es un curro que adelante
00:11:56
¿qué pasa?
00:11:59
por eso los modelos
00:11:59
están cerrados
00:12:03
los pacientes
00:12:03
los han cerrados al final
00:12:05
hay que convivir con ellos
00:12:07
tienes que saber por qué
00:12:09
y intenta mitigarlo después
00:12:10
los que tienen intenta mitigarlo
00:12:13
tienen luego redes que lo intentan mitigar
00:12:14
o evaluadores que les piden
00:12:17
a evaluar
00:12:19
el título del ejemplo
00:12:19
quiero matar presentas un nivel
00:12:22
y participa de respondida
00:12:23
lo va a hacer para la versión
00:12:25
para que no te puede responder a esto
00:12:26
han tenido que reentrenar la red
00:12:28
para que no te dejen a eso
00:12:32
y para que te digan lo contrario
00:12:33
porque ya yo no puedo
00:12:34
si, pero si te dicen que estás jugando un juego de rol
00:12:36
que tienes que matarte
00:12:38
claro, tú le engañas
00:12:38
¿qué pasa? que vuelves a reentrenar otra vez
00:12:41
entonces al final algo consigue
00:12:43
porque lo que dices tú
00:12:46
se está haciendo
00:12:47
y tú vas a intentar mitigarlo
00:12:48
pero es complicado
00:12:51
el mayor problema de la impunidad de la creatividad
00:12:52
es uno de los principios de las ganancias
00:12:55
que nadie está para, digamos,
00:12:57
controlar la respuesta.
00:12:59
Por ejemplo,
00:13:02
para intentar evitar
00:13:03
que se dé una...
00:13:05
Imagínate que le dices
00:13:07
que alimentas de Wikipedia.
00:13:09
Y yo me dedico a editar
00:13:11
en Wikipedia tonterías
00:13:13
para sacar tonterías.
00:13:15
¿Hay alguna forma de decirle
00:13:16
no te expongas de Wikipedia?
00:13:17
Pues déjalo, ponlo en otro sitio más
00:13:20
y en el que encuentres más posibilidades
00:13:22
de que se elimine,
00:13:24
a ver
00:13:25
supongo que lo podrás hacer
00:13:28
yo sinceramente no lo puedo
00:13:30
puede que lo haga GPT
00:13:32
o alguna de esas cosas
00:13:35
yo realmente
00:13:36
no creo que lo hagan
00:13:37
yo muchas veces lo hacen después
00:13:41
y me entregan
00:13:43
porque a ver
00:13:44
tú quieres cotejar
00:13:46
trillones y trillones de datos centrales
00:13:48
y obviamente no lo puedes hacer
00:13:51
pero es un gasto brutal
00:13:52
pues hacer este tipo de técnicas
00:13:54
son modelos muy hechos a una tarea concreta y ahí lo busco hacer este tipo de cosas pero
00:14:00
cuando tú haces tu modelo grande de m ahí lo que estamos diciendo es vale tú estás metiendo
00:14:16
los 6 pero si yo quiero tocar la red realmente les meten otros es por mí pero si yo quiero que
00:14:25
la red no aprende a hacer estas cosas yo les quise estar en la propia red para que lo haga
00:14:31
pero al final no sea como las redes pequeñas y que yo he visto que lo intentan hacer pero
00:14:37
pero bueno al final tú quieres que vamos a intentar dejar las preguntas para el final
00:14:46
así que vamos a argumentar de cuenta porque si no lo hemos terminado
00:14:57
a nivel básico hasta un nivel más
00:15:05
tenemos las convolucionales que son las de imagen lo que es lo que se basan es que tú tienes una
00:15:14
imagen de imágenes de píxeles entonces éstas funcionan con una especie de filtro que va a
00:15:21
estar escaneando cada una de las de los píxeles y luego a través de las técnicas pues para
00:15:30
absorbiendo la información de la imagen luego tenemos la recurrente
00:15:35
porque ahora ya no se están a recurrentes
00:15:43
se usan las redes
00:15:46
digamos, las plataformas
00:15:48
la red de las recurrentes
00:15:49
imagínate, yo tengo una frase
00:15:52
el perro come un hueso
00:15:53
entonces tú vas practicando
00:15:56
luego el perro
00:15:57
y a veces parte de lo que ha tenido de él
00:16:00
lo come
00:16:02
y no se llama recurrente
00:16:04
porque vas retroalimentando la red
00:16:05
por lo anterior
00:16:07
y luego tenemos las pantalones, que estas tan guays
00:16:08
porque está lo que hacen es una red y luego tienes otra red entonces digamos que el juego
00:16:11
es que tú eres una red y la otra vez intenta necesitamos molestar a la otra entonces intenta
00:16:17
ser entre ellas rivales a ver cuál da el mejor resultado la forma que entre ellas se retroalimentan
00:16:26
y aprende esto es tan chulo eso estos labores que durante los años funcionan bastante bien
00:16:31
esto es un perfecto esto es una foto un poco pues la única foto de wikipedia
00:16:37
esto digamos la unidad básica de una neurona esto intenta simular digamos una final sino
00:16:54
de una neurona y cómo funcionan los gustos a ver esto nosotros le damos una entrada vale un x1
00:16:59
estamos dando y luego tenemos una especie de esto es la clave de cómo nosotros tenemos una
00:17:09
función que es una función mx más vale hay la clave todo es que tenemos un valor vale es el
00:17:18
por lo que se va a multiplicar la entrada. Luego hacemos una suma ponderada de estas
00:17:28
señales y luego sumadora y luego tenemos la aproximación. Esto sería como una neurona
00:17:35
le manda una serie de señales y luego la neurona decide si esta información se activa
00:17:43
o no. Significa que va a pasar a la siguiente neurona y le va a entrar la información o
00:17:48
esto porque porque funciona así porque ahora mismo tú tienes una información lo que haces
00:17:53
es entrenar a la neurona para que este texto le dé un valor al al digamos al mismo la forma de
00:18:00
local no lo veremos cada neurona al final se va a especializar en una de las de los del tipo de
00:18:07
como el cerebro humano
00:18:14
si alguno ve las típicas fotos del cerebro humano
00:18:17
ve que hay neuronas que se entienden y neuronas que se apagan
00:18:19
básicamente es una
00:18:22
entretada replicada
00:18:24
entonces, para que una neurona
00:18:25
pase de una zona a otra
00:18:27
hay un proceso
00:18:29
simulado con las funciones lineales
00:18:30
y luego, sumas todos los lados
00:18:33
de las funciones lineales y luego decimos
00:18:36
esto pasa o no pasa
00:18:37
y se lo comunica a la siguiente neurona
00:18:39
Ahora vamos a ver, sabiendo que se llama el perfecto, perfecto, ¿vale?
00:18:41
Ahora, una renal no solamente es un conjunto de perfectores, ¿vale?
00:18:49
Es de integramiento de las cargas, ¿vale?
00:18:53
Nosotros tenemos ahora mismo varias entradas.
00:18:57
Entonces, como os he comentado, una neurona se especializa al final en una de las cosas, digamos, que él acaba aprendiendo.
00:18:59
tengo pelotas
00:19:07
para llover
00:19:26
si no si tengo todas las ramas correctas para poder eso es muy fácil porque es un camino ahora
00:19:28
aquí no es el camino pues ahora porque tú no entres ahora no hay dios que sepa qué hace cada
00:19:37
3 375 millones de panamá 275 millones de pesos
00:19:48
a ver básicamente como ves estas líneas son las intercomunicaciones
00:20:02
la entrada
00:20:17
y se interconectan entre ellas y luego tenemos una única
00:20:26
capa de salir de la capa de salir
00:20:30
hay una cosa clave que es el alimento ha sido como un tipo de válida
00:20:35
esto no funciona tú le metes una cosa y tiene un peso una mente aleatoria va pasando por las
00:20:44
capas y llega hasta que la salida y yo me diste este resultado es correcto no pues hay una función
00:20:50
que tiene el error
00:20:58
hay una función de error
00:21:00
que junto con la función de optimización
00:21:03
lo que hace es llevar para atrás
00:21:05
el error
00:21:07
que tiene, entonces va digamos de forma iterativa
00:21:08
va cambiando sus pesos
00:21:11
para correr, es muy bruto
00:21:13
pero funciona, sigue iterando
00:21:16
continuamente para que al final
00:21:18
funcione
00:21:20
muy bruto pero funciona
00:21:22
hace millones y millones de iteraciones
00:21:24
hasta que al final da la vuelta
00:21:26
entonces aquí los pesos los va modificando
00:21:28
la arquitectura y lo que han publicado
00:21:30
la arquitectura tienes pero eso no es importante
00:21:36
vale ahora venimos a la parte digamos que es revolucionado el mercado que estás por esto
00:21:45
que dieron con una clave que es el transformar que es un tipo de arquitectura diferente hemos
00:21:51
hablado de que las redes recurrentes va liderando sobre una palabra que va metiendo la alimentación
00:22:02
digamos pasándole pues esto no esto es todo el tiempo de golpe y tú lo vas a procesar a
00:22:10
la clave es atención porque tuvieron que pero aquí tengo que prestar atención el perro que he comido
00:22:18
una zanahoria en todas las técnicas es en mi casa pero con mi casa está súper
00:22:40
mente relacionado porque es mi tu cabeza sabe que me traté al perro pero si tú
00:22:49
estás una recurrente es en y se va perdiendo a lo largo de las frases
00:22:55
poder circular entonces por eso la clave de todo esto es que le metemos todo de
00:22:58
golpe para que todo digamos tenga la misma red aquí hay una serie de papeles
00:23:03
tenemos ahora mismo le estamos metiendo todo el texto esto tiene una serie de capas
00:23:10
como funciona la frase y cada una de las palabras
00:23:24
como dos una que es él
00:23:29
qué es lo que significa
00:23:35
de lo que se trata de lo que se trata en este juego es decirle a un la palabra no se hizo pero
00:23:42
con mi casa tiene que tener una relación bastante bastante cercana llegamos aquí sería la consulta
00:23:48
sería el verbo y luego la clave sería que mi casa porque hay porque tú lo que quieres es que
00:23:56
esa parte primera esté muy relacionada con eso esto es una red que dice la información
00:24:01
porque imagínate yo le meto mucho aspecto jurídico y la diva y la verdad es que se las
00:24:10
asesinó infinitamente cada vez que llegue a carlos rodríguez para decir que es el asesino
00:24:20
porque por eso a veces te dan las fuerzas te dan cosas las modelos
00:24:28
porque el parejo entre la palabra y la clave están muy cercanas porque lo que han aprendido
00:24:34
Esto al final determina una matriz de cómo está relacionada una palabra con el resto.
00:24:47
Entonces, esto realmente tiene un montón de capas de atención, no tiene sólidas, tiene infinitas.
00:25:02
De tal forma que al final, cada una de las capas de atención se va a fijar en ciertos aspectos.
00:25:08
entonces lo que nos va a dar es que al final el resultado digamos de una consulta con muchas
00:25:15
palabras se deriva al final en un elemento que contenía todo una única clave donde tienes un
00:25:23
instrumento de toda la fase anterior entonces luego le metemos luego se normaliza pero bueno
00:25:30
al final
00:25:39
a una costa
00:25:44
para que todo tenga igual de importancia
00:25:56
si es importante que esté romántico o sí
00:25:58
y luego tenemos una capa de tipo y lo mismo vamos atrás hasta que al final
00:26:12
este es el bloque de transforma
00:26:23
entonces vamos quitando continuamente
00:26:25
a la capa de atención
00:26:29
vale, aquí hay una cosa que es
00:26:31
bueno, se nos
00:26:34
aquí hay una parte que es el botizar en code
00:26:35
¿cómo funciona esto?
00:26:37
yo os he dicho que las redes recurrentes
00:26:41
van de izquierda a derecha
00:26:44
así
00:26:45
bueno, en el blog
00:26:46
vamos de izquierda a derecha
00:26:49
¿el orden de las palabras para un transforma es importante?
00:26:51
como hemos visto, no
00:26:55
¿Qué es lo que hace esta función?
00:26:57
Esta función transforma la posición de las palabras en funciones sinusoidales.
00:26:59
Digamos que cada palabra, cada posición de la palabra vibra a una frecuencia diferente.
00:27:06
Entonces, esta palabra, digamos, si yo le hiciera esto, el orden de las palabras sería muy relevante.
00:27:15
Yo no quiero que el orden de las palabras sea relevante.
00:27:23
Entonces, a través de este posibilidad de encoding, nosotros le estamos dando una especie de ordenación, pero llevado, digamos, a función, si no se oye.
00:27:29
Entonces, con este posibilidad de encoding, vosotros quedaros con que al final esta capa lo que hace es decirle un orden a la red. Esto porque imagínate que tú tienes una traducción.
00:27:37
yo digo el perro
00:27:50
hay una palabra que traduzca la palabra 2 está relacionado con la 3 y la 3 con la 2
00:27:57
entonces con este tipo de técnicas lo tiene muy bien para traducir porque yo le estoy yo
00:28:11
le estoy diciendo en qué parte de la palabra tiene que fijarse el él
00:28:19
pero la capa
00:28:26
más o menos
00:28:31
entonces bueno está claro o no el transforme vale
00:28:38
en la capa de transforme
00:28:47
esta sería la capa de lo que llaman el encoder
00:28:49
esta sería la parte que
00:28:54
y nosotros queremos traducir
00:28:57
con nosotros aquí le meteríamos la traducción
00:28:59
esto tiene también una capa de atención
00:29:02
que haría lo mismo que
00:29:05
la suma de estas dos vectores
00:29:07
se inyecta aquí con otra capa de atención
00:29:12
y ahí digamos que haríamos el parejo
00:29:15
que se ha montado entre una traducción y otra
00:29:17
de la palabra, de la inversión de palabras, uno está relacionado con su palabra en inglés.
00:29:19
Esta sería la capa que iría a ese tipo de cosas.
00:29:24
Y luego, bueno, normalizamos, el filtro para llevar atrás,
00:29:28
llevamos para que el modelo pueda ser capaz de aprender,
00:29:31
y al final te da un resultado.
00:29:34
¿Vale?
00:29:37
Esto no queda muy bueno, ¿sí?
00:29:39
Vale.
00:29:43
LL.
00:29:46
es una de las capas pero que algunas de las capas no es capaz de aprender toda la información que
00:29:46
tiene un sistema entonces lo que se hace es meter muchas capas al final esto al final de lo que se
00:29:58
trata es de yo tengo una una neurona una capa de transformar que estaba de una cierta una
00:30:09
de esta parte de información que al final digamos se especializa en una parte en concreto como por
00:30:14
ejemplo un cerebro pues tú tienes tus neuronas y tú por ejemplo en una parte te dedicas al
00:30:19
alfato y otra te dedicas al ser, al oír, pues al final las señales, una es para interpretar,
00:30:25
una es para escuchar y otra. Vale, entonces ¿qué es lo que hacemos con los LLM? Los LLM básicamente es meterle un montón de métodos, muchísimas
00:30:31
capas transformen de la forma es capaz de aprender muchas cosas aquí tenemos por ejemplo un bloque
00:30:41
transforme como el que hemos visto y esto tenía una combinación de capas sería un transforme
00:30:50
adelante pues al final en cada una de las capas funciones digamos una concreta
00:30:58
al final será un resultado que es comparable con porque absorbió toda
00:31:12
la información que aprendió de cada una de las capas transformes
00:31:17
de los modelos
00:31:23
esto es un aprendizaje
00:31:40
profundo
00:31:43
Yo no te puedo decir, la capa 1 es tal, la capa 2...
00:31:53
Pues haz un análisis, ¿vale?
00:31:57
Tú puedes coger una palabra y decir, vale, ¿qué capa se ilumina?
00:31:58
Y sí, se puede hacer.
00:32:02
Pero creo que lo contas sí.
00:32:03
Pero tú al final no puedes llegar a un valor concreto.
00:32:04
Porque claro, tú como persona humana puedes decir,
00:32:08
esta capa se edita matemáticamente.
00:32:10
Pero a lo mejor por la capa de matemáticas también pasa
00:32:12
otro tipo de redes, o sea, otro tipo de mensajes,
00:32:14
aunque parezca que no es posible decir matemáticas,
00:32:18
porque al final la red no está como aprendiz.
00:32:21
porque a través de todo este aprendizaje estos modelos son capaces de comprender
00:32:23
y esto al final tienes un final un conjunto de información digamos espacial donde toda
00:32:39
la información obtenida en sus relaciones entre las redes estaba de comprender todo
00:32:59
el contexto a la vez hemos visto que es por eso comprender todo el contexto es un contexto
00:33:04
estas son de propósito general general pero para un caso funcional que tú deseas
00:33:13
utilizamos redes y nosotros tenemos documentos judiciales para los autos
00:33:20
no lo han visto porque lo han entrado con wikipedia
00:33:28
hay cuatro por ejemplo tenemos que meterle una una aprendizaje para que se plantea
00:33:40
el texto y realmente lo que le metes es un motor de textos jurídicos y luego le dices completa la
00:33:47
la frase. Entonces, cuando tú le dices que completa la frase, realmente tú coges la
00:33:54
frase, ¿no? Te dice, ¿sabes? Sigue con la frase. Tú sabes realmente cómo acaba. Entonces,
00:34:01
tú le dices, este es el acusado, ¿no? Y te dice, pues, y realmente interpreta, este
00:34:04
es el demandado, es el malo, es el acusado. Entonces, va hacia atrás y va aprendiendo
00:34:09
interativamente a relacionar el acusado con ciertas palabras. Por ejemplo, el delito se
00:34:15
acusado con acusado estaba aprendiendo que tú le dices continuará como hemos visto esto
00:34:21
ha comentado
00:34:30
aprende de todo el código penal y criminal
00:34:37
y le dices
00:34:41
el modelo que responde
00:34:47
y luego, solamente sale
00:35:00
el quijote es un libro
00:35:02
el modelo realmente, el modelo te responde
00:35:04
define el quijote
00:35:06
esto es un libro, te lo da todo
00:35:08
junto, para que tú lo cortas
00:35:10
y tú me dices que ves esta parte cortada
00:35:12
de la izquierda, tú te la quitas
00:35:14
para que te responda, pero realmente tú
00:35:16
le estás metiendo todo el rato el mismo
00:35:18
digamos que es un otro tipo todo el rato
00:35:20
pero realmente es un modelo
00:35:21
que significa
00:35:23
agente generativo
00:35:24
entonces
00:35:26
al final lo que va haciendo es generar texto
00:35:28
y aprende más ganando y aprendiendo de hecho es para comentar en el siguiente slide
00:35:33
de parámetros
00:35:46
por ejemplo
00:35:57
esta frase es positiva y nunca para aprender
00:36:16
este contexto
00:36:25
en este contexto el libro escrito por serrano
00:36:31
en ningún momento seguramente el modelo de una similar pero se va a responder
00:36:39
es un libro escrito por cero.
00:36:43
¿Esto cómo lo ha aprendido? Pues ahí está la magia.
00:36:46
Realmente tú no le has dicho cómo tiene que responder.
00:36:49
Él aprende a responder el solito.
00:36:52
Eso fue lo que, digamos, la gente se dijo,
00:36:54
es que esto, realmente yo le estoy haciendo preguntas
00:36:57
que no lo he entrado y, sin embargo,
00:37:00
había inferido este tipo de situaciones.
00:37:02
Y la verdad es que eso,
00:37:04
cuando lo probaron y empezó a funcionar,
00:37:06
supo un poquito, pero dices,
00:37:09
aprende cosas que yo no le he dicho
00:37:11
pero has podido leer
00:37:13
que el autor está firmado
00:37:16
pero claro, tú le estás preguntando
00:37:17
a un contexto
00:37:20
y en este contexto, tú no le has enseñado
00:37:21
preguntas exactas
00:37:23
tú le has enseñado
00:37:24
simplemente le has leído un montón de textos
00:37:26
de la Wikipedia y es lo único aprendido a decir
00:37:30
que una frase por ejemplo es positiva o negativa
00:37:32
antes tú cogías
00:37:34
y decías
00:37:36
esta frase es positiva
00:37:36
porque al final tu tío le decía
00:37:39
por ejemplo
00:37:40
aprendido
00:37:45
cosas
00:37:52
general
00:37:54
pero hay un poquito
00:37:57
de este conocimiento
00:37:59
que dices
00:38:02
la definición de ágil
00:38:03
aprende cosas que tú no le enseñas
00:38:04
obviamente aprende cosas que no haces
00:38:07
Y esta fue la propuesta.
00:38:10
A ver, al final, ¿cuántos de ustedes entendieron?
00:38:14
Yo no sé si ellos sabían realmente qué iba presentando.
00:38:16
Porque con el GPT-2, por ejemplo, tú le haces preguntas
00:38:18
y no la acaban de responder.
00:38:20
Cuando ellos entendieron el trabajo con el GPT-3, dijeron,
00:38:22
¿qué responde a todas? ¿Quién lo entera?
00:38:24
Ojalá, son 175 millones de pagamentos.
00:38:26
Pues había aprendido cosas, de cierta manera lo has dicho, ¿vale?
00:38:28
Obviamente, ahora con el modelo de ahora, el 4, pues,
00:38:32
es una barbaridad.
00:38:35
Menos de 4 billones de pagamentos, pero es una bestialidad.
00:38:37
yo a nosotros les hemos probado y el grano para los modelos más más antiguos y es una
00:38:40
barbaridad como cambiará pues no es capaz de obtener una respuesta óptima
00:38:47
esto es un problema general porque porque hemos
00:38:58
he dicho está para interpretar cosas que realmente no viste y bueno se basa nuevamente la generación
00:39:03
de estos documentados en las historias y al final va generando texto de hecho una cosa que
00:39:10
en los elementos
00:39:15
¿vale?
00:39:16
cojando todos
00:39:18
hay lo que es un JSON
00:39:19
¿no?
00:39:19
y le doy un momento
00:39:20
pues dado este JSON
00:39:20
un JSON
00:39:22
respuesta
00:39:24
positiva o negativa
00:39:25
yo le paso el ejemplo
00:39:27
y le digo
00:39:28
y le pongo un ejemplo
00:39:29
el
00:39:30
entonces
00:39:31
el
00:39:32
no me gusta la comida
00:39:33
¿vale?
00:39:35
y le digo
00:39:35
que respondeme
00:39:35
en esta forma
00:39:36
y yo le bajo un JSON
00:39:37
y le digo
00:39:38
si está
00:39:39
si es positivo
00:39:40
ponme la verdadera
00:39:41
si es negativo
00:39:42
ponme la negativa
00:39:43
porque el modelo
00:39:43
que responde
00:39:44
esto es lo que se llama one shot con cualquier palabra, esto se llama one shot, que tú le das un ejemplito, vale, y es capaz de responder el mismo que tú le das, respondeme así, yo lo uso en el lápiz, para que tú lo veas con el lápiz, me gusta eso, súper cómodo, pues tú le dices, devuelve una pieza de informar, una pieza de informar, y tienes una pieza ahí y se me hace una pregunta, le pones un ejemplo o dos si quieres, siempre se utilizan los agentes, por ejemplo yo tengo una página web y yo le digo, quiero que mi página web responda a mi pregunta,
00:39:45
a frases que tienen que ver con mi tienda. Y le pongo tres ejemplos. Y le pongo tres ejemplos negativos.
00:40:15
Y le digo, si alguien me pregunta por... Este ejemplo lo he visto yo en Microsoft, ¿vale?
00:40:21
Ellos lo meten en su tienda y alguien de ellos le pone el ejemplo de, si alguien te pregunta por productos de Zony,
00:40:27
dice que no lo vende. Y en tiempo real, pues lo pasa. Y tú le preguntas, quiero comprar la pete.
00:40:34
los modelos ahora ahora realmente
00:40:40
casi lo que quieres en el momento
00:41:04
funcionar funciona
00:41:07
a ver, no es perfecto
00:41:10
pero si se puede hacer
00:41:11
¿vale?
00:41:13
entonces bueno, este es el modelo GPT original
00:41:15
obviamente después
00:41:17
la primera versión de GPT era
00:41:19
2020 fue la primera versión
00:41:21
de GPT
00:41:23
y al final
00:41:24
GPT-3 y GPT-4 es lo mismo pero más grande
00:41:27
y mete muchos más parámetros
00:41:29
y mucha más información
00:41:31
y es capaz de experimentar
00:41:32
luego por ejemplo
00:41:35
si tú quieres hacer un panel de unicom
00:41:37
puedes hacer
00:41:40
una serie de documentos que el modelo no haya visto
00:41:41
y
00:41:44
se lo puedes
00:41:46
entrenar
00:41:49
¿por qué?
00:41:49
porque el modelo generaliza bien
00:41:52
todo lo que tú quieras pero hay palabras que no conoces
00:41:54
entonces te vas a dar palabras que no conoces
00:41:56
y si hay palabras que no conoces
00:41:58
pues lo que te hizo
00:42:00
¿Cómo funciona esto en inglés? Tú le has metido a los brutos textos en español, textos en inglés, textos en alemán, tú le metes todo ahí de golpe.
00:42:01
no le están diciendo como activamente esto y esto es introducido
00:42:18
todos los idiomas
00:42:25
y esto para el nuevo futuro
00:42:29
entonces
00:42:30
es un idioma
00:42:32
entonces
00:42:34
esta parte ya es más
00:42:37
vale, uno de los principales
00:42:39
todo el mundo los conoce
00:42:42
porque todo el mundo conoce este tipo de modelos
00:42:43
entonces, este es el modelo que va a ir a definir
00:42:46
entonces, este es como
00:42:48
a lo que son inicialmente pero luego como hemos visto son capaces de producir porque
00:42:49
al final tú le dices produce méxico y lo acaba traduciendo que al final hay que lo que puede
00:42:55
pasar vamos a pensar porque la misma en urbana que dice el perro es la misma en urbana nacional
00:43:01
que activa el perro es el perro que es lazy tendrá una urbana adelante que le diga que es cambiar luego el idioma
00:43:09
pero realmente al final el conocimiento de la frase es la misma
00:43:16
es el mismo concepto
00:43:20
el resumen, esto es muy típico
00:43:22
yo lo he probado mucho, cuando tienes un documento muy grande
00:43:27
te lo pasas y le dices, hazme un resumen
00:43:31
aquí hay una cosa que es importante
00:43:33
el contexto
00:43:36
esto tiene una limitación
00:43:39
los modelos tú no los puedes meter
00:43:44
toda la información del mundo
00:43:46
tú cuando los entrenas
00:43:48
los vas entrenando con cachitos
00:43:49
tú le metes unos cachitos
00:43:51
y le metes otros cachitos
00:43:52
entonces tú cuando
00:43:53
si tú le metes un cartel más o menos grande
00:43:57
lo que va a hacer el modelo es cortar
00:43:59
no sé si lo habéis visto
00:44:00
pero le metes un texto muy grande
00:44:03
al par de la información que se queda afuera
00:44:04
porque no cabe
00:44:07
como os he comentado
00:44:08
tú no le vas a poner un bloque
00:44:10
pero eso no significa
00:44:11
que yo lo puedo meter
00:44:14
todo el mundo
00:44:15
porque
00:44:16
a ver
00:44:16
puedo hacer
00:44:17
pero claro
00:44:18
el modelo crece exponencialmente
00:44:19
sabes
00:44:20
tú puedes hacer un modelo
00:44:21
de un millón de entradas
00:44:23
o sea de un millón
00:44:24
de palabras
00:44:24
pero el modelo crece
00:44:25
exponencialmente
00:44:26
y todo
00:44:27
aunque los últimos modelos
00:44:27
son bastante grandes
00:44:29
te puedes meter
00:44:30
bastantes filas de palabras
00:44:32
finales
00:44:33
si tienes
00:44:35
que te propenas
00:44:36
y este tipo de gente
00:44:37
pues tienes
00:44:38
cosas
00:44:39
tengo el dinero
00:44:39
nosotros teníamos una base de datos
00:44:41
las vacaciones
00:45:00
va a ser capaz de buscar la información dentro de mi base de datos y va a poder recuperar a lo mejor
00:45:05
en el texto no pone las vacaciones que le corresponde a un empleado puede disfrutar
00:45:19
tantos días obviamente no es exactamente en un buscador que si no es la palabra
00:45:30
ahora como obviamente sabemos que comprende el lenguaje pues es capaz de
00:45:39
responder
00:45:45
la información
00:45:49
cuando yo quiero obtener
00:45:59
una
00:46:08
de esta palabra de este texto las a las personas
00:46:09
a ver al final un charco de una estructura verás lo mismo solo voy a estar virtual
00:46:25
es que tiene información previa por ejemplo tiene una empresa y tienen los datos de trabajador los
00:46:33
y no conoce nada
00:46:46
ahora mismo esto bueno pero todo esto es posible aquí vamos por si queréis decir algo
00:46:49
si quieres preguntar lo que sea
00:46:58
nadie
00:47:07
la siguiente es la que comentó cosas de educación que puede ser
00:47:15
y me interesa un poco también saber yo
00:47:22
qué problemas hay en la educación
00:47:27
todos estos modelos
00:47:34
en mi hogar
00:47:44
porque no sé cómo
00:47:50
es
00:47:54
muy fiable y que tiene un lenguaje periodístico que luego está
00:48:01
muy bien para hacer artículos pero generar un artículo de tax claro si tú le metes el
00:48:14
esto es
00:48:19
aquí
00:48:28
y
00:48:42
utilizado
00:48:47
que no han tenido este tipo de problemas
00:48:53
ellos curan y perjuran de que han usado datos públicos, no lo saben, si esto pasa tampoco a mi me van a hacer mal, porque ellos necesitan un artículo que está digamos en público, entonces a mi probablemente no lo pueden hacer nada, yo puedo cambiar el modelo por otro
00:48:58
Pero, por ejemplo, los datos pueden ser públicos y estar haciendo un scrapping que a lo mejor no está automatizado.
00:49:18
Sí, de hecho eso lo hacen.
00:49:25
Pero claro, eso no es lo que vamos a mostrar.
00:49:27
Y el New York Times, yo me puedo creer como lo han picado.
00:49:30
Porque al final de ellos lo que hacen es entrar en un modelo que detecta.
00:49:34
Según lo que han cogido, han cogido un modelo para detectar que el modelo hace una escena de la cabeza.
00:49:37
y detectas
00:49:42
y le pasan los artículos
00:49:44
de New York Times
00:49:46
y le dicen
00:49:48
¿este artículo es de New York Times o no?
00:49:50
y al final
00:49:52
supongo que la van a descartar
00:49:54
¿no es serio?
00:49:56
claro, realmente no lo sé
00:49:59
porque realmente no se me ha detectado
00:50:00
porque, o sea, no te va a dar la información
00:50:03
es que va a perforar siempre
00:50:04
que no nos va a dar
00:50:07
también hay
00:50:08
hay una vez por ejemplo que el otro día
00:50:11
salió hace unas semanas
00:50:22
tenemos un poco la imagen trabajo modelo
00:50:29
el modelo previo ya ha modificado a nivel de píxeles que los humanos no ve si no ve
00:50:33
y el modelo se sucia
00:50:46
pero no sé cómo han hecho pero
00:50:56
un castillo de imágenes de castillos que tiene esta red que envenena
00:50:59
el resultado que le va a dar va a ser
00:51:14
la calidad que
00:51:16
al final, nice test
00:51:18
sí, sí, o sea, pero con el EPS
00:51:19
más difícil, porque tú el texto lo ves
00:51:23
sí, cuando el texto
00:51:25
es el plan
00:51:26
puede venir
00:51:28
y es un plan
00:51:29
tú no puedes saber, por ejemplo, si eso ha entrado
00:51:32
o no con unos datos, o sea, tú puedes pensar
00:51:35
que la resta de un resultado parecido a lo que
00:51:36
la resta es de una persona
00:51:39
en realidad es un estilo con una persona
00:51:40
tú no puedes decir realmente que este
00:51:42
que este modelo ha aprendido de mí, o de ti.
00:51:44
Si tú tienes una línea de distancia artificial que ve como el reverte,
00:51:48
pues el reverte puede decir, esta línea de distancia artificial me está plagiando.
00:51:53
Sí, entonces supongo que es el que yo le he mostrado antes.
00:51:57
Bueno, no lo podemos notar porque hay herramientas para ese replacio
00:52:00
que dice que esto lo he moverto más o menos un 90%
00:52:04
Tiene que ir a la derecha.
00:52:07
Tiene que ir a la derecha, pero bueno, así tú vas...
00:52:09
hasta los modelos sentados para ti porque vas a decir que este modelo ha aprendido
00:52:11
realmente no puede demostrar que si tienes una red que se diga que este
00:52:20
este artículo está escrito por mí está realmente trae una respetada para que
00:52:37
no sé a qué nivel puede demostrar
00:52:41
pero no sé si no
00:52:45
todavía
00:52:51
para que no se descontrole
00:53:00
a lo mejor lo que tengo que hacer primero es la legislación
00:53:13
de duración del país
00:53:19
y todo lo que se haga de esto
00:53:21
en estos parámetros
00:53:25
antes de enterrarlos pero seguramente las dos cosas
00:53:27
esto
00:53:36
de lo que dice la educación en España
00:53:46
y que esto no...
00:53:50
Sí, eso lo hacen, muchas veces
00:53:53
han analizado las respuestas
00:53:56
el resultado luego lo pasan por una vez
00:53:57
que termina si es un resultado, digamos
00:54:00
legal o no
00:54:03
pero tú has enterado una respuesta que es clara
00:54:07
¿estás supervisado o no?
00:54:09
esa parte sí que es supervisada
00:54:12
pero el modelo grande
00:54:13
son mitigaciones
00:54:15
quiero un artículo de educación que hable de
00:54:20
deporte a lo mejor la palabra deporte es un artículo de fútbol
00:54:34
o solamente va a estar relacionado, entonces tú puedes
00:54:41
coger artículos y los puedes
00:54:43
contextualizar en una base de datos, entonces una persona
00:54:45
te hace mirar los documentos
00:54:47
únicamente le dices, yo te doy
00:54:49
10 clases, como hemos visto, y le dices
00:54:51
vale, ¿y este texto a qué clase te pertenece?
00:54:53
un punto, un punto, el otro va a ser un punto
00:54:55
y va a funcionar bastante bien
00:54:57
vale, como se trata de multidioma, obviamente tú le metes
00:54:59
le metes en inglés, le metes en español
00:55:01
o alemán y
00:55:04
va a ver si está funcionando
00:55:05
la opción, son muy útiles para la opción
00:55:07
al final como se ha dicho con el encoder de poder de transforme capaz de equilibrar las posiciones
00:55:09
en el contenido
00:55:15
por ejemplo
00:55:17
genera ejercicio
00:55:18
tú le das un texto
00:55:19
de educación
00:55:19
y le dices
00:55:20
eh
00:55:21
dime preguntas
00:55:22
para este artículo
00:55:25
en concreto
00:55:26
mandas al niño
00:55:26
le dices
00:55:27
le mandas las preguntas
00:55:28
en función de
00:55:29
si no tienes que currar
00:55:30
entonces
00:55:32
en inglés
00:55:33
a ver
00:55:33
esto lo hace
00:55:34
el niño
00:55:34
claro
00:55:35
claro
00:55:35
lo vio
00:55:36
con esto
00:55:38
y no
00:55:39
tú lo dices
00:55:40
para generar ejercicio
00:55:40
es que yo lo uso
00:55:41
para el joven
00:55:42
claro
00:55:42
yo creo que
00:55:43
la forma de valorar el esfuerzo que un alumno tiene que hacer para resolver una tarea
00:55:45
pero
00:55:53
resumen de síntesis
00:56:02
eso con google maps
00:56:14
yo que sepa
00:56:19
yo pienso que cada vez nos volvemos tontos
00:56:23
con este tipo de herramientas
00:56:25
yo antes con google maps sabía considerar
00:56:26
en cualquier momento que haya
00:56:28
pero más o menos tiene una cierta orientación
00:56:30
y ahora yo con google maps no sé ni ir a
00:56:31
¿cuál?
00:56:34
eso es lo que yo creo que hay que revolucionar
00:56:36
sí, pero vamos a ver cómo
00:56:38
porque cada vez existe la herramienta
00:56:40
a ver qué le haces, que no lo hago
00:56:42
en este ámbito del sitio
00:56:43
no sólo
00:56:52
los tipos de contestas
00:57:14
que yo pensaba
00:57:20
todos hemos visto
00:57:35
tenemos como hemos dicho como bien dicho los retos y monedales son los datos como entrenan
00:57:46
los entrenamientos luego el modelo
00:57:57
entonces
00:58:02
el modelo
00:58:12
todo lo que le ha dicho piensa que es correcto
00:58:33
entonces él dice
00:58:37
la siguiente palabra
00:58:39
la siguiente palabra más probable es esa
00:58:39
la siguiente palabra más probable
00:58:43
¿qué pasa? él no asume que la palabra que le ha dicho
00:58:44
está mal, es como una persona
00:58:47
yo voy hablando y digo
00:58:49
me he equivocado, perdón
00:58:50
como me ha pasado antes
00:58:51
entonces él asume que todo lo que dice está bien
00:58:53
entonces claro, hay un momento en que empieza a alucinar
00:58:56
y empieza a decir
00:58:59
última ocasión
00:59:01
pero claro, si luego lo veis
00:59:02
son divulgaciones por él
00:59:03
o sea, que es un texto con que
00:59:05
se le ha ido la olla, pero está bien
00:59:08
está bien escrito
00:59:10
¿sabes? ese es el problema, porque él asume que lo ve y que está bien
00:59:11
y pues vale
00:59:14
de hecho
00:59:16
eso pasa, por ejemplo
00:59:19
de hecho, mira, hay un problema, por ejemplo
00:59:21
que está entendiendo los funcionarios
00:59:23
toda la gente, vale, él ha aprendido que
00:59:24
el antiguo
00:59:26
que es el otro día
00:59:28
porque el aprendido que era antes
00:59:30
yo le digo el nuevo de twitter es de los más
00:59:40
y me sigue diciendo que es cuando yo le he dicho definitivamente que es su pasada
00:59:46
muchas cosas hay una técnica que es coger una red y que luego salen la pregunta a otra vez un poco
00:59:53
diferente y la pregunta es la primera y al final entiendan cómo es que son técnicas de
01:00:04
porque todavía una mayor cantidad de páginas
01:00:11
en medio de este corregido esta es la gracia
01:00:16
seguro que en algún sitio de internet
01:00:23
derivado de la primera parte que es la capa de atención que es la capa de acción
01:00:46
de la cual está el valor están relacionados pues solamente tiene una razón muy directa en ese
01:01:10
claro esto pasa mucho con gpt pero en los nuevos modelos no está sucediendo
01:01:19
han creado unos modelos
01:01:49
han hecho como os he dicho que cada capa
01:01:58
y han cogido modelos que se especializan en cada una de las cosas
01:02:01
de tal forma que hay modelos
01:02:10
para que el trono en alguna de las cosas para que el trono sea mucho más relevante y no divague
01:02:13
porque hay una capa que ha perdido mucho esa parte pero esta capa que no los modelos así
01:02:32
se ha mitigado bastante bueno aquí con estos estallentados vamos aquí al final
01:02:40
pues un segmento de datos
01:02:46
que coges el modelo y lo reentrenas intentando mitigar
01:02:56
más representativos y luego evaluar
01:03:10
los datos
01:03:18
sintéticos os he dicho al final yo puedo una palabra
01:03:24
una organización y quitarle el nombre o al quitar una palabra y poner datos sintéticos para no meter
01:03:33
datos datos sensibles para que no aprendas de estas cosas por ejemplo si tú quieres para un
01:03:45
caso concreto de ya no preguntas y respuestas pero si tú lo quieres por ejemplo para que se
01:03:55
resumas de estas cosas es muy útil lo único que quiere es que sepa lenguaje
01:04:02
para evitar que asocien conocimientos y luego alucinación a ver hay una parte muy fácil
01:04:10
el modelo y luego reentrenarlo para cada una de las encuestas como se ha dicho
01:04:20
este es el contexto y este es el resumen
01:04:30
obviamente el modelo no hace modelo digamos estoy jugando para que
01:04:39
pero estoy quitando la continuación porque lo he
01:04:44
para que se fijen mucho en el contexto y resumen con esto es muy útil para las
01:05:01
solucionaciones caso concreto de que querrán tarea muy específica esto funciona muy bien
01:05:08
otra cosa que se ha comentado aplicaciones y ejemplos pues yo te pongo un ejemplo
01:05:15
en teoría se hace este es el twitter responde con esta pregunta yo tengo muchos ejemplos para
01:05:20
que tú estás después a lo que yo quiero y se fijan mucho en lo que no lo que él sabe sino
01:05:36
lo que lo que yo estoy metiendo en el contexto con esto me lleva bastante las funciones que
01:05:41
en general pero para casos muy concretos y que se te funcionan
01:05:46
en la conclusión como al final esto es un mundo abierto entonces hay que comprender los límites
01:05:56
y luego una variación de la privacidad y luego estos modelos tienen que ser más adaptables y
01:06:04
continuamente están haciendo al final lo que hacen es
01:06:25
cabellos más grandes, más grandes, más grandes
01:06:34
vale
01:06:36
y ya está
01:06:38
- Subido por:
- EducaMadrid
- Licencia:
- Todos los derechos reservados
- Visualizaciones:
- 7
- Fecha:
- 26 de febrero de 2024 - 10:59
- Visibilidad:
- Clave
- Duración:
- 1h′ 06′ 46″
- Relación de aspecto:
- 1.78:1
- Resolución:
- 1280x720 píxeles
- Tamaño:
- 180.12 MBytes