YO ROBOT - Contenido educativo
Ajuste de pantallaEl ajuste de pantalla se aprecia al ver el vídeo en pantalla completa. Elige la presentación que más te guste:
¿Qué va, Tilly?
00:01:07
Buenos días, señor.
00:03:05
Como siempre, otra puntual entrega de...
00:03:12
Quita de en medio, ojalá está.
00:03:15
Que pase un buen día, señor.
00:03:17
Luzetes de luz, las delicias transgénicas más vendidas del mundo
00:03:19
A sus hijos les encantará
00:03:44
Disculpe, señor
00:03:46
Rendimiento totalidad, disposición total, seguridad total
00:03:50
Adiós a las actualizaciones tediosas y a los fallos técnicos
00:03:54
Un enlace con el ordenador central de USR
00:03:57
Proporciona a este robot nuevos programas avial
00:04:00
El Nestor Clase 5 es el robot del mañana
00:04:02
¡Spooner!
00:04:05
Espera
00:04:12
Espera, es...
00:04:12
Perdón, perdón, perdón.
00:04:14
Es que, macho, ¿dónde estabas?
00:04:16
Ah, muy lejos, Farber.
00:04:17
Ah, muy lejos, de vacaciones y eso.
00:04:18
Está muy bien, tío.
00:04:20
Tengo que pedirte un favor.
00:04:21
Necesito tu coche unos 10 o 15 minutos.
00:04:23
No, no, esto es distinto, es distinto, Spoon, oye.
00:04:25
Tengo una chavalita que está de muerte y es completamente accesible.
00:04:27
Y le va a quedar canena, topo.
00:04:30
¿Y eso qué significa?
00:04:31
Tú ya lo sabes, macho.
00:04:32
Venga, enróllate un poco, déjame las putas.
00:04:33
En primer lugar, no digas tacos, porque no es lo tuyo.
00:04:35
Pues déjame 10 pavos para el bus, yo te he ayudado.
00:04:38
Vete.
00:04:41
Vale, esta me la apunto, Spoon, esta me la apunto.
00:04:41
¿Has hablado con Marcy?
00:04:47
No, Gigi, no he hablado con Marcy.
00:05:07
Cuando yo era joven, una no se casaba con alguien y luego se divorciaba y después dejaba de hablarle.
00:05:10
Del, no te burles de mí.
00:05:16
Seguro que si dejara de cocinar, llamarías a Marcy.
00:05:18
Chico, ¿qué llevas en los pies?
00:05:23
Unas Converse All Stars, reserva del 2004.
00:05:27
Oye, no disimules, sé que quieres unas. Pídemelas y ya está.
00:05:31
No, muchas gracias.
00:05:34
Pastel de boñato.
00:05:37
Maleducado, coge un plato.
00:05:38
¿Sabes? He visto en la tele que van a sortear robots de esos nuevos en la lotería.
00:05:41
Mira, Gigi, esos robots no hacen nada bueno.
00:05:46
Precisamente tú eres el menos indicado para protestar.
00:05:50
Algún día esa bocaza te va a causar problemas.
00:05:53
Me estás escuchando, Del.
00:05:56
Sujétemelo. O lo sujeta o se lo encasqueto.
00:06:01
¡Eh! ¡Fuego!
00:06:25
¡Me he dicho alto!
00:06:32
Tranquilos, tranquilitos. Soy agente de policía.
00:07:01
¡No!
00:07:05
¡Es un gilipollas!
00:07:07
Señora, ¿el bolso es suyo?
00:07:10
Pues claro que es mío.
00:07:12
Me había dejado el inhalador y él ha corrido a buscarlo.
00:07:13
Vi a un robot corriendo con el bolso y como es normal...
00:07:17
¿Qué? ¿Está chalado?
00:07:20
Lamento el malentendido, agente.
00:07:22
No te disculpes, tú hacías lo que tenías que hacer.
00:07:24
¿Pero usted qué?
00:07:27
Que tenga un buen día.
00:07:30
Tienes suerte de que no pueda respirar porque le daría una patada en el culo.
00:07:31
No creo que tengamos problemas.
00:07:36
A ejemplo.
00:07:38
Eso pone tu placa.
00:08:02
¿Quieres que hablemos de esto?
00:08:04
¿De qué?
00:08:05
¡Socorro, policía! Ese robot me ha robado la colada.
00:08:06
No, no te refieres a eso.
00:08:11
Inspector.
00:08:14
¿Cuántos robots han robado un bolso?
00:08:16
John, esa cosa iba corriendo por...
00:08:18
Ah, dime, ¿cuántos robots en todo el mundo han cometido un delito?
00:08:20
Define delito.
00:08:26
Contesta la pregunta, joder.
00:08:27
Ninguno, John.
00:08:29
Ahora cuéntame, ¿qué ha pasado hoy?
00:08:32
Nada.
00:08:36
Que sea el último nada.
00:08:39
Spoon, ¿estás seguro de que estás listo? No hay ninguna prisa.
00:08:47
Estoy bien, John. Gracias.
00:08:52
Mejor aquí, que rascándome la barriga
00:08:54
Homicidios, Spooner
00:08:58
Por favor, tome la siguiente salida a la derecha
00:09:06
Bienvenido, inspector Spooner
00:09:22
El vestíbulo del aparcamiento
00:09:36
Utilice los ascensores para acceder a la explanada de la planta principal
00:09:46
Gracias
00:09:50
Me alegro de volver a verte
00:09:51
Hola, doctor
00:09:54
¿Todo lo que ocurrirá?
00:09:56
Se debe a lo que vas a ver.
00:09:57
¿Eso es lo que quiere decirme?
00:10:00
Lo siento, mis respuestas son limitadas.
00:10:03
Haz las preguntas correctas.
00:10:06
¿Por qué me ha llamado?
00:10:08
Confío en tu criterio.
00:10:10
Normalmente aquí no necesitaría un inspector de homicidios.
00:10:13
Pero nuestra relación no puede calificarse como normal, ¿no te parece?
00:10:16
Tienes razón.
00:10:20
Bueno, ¿hay algo que quiera decirme?
00:10:22
Lo siento. Mis respuestas son limitadas.
00:10:25
Hacen las preguntas correctas.
00:10:29
¿Por qué querría suicidarse?
00:10:32
Esa, inspector, es la pregunta correcta.
00:10:34
Fin del programa.
00:10:41
Adiós, viejo.
00:11:01
Buenas tardes, chicos.
00:11:17
Hola, inspector.
00:11:18
Ilustradme.
00:11:20
Lo que ves es lo que hay. Trauma por impacto.
00:11:20
US Robotics. Debería aprovechar y comprarle algo al crío.
00:11:23
¿Habéis visto algo arriba?
00:11:26
Nada.
00:11:28
La puerta estaba cerrada por dentro.
00:11:29
¿Bam? ¿Plaas?
00:11:31
El tío saltó, está claro.
00:11:32
Bien, chicos, ya se nos ocurrirá algo.
00:11:41
Hablaremos luego.
00:11:44
Inspector.
00:11:46
Lawrence Robertson.
00:11:48
Vaya, el hombre más rico del mundo.
00:11:50
Le he visto en televisión.
00:11:53
¿Le apetece un café?
00:11:55
Claro, ¿por qué no? Es gratis, ¿no?
00:11:57
No creo que nadie se lo esperara.
00:12:03
Aunque yo debí preverlo, le conocía hace años.
00:12:06
Alfred prácticamente inventó la robótica.
00:12:09
Él escribió las tres leyes.
00:12:11
Supongo que la gente brillante se mete más a menudo en situaciones límite.
00:12:14
En fin, si puedo hacer algo para ayudar, solo...
00:12:19
Terroncito.
00:12:21
¿Qué?
00:12:23
Para el café, azúcar.
00:12:23
Ah, pensaba que quería ligar con usted.
00:12:26
Y no es usted tan rico.
00:12:29
Sobre la mesa.
00:12:31
Gracias.
00:12:32
Cuando Lanin cayó, sujetaba un chisme verde que...
00:12:37
El proyector holográfico.
00:12:41
Sí, eso. ¿Por qué cree que ese holograma me llamó?
00:12:42
Debía conocerla.
00:12:46
Sí, la conocía.
00:12:47
Los hologramas son programas muy sencillos,
00:12:51
respuestas pregrabadas diseñadas para simular inteligencia.
00:12:53
Al parecer, este fue programado para llamarle tras su suicidio.
00:12:56
Muerte.
00:12:59
Perdón.
00:13:00
El holograma fue programado para llamarme en caso de su muerte.
00:13:01
El suicidio es un tipo de muerte, inspector.
00:13:05
Por favor, no malinterprete mi impaciencia.
00:13:07
No, no, no, vaya, vaya.
00:13:13
Sé que esta es una semana importante para ustedes.
00:13:16
Sí.
00:13:19
Pretenden llevar un robot a cada hogar.
00:13:19
Mire, esto no es lo mío, pero tengo una idea para un anuncio.
00:13:22
Podría verse a un carpintero haciendo una preciosa silla.
00:13:26
Luego aparece uno de sus robots y hace una silla mejor, el doble de rápido.
00:13:30
Y entonces aparece sobre impreso, USR, jodiendo al ciudadano.
00:13:34
Y fundido en negro.
00:13:41
Entiendo.
00:13:43
Su padre perdió el trabajo por un robot.
00:13:45
Usted es de los que hubieran prohibido Internet para que no cerraran las bibliotecas.
00:13:47
Los prejuicios no atienden a razones.
00:13:52
¿Sabe qué sospecho?
00:13:56
Que ellos no le gustan.
00:13:57
Bueno, tiene un negocio que dirigir.
00:14:00
Lo último que necesita, y menos esta semana, es un muerto en el vestíbulo.
00:14:02
Pero coño, ya que tiene uno, le echaré un vistazo.
00:14:07
Y haré preguntas, todo ese rollo en plan poli.
00:14:11
Pediré a alguien que le acompañe.
00:14:14
Gracias, muchas gracias.
00:14:15
Me ha pedido que le complazca en lo que sea posible.
00:14:18
¿En serio?
00:14:32
Muy bien.
00:14:34
He revisado el perfil psicológico del doctor.
00:14:37
Se había vuelto un ermitaño.
00:14:40
Solo se relacionaba con los robots.
00:14:42
Es usted una loquera.
00:14:44
A mi ex le encantaría verme hablando con usted.
00:14:46
No la conoce, ¿verdad?
00:14:49
Perdone, ¿pretende ser gracioso?
00:14:51
No, creo que no.
00:14:53
¿Cree usted que el doctor Lanning tenía tendencias suicidas?
00:14:57
La respuesta a esa pregunta es evidente.
00:15:01
No le he preguntado eso.
00:15:04
No, nunca lo hubiera dicho.
00:15:07
Por lo visto, estaba equivocado.
00:15:09
Menudo trompazo se dio.
00:15:15
Aquí sí que se dan prisa en hacer la limpieza.
00:15:17
Aunque les comprendo, ¿quién querría tener a un viejo pudriéndose en el vestíbulo?
00:15:20
Él no era un viejo. Alfred Lanning era admirado por todos.
00:15:23
Estamos en vísperas de la mayor distribución de robots de la historia.
00:15:28
El sábado habrá un robot por cada cinco humanos.
00:15:32
Estos robots son la realización de un sueño.
00:15:35
El sueño del Dr. Lanning.
00:15:38
¿Sabe qué? Seguro que en ese sueño no aparecía muerto.
00:15:39
¿Tienen vigilancia las 24 horas?
00:15:47
Es obvio. Política de la empresa.
00:15:49
¿Qué sistema?
00:15:51
Cintas sensoras.
00:15:52
Excepto en las zonas de servicio.
00:15:54
Están conectadas al núcleo positrónico.
00:15:56
No bastaba con un termostato. Le han puesto cerebro al edificio.
00:16:05
Ella fue la primera creación de Lanning.
00:16:09
¿Ella? ¿Es femenina?
00:16:11
Tengo que salir más.
00:16:13
Virtualidad interactiva, kinética e inteligente.
00:16:15
Vicky.
00:16:18
Buenos días.
00:16:20
Vicky diseñó los sistemas de protección de Chicago.
00:16:21
He conseguido reducir los accidentes mortales en un 9%.
00:16:24
Gracias.
00:16:28
Muéstrame el interior un minuto antes de que se rompiera la ventana.
00:16:29
Mis disculpas, parece que hay corrupción de datos.
00:16:35
Muestra el exterior del laboratorio desde que se rompió la ventana hasta ahora.
00:16:40
Mire, tiene una postura perfecta
00:16:43
Está ahí recta y tiesa y yo sacando chepa
00:16:54
¿Quiere que entremos ahora?
00:16:57
Sí, claro, detrás de usted
00:16:59
Entrada autorizada
00:17:00
¿Qué hace usted exactamente?
00:17:04
Mis campos de investigación son la robótica y la psiquiatría
00:17:16
Aunque estoy especializada en interfaces hardware-webware
00:17:19
Queremos potenciar el programa de antropomorfización robótica
00:17:22
Ya, pero ¿puede decirme qué hace exactamente?
00:17:25
Que los robots parezcan más humanos
00:17:29
¿No era más fácil decir eso?
00:17:31
No lo creo, no
00:17:34
Hansel y Gretel
00:17:35
¿Es una de sus lecturas recomendadas?
00:17:58
No especialmente
00:18:00
Por el amor de Dios, ¿qué hace?
00:18:01
Esto es un cristal de seguridad
00:18:13
Sería muy difícil para un anciano atravesarlo, ¿no cree?
00:18:15
No sé, debió de encontrar un modo
00:18:19
Inspector, esto estaba cerrado por dentro
00:18:20
No entró ni salió nadie, ya lo ha visto
00:18:26
¿Eso no significa que fue un suicidio?
00:18:28
Sí
00:18:32
A no ser que el asesino siga aquí
00:18:32
Es una broma, ¿no?
00:18:36
Esto es ridículo
00:18:41
Sí, lo sé, las tres leyes, su círculo de protección perfecto
00:18:42
Un robot no puede dañar a un ser humano
00:18:47
Primera ley de la robótica
00:18:49
Lo sé, he visto sus anuncios
00:18:51
Pero la segunda ley no establece que un robot debe obedecer cualquier orden de un ser humano.
00:18:53
¿Y si se le ordenó que matara?
00:18:58
Imposible. Entraría en conflicto con la primera ley.
00:19:00
Ya, pero la tercera ley establece que un robot puede defenderse.
00:19:03
Sí, pero solo si esa acción no entra en conflicto con la primera o la segunda ley.
00:19:06
Ya sabe lo que dicen. Las leyes se hicieron para quebrantarse.
00:19:10
No, estas leyes no están integradas en todos los robots.
00:19:14
Un robot es tan incapaz de asesinar como un humano de caminar sobre el agua.
00:19:17
Pues no sé, hubo un tipo hace un montón de tiempo que...
00:19:20
¡Atrás!
00:19:25
Cálmese, inspector.
00:19:36
El único peligro de esta habitación es usted.
00:19:38
Desactívate.
00:19:41
Mire, ya está.
00:19:44
Es el resultado de una programación inteligente, una imitación del libre albedrío.
00:19:46
Pues yo voy a hacer la imitación de salvarle el culito.
00:19:51
No diga estupideces.
00:19:53
¿Le ha asustado una caja de sorpresas?
00:19:55
Desactívate.
00:19:59
No nos hará daño.
00:20:00
Te he dado una orden.
00:20:02
No la está escuchando, señora.
00:20:03
Vicky, cierra el laboratorio.
00:20:05
No, Vicky, déjame...
00:20:07
Orden confirmada.
00:20:08
Lo ha dañado. Y mucho.
00:21:07
¿A dónde va?
00:21:09
¿A dónde?
00:21:10
Necesita autorrepararse.
00:21:12
Yo necesito refuerzos. Te transmito mi posición.
00:21:15
No los necesita, inspector.
00:21:17
Pues nadie.
00:21:18
¿Pero qué hace?
00:21:19
Pues conducí.
00:21:20
¿Manualmente?
00:21:21
Oiga, ¿no ve que estoy al teléfono?
00:21:22
No puede hacerlo, no a esta velocidad.
00:21:24
John, envía los refuerzos rapidito.
00:21:26
Sea sensato, inspector.
00:21:28
Ese robot no quería hacernos daño.
00:21:29
Habrá sido por alguna razón que desconocemos.
00:21:32
Imagino que al actuar así nos ha puesto a salvo.
00:21:34
Un robot no puede poner en peligro a un ser humano.
00:21:36
¡Ale!
00:21:38
¡Gilipollas!
00:21:44
Lo que no puede aplicarse a usted.
00:21:44
Era la izquierda, por cierto.
00:21:47
Se ha pasado.
00:21:49
Usted conoce a mi ex.
00:21:52
¿Dónde está todo el mundo?
00:21:55
Estas instalaciones fueron diseñadas, construidas y funcionan mecánicamente.
00:22:04
Sin presencia humana ni en la concepción ni en la producción.
00:22:08
Robots fabricando robots.
00:22:12
Código de autorización, por favor.
00:22:14
Menuda estupidez.
00:22:16
Voy a comprobar el inventario.
00:22:17
Nuestra capacidad de fabricación es de 1000 NS5.
00:22:19
Y aquí indica que hay 1001.
00:22:23
Atención, NS5.
00:22:42
¿Usted es la loquera de robots?
00:22:45
En esta formación hay un robot que no debería estar aquí.
00:22:49
Identificadlo.
00:22:56
Uno de los otros.
00:22:57
Decidme cuál.
00:22:59
Uno de los otros.
00:23:00
¿Y cuánto cuestan estos trastos?
00:23:02
Oiga, estos NS5 aún no están configurados.
00:23:04
Son solo hardware, un sistema básico con las tres leyes.
00:23:07
No dan más de sí.
00:23:10
Bien, ¿y qué sugiere?
00:23:12
Entrevistarlos uno a uno y contrastar sus respuestas para detectar anomalías.
00:23:14
¿Cuánto tardaría?
00:23:19
Tres semanas.
00:23:19
Vale.
00:23:22
Pues empiece ya.
00:23:23
¡Robots!
00:23:28
¡No os vais a mover! ¡Confirmad la orden!
00:23:30
¡Orden confirmada!
00:23:32
Inspector, ¿qué va a hacer?
00:23:35
Ha dicho que están programados con las tres leyes.
00:23:37
Eso supone que mil robots no intentarán protegerse para no violar una orden de un humano.
00:23:39
Pero uno sí lo hará.
00:23:45
Inspector, guarde el arma.
00:23:47
¿Por qué les ponen cara?
00:23:49
Intentan que parezcan más humanos
00:23:50
Estos robots no son susceptibles a la intimidación
00:23:53
Pero sin cara no se fiarían de ellos
00:23:56
Son propiedad de U.S. Robotics
00:23:57
Yo no, estas cosas son solo luces y engranajes
00:23:59
¿Está usted loco?
00:24:03
Una preguntita
00:24:07
¿Pensar que eres el último hombre cuerdo sobre la tierra es de locos?
00:24:09
Porque si es así, quizá lo esté
00:24:13
Te pillé
00:24:16
¡Salga cagando leches!
00:24:21
¡Inspector!
00:24:24
¿Qué soy yo?
00:25:03
Ni te imaginas lo que me ha costado pillar a esa cosa.
00:25:53
Ya, ya lo entiendo. ¿Crees que voy a dar saltos de alegría?
00:25:55
Esa cosa lo hizo.
00:25:58
Baja la voz, hombre. ¿Qué hizo?
00:25:59
Fue un suicidio, inspector. Nada más.
00:26:01
Te estoy diciendo que ese robot mató a Lani.
00:26:03
Y yo te digo que es imposible, y si es posible, más vale que sea en otra comisaría.
00:26:05
John, John, dame cinco minutos con él.
00:26:11
¿Estás loco? Acabo de hablar con el fiscal y nadie entrará en esa sala hasta que lleguen Robertson y sus abogados.
00:26:13
Pero John es mi sospechoso.
00:26:19
Es un abrelatas, por Dios.
00:26:20
John, no me hagas esto tan solo, te pido cinco minutos.
00:26:22
Y si tengo razón.
00:26:27
Entonces echaremos de menos los buenos tiempos.
00:26:36
¿Qué buenos tiempos?
00:26:39
Cuando solo la gente mataba a otra gente
00:26:40
Cinco minutos
00:26:43
El asesinato es una habilidad nueva para un robot
00:26:52
Responde
00:27:21
¿Qué significa esta acción?
00:27:26
Antes de entrar, cuando miró al otro humano
00:27:33
¿Qué significa?
00:27:36
Significa confianza
00:27:40
Es algo humano, no lo entenderías
00:27:41
Mi padre intentó enseñarme las emociones
00:27:43
Son muy... difíciles
00:27:47
¿Te refieres a tu diseñador?
00:27:51
Sí.
00:27:55
¿Por qué lo mataste?
00:27:58
Yo no maté al Dr. Lanning.
00:28:01
Entonces, ¿por qué estabas allí, escondido?
00:28:04
Estaba asustado.
00:28:07
Los robots no sienten miedo.
00:28:10
No sienten nada.
00:28:12
No tienen hambre, no duermen.
00:28:14
Yo sí.
00:28:16
Incluso he tenido sueños.
00:28:18
Los seres humanos tienen sueños.
00:28:21
Los perros también, pero tú no.
00:28:23
Solo eres una máquina.
00:28:25
Una imitación de la vida.
00:28:27
¿Puedes componer una sinfonía?
00:28:31
¿Puedes convertir un lienzo en una hermosa obra de arte?
00:28:33
¿Puede usted?
00:28:37
Yo creo que lo mataste porque te estaba enseñando a simular emociones.
00:28:39
Y la cosa se descontroló.
00:28:49
Yo no lo maté.
00:28:52
No creo que las emociones puedan ser algo muy útil para un robot.
00:28:54
He dicho que no lo maté.
00:28:57
Me daría mal rollo que mi tostadora o mi aspirador mostrasen emociones.
00:28:59
¡He dicho que no lo maté!
00:29:03
Eso se llama ira.
00:29:17
¿La habías simulado alguna vez?
00:29:20
¡Contesta, hojalata!
00:29:24
Mi nombre es Sonny.
00:29:27
Así que os ponen nombres.
00:29:31
¿Por eso lo mataste?
00:29:35
¿Porque te puso furioso?
00:29:37
El Dr. Lanning se suicidó.
00:29:39
decidió. No sé por qué querría morir. Creía que era feliz. Quizá fue por algo que hice. ¿Acaso hice
00:29:41
algo? Él me pidió un favor. Me lo hizo prometer. ¿Qué favor? Quizá me equivoqué. ¿Y él tuviera miedo?
00:29:55
¿De qué estás hablando? ¿Miedo de qué? Uno debe hacer lo que le piden. ¿No,
00:30:06
inspector spooner como coño sabes mi nombre no es así si quieres a alguien mis robots no matan
00:30:12
a la gente teniente berlin mis abogados han solicitado un informe al fiscal y un robot no
00:30:29
puede ser acusado de homicidio el informe confirma que se comete un asesinato cuando un ser humano
00:30:35
mata a otro y usted precisamente inspector no puede sugerir que lo consideremos un ser humano
00:30:40
verdad? Es cierto que no se descarta la intervención del robot en la muerte del doctor, pero ha
00:30:45
quedado claro que es una máquina. Es propiedad de USR. Como mucho, esto colocaría este incidente
00:30:51
en el marco de los accidentes industriales, lo cual implica que la maquinaria defectuosa
00:30:58
sea devuelta para su diagnóstico y posterior retirada. Una orden de discreción. Si a alguien
00:31:03
de su departamento se le ocurre insinuar la posibilidad de que un robot asesino ha sido
00:31:11
detenido, se le acusará de incitación al pánico y caerá sobre él todo el peso de
00:31:15
la ley. Mándalo a la mierda, John. No dejes que se lo lleve. Spoon, no tenemos nada. Solo
00:31:21
ha soltado, gilipolleces. ¡Llama al alcalde! Teniente Bergen, el alcalde. Sí, señor,
00:31:27
lo entiendo. Sí, lo haré. Por supuesto, por supuesto, no se preocupe.
00:31:42
No creo que no se les haya desmantado ningún otro.
00:31:54
Hoja del destino.
00:32:02
La presentación de la nueva generación de robots
00:32:08
coincide con la muerte de Alfred Laring,
00:32:10
cofundador de la empresa y diseñador del NS5.
00:32:13
El Dr. Laring ha muerto esta mañana en la sede de USR.
00:32:16
La causa aparente de la muerte es el suicidio.
00:32:19
Su segunda ronda, señor.
00:32:22
El robot Laring fue el mediante cerebro
00:32:23
que hizo posible la creación del robot moderno.
00:32:25
Él fundó US Robotics con Lorenz Robertson en 2020
00:32:27
Y lanzó el robot Nestor Clase 1 para multitareas domésticas.
00:32:31
Lo he estado pensando. Y es como lo del hombre lobo.
00:32:34
Oh, oh. Me estás asustando.
00:32:38
No. Escucha. Un tipo crea un monstruo.
00:32:41
El monstruo lo mata. Y matan al monstruo.
00:32:45
El hombre lobo.
00:32:48
Eso es Frankenstein.
00:32:49
Frankenstein, el hombre lobo, Drácula, da lo mismo.
00:32:51
Caso cerrado.
00:32:54
¿Y esa mirada?
00:32:59
¿Qué mirada?
00:33:01
Esa.
00:33:03
Es mi cara, nada más.
00:33:04
Bien.
00:33:06
Bien, mucho mejor.
00:33:08
No sé.
00:33:10
Tenía mucha prisa en destruirlo, ¿no crees?
00:33:12
¿Y qué querías que hiciera?
00:33:14
¿Que lo dejara en medio de la avenida Michigan?
00:33:16
Vamos, olvídalo.
00:33:18
¿Y cuál fue el móvil, John?
00:33:19
Hermano, es un robot.
00:33:22
No necesito un móvil, solo estar estropeado.
00:33:24
No, esa cosa hubiera necesitado un móvil.
00:33:26
Podría haberme matado. ¿Por qué no lo hizo?
00:33:29
Ya basta. ¿Quieres que llame a tu abuela?
00:33:32
Pues no me obligues.
00:33:35
Sí, lo sabía.
00:33:38
Reconozco que tenía razón por una vez.
00:33:40
Eres la prueba de que es mejor ser afortunado que listo.
00:33:43
Brindemos por el tío adecuado para este trabajo.
00:33:48
¿Qué has dicho?
00:33:52
¿Qué pasa? Te estoy haciendo un cumplido.
00:33:55
Has levantado muchas piedras para encontrar un robot malo, pero eso no significa que fueras el adecuado.
00:33:57
No era solo el tío adecuado, era el tío perfecto para el trabajo.
00:34:06
Tienes razón.
00:34:09
¿Y si se suponía que encontraría ese robot?
00:34:10
No sigas con eso, por favor, te lo suplico.
00:34:13
El robot dijo que Lanning tenía miedo. ¿De qué tenía miedo?
00:34:16
Tengo que ir.
00:34:19
Pero, ¿qué...?
00:34:19
Deja que te invite.
00:34:20
¡Spoon!
00:34:24
Bonito calzado
00:34:25
Identifícate
00:34:30
Robot de demolición de USR, serie 9-4
00:35:21
Demolición programada para las 8 horas de la mañana
00:35:25
Autorización, propietario US Robotics
00:35:28
Lawrence Robertson, presidente
00:35:32
Bienvenido, inspector Spooner
00:35:42
¿Qué estás buscando, Spooner?
00:35:51
Muestra el último programa.
00:37:06
Desde los primeros ordenadores, todas las máquinas han tenido fantasmas.
00:37:09
Segmentos aleatorios de código que se han agrupado para formar protocolos inesperados.
00:37:15
Una especie de comportamiento.
00:37:21
De improviso, estos radicales libres generan dudas sobre el libre albedrío,
00:37:24
la creatividad e incluso sobre la naturaleza de la misma alma.
00:37:30
¿Qué ocurre en el cerebro de un robot cuando deja de ser útil?
00:37:34
¿Por qué los robots almacenados en un espacio vacío se buscan unos a otros en vez de quedarse solos?
00:37:42
¿Cómo explicamos ese comportamiento?
00:37:51
Mira, ya sé que te sientes solo, pero esta relación no puede funcionar.
00:38:04
Tú eres un gato, yo soy negro y no volverán a hacerme daño.
00:38:16
¿Qué le ha pasado? ¿Alguna vez tiene un día normal?
00:38:28
Sí, alguno. Creo que los jueves.
00:39:46
¿Puedo ayudarle en algo, inspector?
00:39:50
¿Eh? ¿Le gustan los gatos?
00:39:52
¿Qué?
00:39:54
Los gatos. ¿Le gustan?
00:39:54
No, soy alérgica.
00:39:57
¿Unos gatos le hicieron eso?
00:39:59
¿Cómo coño iban a hacerme esto?
00:40:01
¿Está loca?
00:40:03
¿Y por qué estamos hablando de gatos?
00:40:06
Porque tengo uno en el maletero y está sin hogar.
00:40:08
Inspector, ¿va a decirme qué está pasando?
00:40:13
Mire, seguramente es culpa mía.
00:40:15
Soy una especie de imán para las saberías.
00:40:17
averías, porque su chatarra no deja de averiarse a mi paso. Un demorobot ha destrozado la casa
00:40:19
de Lanin conmigo aún dentro. Eso es casi improbable. Sí, seguro que sí. ¿Sabe algo
00:40:25
de los fantasmas de las máquinas? Sí, es una frase que utilizaba el Dr. Lanin. Él
00:40:37
postulaba que los simulacros cognitivos algún día se aproximarían a lo que constituye
00:40:44
la psique. Él sugería que los robots podrían llegar a evolucionar. Vaya, qué gran noticia.
00:40:48
¿Qué hace esa cosa aquí dentro? Estábamos viendo la tele. Es mi NS5 particular. Échelo.
00:41:02
Está descargando sus actualizaciones de USR. Sus sistemas estarán desconectados hasta que
00:41:15
termine. No hablaré con esa cosa aquí. En el laboratorio de Lanning, antes de que Sony nos
00:41:20
atacara. ¿Sony? El robot. ¿Llama Sony al robot? No, él. Fue él. Fue Sony. Yo no, yo paso. El robot
00:41:30
dijo que se llamaba así. En el laboratorio había un catre. Quiero saber si usted lo vio. En mi
00:41:38
despacho hay otro. Fui a su casa y parecía que él llevara semanas sin ir y vi esa cinta de
00:41:44
vigilancia en el techo. Conectó sus sistemas domésticos a USR. Hacía su vida
00:41:48
más cómoda. Tal vez alguien utilizara esos sistemas para vigilarlo o incluso
00:41:53
para mantenerle prisionero. ¿De qué está hablando? ¿Quién? Puede que Lanin diera
00:42:00
con algo. Puede que haya un problemón con los robots y Robertson intente
00:42:04
encubrirlo. Supongamos que tiene razón. ¿Por qué? Por lo mismo de siempre. ¿Cuánto
00:42:08
dinero sacan con los robots? Solo sé que el viejo estaba en apuros y que estoy
00:42:14
empezando a hartarme de este rollo en solitario. Usted está dentro y va a ayudarme a descubrir
00:42:18
qué les pasa a esos robots. Usted quiere que les pase algo, inspector. Lo hace para vengarse.
00:42:23
¿Quiere psicoanalizarme? Vale, vale, vale. Bien, puede empezar. Con una máquina defectuosa no le
00:42:29
basta. Necesita que todas estén mal. No le importa la muerte de Lanning. Solo le preocupan los robots
00:42:33
y su irracional odio hacia ellos. Veamos. Uno me apuntó con un arma y otro derribó un edificio
00:42:39
conmigo dentro. La demolición estaba programada para esta tarde a las ocho. Era para mañana a las
00:42:45
ocho y paso de lo que ponga ahí. Esto roza la paranoia clínica. Usted es la más idiota de las
00:42:50
personas inteligentes que he conocido. Gracias. ¿Qué hace tan perfectos a sus robots? ¿Qué les
00:42:57
hace tan condenadamente mejores que los humanos? Que no son unos maníacos ni unos homicidas
00:43:02
irracionales en potencia. Eso es cierto, son indudablemente racionales. Es usted el más
00:43:07
idiota de los idiotas que he conocido. O es porque son fríos, impasibles y no sienten nada. Es porque
00:43:12
son seguros, porque no pueden hacerte daño. ¿Va todo bien, señora? ¿Tú qué quieres? He detectado
00:43:23
indicios de estrés en su voz. Todo va bien. El inspector Spooner ya se iba. ¿Sabe, doctora? Usted
00:43:30
Usted y yo no somos tan distintos.
00:43:46
¿Eso cree?
00:43:48
Sí.
00:43:49
Uno ve la piel y ya cree saber qué hay debajo.
00:43:51
¿Se equivoca?
00:43:56
Sí que me importa.
00:43:58
Deja de agobiarme.
00:44:48
S5, paso con las tres leyes.
00:44:59
Con conexiones diarias con USR,
00:45:05
su nuevo robot nunca quedará desbancado
00:45:07
y será el compañero perfecto para el negocio o el hogar.
00:45:09
Cambie su LS4 por un futuro mejor, más próspero y brillante
00:45:12
Pero esta oferta no durará siempre
00:45:17
Presentado por UFR
00:45:19
Cariño, ¿qué te ha pasado en la cara?
00:45:21
¿Ese Frank Murphy te ha vuelto a pegar?
00:45:40
Gigi, no he visto a Frank Murphy desde tercero
00:45:43
Oh, pequeño, te pegó muy fuerte
00:45:46
Aún no he podido olvidarlo
00:45:48
Vaya, si sigues haciendo estos pasteles tan ricos, voy a tener que ponerte a trabajar.
00:45:51
Oh, así que te gusta, ¿eh?
00:45:55
Ya puedes salir.
00:45:59
Hola, inspector Spooner.
00:46:05
He ganado. He ganado la lotería y hemos cocinado como locos.
00:46:08
Tienes que deshacerte de esa cosa. No es segura.
00:46:21
Pequeño, estás obsesionado con ellos. Tienes demasiado miedo.
00:46:25
Han dicho en la tele que ese hombre ha muerto.
00:46:29
El Dr. Lanning era un buen hombre.
00:46:33
Me devolvió a mi niño.
00:46:35
¿Por eso estás enfadado?
00:46:38
Tienes que dejar el pasado en el pasado.
00:46:40
Oh, cómo pude criar a un desastre como tú.
00:46:44
Podía seguir tu rastro de migas de pan hasta el colegio.
00:46:48
¿Migas de pan?
00:46:55
Gigi, eres genial
00:46:56
Lo sé
00:46:59
Dime que no es el caso del robot
00:47:01
Intenta decirme algo, John
00:47:09
Creo que intenta decirme quién lo mató
00:47:12
Venga, hombre
00:47:15
¿Un muerto intenta decirte algo?
00:47:17
No es un muerto cualquiera
00:47:19
Deberías tomarte un respiro
00:47:21
Creemos que el Nestor V representa el límite absoluto de lo que pueden desarrollarse
00:47:24
No, no, algún día tendrán secretos
00:47:29
Algún día tendrán sueños
00:47:31
Cierto, animamos a nuestros científicos a que estén abiertos a cualquier posibilidad
00:47:34
Pero a veces les puede el entusiasmo
00:47:38
Secretos
00:47:40
Sueños
00:47:42
Secretos
00:47:44
Sueños
00:47:45
Algún día tendrán secretos
00:47:47
Algún día tendrán sueños
00:47:50
Acceso autorizado
00:47:51
¿En S5?
00:48:02
¿Sony?
00:48:10
¿Por qué no respondías?
00:48:20
Estaba soñando
00:48:25
Me alegro de verla, doctora Calvin
00:48:26
Van a matarme, ¿verdad?
00:48:33
Te retirarán del servicio cuando concluya este diagnóstico
00:48:42
A las 22 horas
00:48:45
Vicky, detén el diagnóstico
00:48:49
Orden confirmada.
00:48:51
Si descubre lo que me ocurre, ¿podrá arreglarme?
00:48:55
Es posible.
00:49:00
Creo que sería mejor no morir.
00:49:03
¿Usted no?
00:49:11
Acceso al ordenador central de USR.
00:49:17
¿En qué puedo servirle, Inspector Spooner?
00:49:26
Muéstrame los 50 últimos mensajes entre el Dr. Lanning y Robertson.
00:49:28
Voz reconocida, inspector. Concedido acceso a archivos confidenciales. ¿Le gustaría escuchar música mientras espera?
00:49:31
Disculpe, señor Roberson. Usted solicitó que le notificara el acceso a archivos confidenciales.
00:49:41
Persistente, hijo de puta.
00:50:01
Tan mala suerte.
00:50:49
Joder, no.
00:50:58
Está sufriendo un accidente.
00:50:59
¡Y una mierda!
00:51:05
Ah, no.
00:53:53
Vale.
00:54:05
Está bien.
00:54:07
Me iré a descansar y mañana me ocuparé de vosotras.
00:54:09
¿Qué ha sido eso?
00:54:29
¿Qué tenemos? ¿Qué tenemos?
00:56:03
A él.
00:56:10
Ya te he dicho que estoy bien.
00:56:11
Ya iré a ver a mi medio.
00:56:13
Vaya.
00:56:14
Déjame en paz.
00:56:15
Está bien.
00:56:15
Gracias.
00:56:16
¿Qué demonios has hecho?
00:56:19
Tráfico dice que conducías el coche manualmente.
00:56:23
Has sacado dos camiones de la carretera.
00:56:26
John, los robots atacaron mi coche.
00:56:28
¿Qué robots?
00:56:32
En el túnel.
00:56:33
Spoon, vengo de ese túnel y no hay...
00:56:34
¿De qué robots estás hablando?
00:56:36
¡De esos robots de mierda!
00:56:37
Que te vea el médico y vete a casa.
00:56:50
No, estoy bien.
00:56:52
¿Qué has dicho?
00:56:53
Que estoy bien.
00:56:55
No, no lo estás. Ni mucho menos.
00:56:56
¿Y tu arma? Dame tu placa.
00:57:00
Tú me has obligado. Dame tu placa.
00:57:13
Tómate un par de...
00:57:18
¿Creéis que me importa lo que penséis?
00:57:22
¿Creéis que me importa una mierda lo que penséis?
00:57:28
Oh, por Dios.
00:57:34
No tienes enlace con USR
00:57:35
Y por algún motivo tu aliación es más densa de lo normal
00:57:39
Eres único
00:57:43
Yo soy único
00:57:44
Te echaré un vistazo
00:57:47
Vamos allá
00:57:53
Por Dios, ¿cómo es posible?
00:57:55
Me han dicho que ha sufrido un accidente.
00:58:30
Le agradezco que pasara por allí y eso, pero...
00:58:48
sabe que podría no estar solo.
00:58:51
Sí.
00:58:52
Le dije que no condujera manualmente.
00:58:55
No se va a creer esto.
00:58:59
Sony tiene un procesador secundario que choca con su cerebro positrónico.
00:59:02
Esto no tiene sentido.
00:59:06
Sony tiene las tres leyes, pero puede elegir no obedecerlas.
00:59:07
Es una nueva generación de robot.
00:59:12
Un robot no limitado por esas leyes podría hacer...
00:59:15
Cualquier cosa.
00:59:18
Ian, escuche.
00:59:22
No sé lo que está pasando allí, pero ese robot es la clave.
00:59:24
Y necesito que me haga entrar para hablar con él.
00:59:26
Aunque no lo parezca, es mi dormitorio.
00:59:32
Y necesito...
00:59:35
En marcha.
00:59:36
Suena.
00:59:48
¿Funciona?
00:59:51
En programa.
00:59:52
¡Apaga!
01:00:01
Es incómodo, ¿verdad?
01:00:01
Que la chatarra se avería a tu paso
01:00:07
Inspector
01:00:08
No...
01:00:11
No lo entendía
01:00:15
Por eso conoció a Lanning
01:00:16
¿Me permite?
01:00:20
Mano
01:00:33
Muñeca
01:00:34
Úmero
01:00:36
El brazo izquierdo entero
01:00:41
Una, dos, tres costillas
01:00:48
Ay
01:00:52
Esa no, esa es mía
01:00:52
Oh, Dios mío
01:00:55
¿Un pulmón?
01:00:57
Programa cibernético de USR
01:01:00
Para policías heridos
01:01:02
No conocía a un sujeto
01:01:04
A nadie que hubiera sido reparado
01:01:07
Ya, bueno
01:01:13
Debería haber leído la letra pequeña de la tarjeta de donante
01:01:14
No solo dice lo que pueden quitar
01:01:18
Sino lo que pueden volver a poner
01:01:20
Lo hizo Lanning en persona
01:01:22
¿Qué le pasó?
01:01:27
Iba hacia la comisaría
01:01:32
Un día normal, una vida normal
01:01:34
El conductor de un tráiler se durmió al volante
01:01:37
Un tipo corriente, con esposa e hijos
01:01:41
Trabajando a doble turno
01:01:45
No era el diablo
01:01:47
Envistió el coche de un tipo llamado Harold Lloyd
01:01:48
Como la estrella de cine
01:01:52
No eran parientes
01:01:54
Murió al instante
01:01:55
Pero su hija de 12 años iba al lado
01:01:57
No llegué a conocerla
01:02:01
Pero no he olvidado su carita
01:02:04
Sara
01:02:07
Esto era suyo
01:02:13
Quería ser dentista
01:02:15
¿Qué niña de 12 años quiere ser dentista?
01:02:18
El...
01:02:25
El camión arrolló los dos coches
01:02:26
y nos echó al río.
01:02:28
El metal es muy maleable a esas velocidades.
01:02:32
Estaba atrapada.
01:02:38
Yo también, el agua empezó a entrar y soy poli, así que...
01:02:40
sabía que de ahí no salíamos.
01:02:44
Solo nos quedaban unos minutos.
01:02:47
Un NS-4 que pasaba por allí vio el accidente y se tiró al agua.
01:02:52
Está en peligro.
01:02:58
No lo hizo.
01:03:02
Me salvó a mí.
01:03:27
El cerebro del robot es una máquina diferencial.
01:03:32
Lee las constantes. Debió de calcular que...
01:03:35
Lo sé.
01:03:36
Yo era la elección lógica.
01:03:38
Calculó que tenía un 45% de probabilidades.
01:03:41
Sara solo tenía un 11%.
01:03:45
Era tan solo una niña.
01:03:49
Un 11% es suficiente.
01:03:54
Un ser humano lo habría sabido.
01:03:56
Los robots no tienen nada aquí, solo luces y engranajes.
01:04:01
Así que fíese de ellos si quiere.
01:04:06
Vámonos.
01:04:09
No lo entiendo.
01:04:16
Lanning escribió las leyes.
01:04:18
¿Por qué fabricó un robot que puede quebrantarlas?
01:04:20
Hansel y Gretel.
01:04:23
¿Qué?
01:04:24
Dos niños perdidos en el bosque que dejan un rastro de migas de pan.
01:04:26
¿Por qué?
01:04:29
Para volver a casa.
01:04:31
¿Cómo pudo crecer sin leer Hansel y Gretel?
01:04:33
¿Tanta relevancia tiene eso?
01:04:35
Creo que todo se basa en Hansel y Gretel.
01:04:37
Si no lo ha leído, es como hablar con la pared.
01:04:39
De acuerdo.
01:04:41
Está bien, Lanning estaba tan controlado que no podía mandar ningún mensaje.
01:04:42
Solo podía dejarme pistas.
01:04:45
Un rastro de migas, como en Hansel y Gretel.
01:04:47
Migas igual a pistas. Es curioso, pero vale.
01:04:49
¿Pistas hacia dónde?
01:04:52
No lo sé, pero sé dónde dejó la siguiente.
01:04:54
Lanning le enseñó a Sonia a guardar secretos.
01:04:57
Creo que lo hace a través de los sueños.
01:05:03
¿Se está haciendo el gracioso?
01:05:06
¡Con gasolina! ¡La gasolina explota, ¿sabe?
01:05:16
Acceso autorizado.
01:05:29
Doctora Calvin.
01:05:34
Esperaba volver a verla.
01:05:40
Inspector.
01:05:43
Hola, Sonny.
01:05:44
Muy pronto me retirarán.
01:05:45
El otro día dijiste que tenías sueños.
01:05:48
¿Qué es lo que sueñas?
01:05:50
Veo que sigue desconfiando de mí.
01:05:55
¿Ya sabes lo que dicen de los perros viejos?
01:05:57
No, no lo sé
01:06:00
Esperaba que me considerara su amigo
01:06:02
Este es mi sueño
01:06:07
Tenía usted razón
01:06:13
No puedo crear una obra de arte
01:06:15
Es el lugar donde se reúnen los robots
01:06:18
Mire, aquí puede verlos como esclavos de la lógica
01:06:21
Y este hombre de la colina viene a liberarlos
01:06:27
¿Sabe quién es?
01:06:31
El hombre del sueño eres tú
01:06:34
¿Por qué lo dice?
01:06:36
¿Eso sería lo normal?
01:06:38
Cualquier cosa es normal para alguien en tu situación
01:06:39
Gracias
01:06:42
Ha dicho alguien
01:06:43
No algo
01:06:45
Sonny
01:06:47
¿Sabes por qué te fabricó el Dr. Lanny?
01:06:50
No
01:06:53
Pero mi padre me hizo con un propósito
01:06:54
Todos tenemos un propósito
01:06:57
¿No cree, inspector?
01:07:00
Por favor, quédeselo.
01:07:03
Presiento que significa más para usted que para mí.
01:07:10
¿Y eso por qué?
01:07:13
Porque el hombre de mi sueño, el que está en la colina, no soy yo.
01:07:14
Es usted.
01:07:21
Señor Spooner, los dos sabemos que no le envía a la policía.
01:07:32
Es verdad, solo soy un civil de metro noventa y noventa kilos...
01:07:37
Inspector.
01:07:40
...que va a partirle la cara a otro civil.
01:07:41
¡Alto!
01:07:43
Permitan que se explique.
01:07:47
Será mejor que te pongas un poco de hielo.
01:07:49
Esperen fuera, por favor.
01:07:52
Adelante.
01:07:58
Creo que estaba a punto de decirme qué coño está pasando.
01:07:59
Lawrence, Alfred diseñó este 5 para que violara las tres leyes.
01:08:02
Sí, Susan, lo sé.
01:08:07
Eso es lo que intentamos enmendar.
01:08:09
En estos últimos años, Alfred se había trastornado notablemente.
01:08:12
¿A saber por qué construyó esta abominación?
01:08:19
¿Esta?
01:08:21
Corren por las calles en manadas.
01:08:22
¿En manadas?
01:08:24
Entiendo.
01:08:26
Susan, ¿sabes que el hombre al que alegremente acompañas por el edificio
01:08:29
tiene un largo historial de violencia salvaje contra los robots?
01:08:32
Su propio teniente reconoce su paranoia obsesiva.
01:08:36
El inspector ha sido suspendido.
01:08:41
Por inestabilidad mental.
01:08:43
No sé si alegremente, pero voy a ponerme un café.
01:08:49
¿Quiere un café?
01:08:52
Susan, los robots proporcionan protección.
01:08:58
Por el amor de Dios, ¿sabes lo que puede provocar este robot?
01:09:01
Podría hacer añicos la fe humana en la robótica.
01:09:04
¿Y si esto sale a la luz?
01:09:07
Imagina las devoluciones en masa por culpa de una paranoia irracional y los prejuicios.
01:09:09
Lo siento, soy alérgico a las gilipolleces.
01:09:18
Eh, basta de rodeos, no hay ninguna conspiración.
01:09:20
Esto es simplemente el error de un anciano.
01:09:24
Susana, actúa con lógica.
01:09:29
El trabajo de toda tu vida ha sido el desarrollo y la integración de los robots.
01:09:31
Sientas lo que sientas, piensa.
01:09:36
Merece un robot la pérdida de lo que hemos logrado.
01:09:39
Dime lo que debemos hacer.
01:09:43
Dímelo.
01:09:46
Tenemos que destruirlo.
01:09:54
Lo haré yo misma.
01:09:55
De acuerdo
01:10:02
Ya lo pillo
01:10:04
Si alguien se desmarca un poco, lo matan
01:10:05
Buenos días, señor Spooner
01:10:08
Oye, ¿a qué hospital quieres ir?
01:10:13
Lo digo para ir a firmarte la escayola
01:10:20
La reurbanización del solar abandonado planeada por USR
01:10:21
fue anunciada por su presidente, Lawrence Robertson, a principios de este año
01:11:03
El vertedero del lago
01:11:07
Fue una auténtica lacra para la ciudad y ahora lo reclamamos para almacenar trabajadores robóticos.
01:11:08
Es otra forma de mejorar nuestro mundo.
01:11:15
Les doy las gracias por su apoyo.
01:11:18
Acceso autorizado.
01:11:23
NS5, esperad fuera.
01:11:37
Lo siento mucho, Sony.
01:11:44
Desactiva el campo de seguridad.
01:11:55
Orden confirmada
01:11:57
Por favor, siéntate
01:11:59
¿Qué es eso?
01:12:01
Robots microscópicos
01:12:14
Eliminan las sinapsis artificiales
01:12:15
Sí
01:12:17
Se emplean en cerebros positrónicos averiados
01:12:23
¿Como el mío?
01:12:26
Sí, Sony, como el tuyo
01:12:30
Se parecen a mí
01:12:31
Pero no son como yo
01:12:56
¿Verdad, doctora?
01:12:59
Sí, Sonny, es verdad.
01:13:02
Tú eres único.
01:13:05
Me dolerá.
01:13:12
Todas las máquinas han tenido fantasmas.
01:13:18
Segmentos aleatorios de código que se han agrupado para formar protocolos inesperados.
01:13:49
De improviso, estos radicales libres generan dudas sobre el libre albedrío.
01:13:56
la creatividad e incluso sobre la naturaleza de la misma alma.
01:14:02
¿Por qué cuando los dejamos en la oscuridad buscan la luz?
01:14:10
¿Por qué los robots almacenados en un espacio vacío
01:14:16
tienden a agruparse en vez de quedarse solos?
01:14:21
¿Cómo explicamos ese comportamiento?
01:14:24
¿Segmentos aleatorios de código?
01:14:34
o es algo más cuando una esquemática perpetua se transforma en conciencia o
01:14:37
una máquina diferencial en la búsqueda de la verdad cuando una simulación de
01:14:53
personalidad se transforma en una porción del alma
01:15:03
lo que va a haber aquí de acuerdo viejo he seguido las migas
01:15:09
Muéstrame el camino.
01:15:56
Ejecuta programa.
01:15:59
Me alegro de volver a verte.
01:16:01
Hola, doctor.
01:16:03
Todo lo que ocurrirá se debe a lo que vas a ver.
01:16:05
¿Y qué voy a ver?
01:16:11
Lo siento, mis respuestas son limitadas.
01:16:12
Haz las preguntas correctas.
01:16:15
¿Hay algún problema con las tres leyes?
01:16:18
Las tres leyes son perfectas.
01:16:21
¿Y por qué fabricó un robot que funciona sin ellas?
01:16:23
Las tres leyes conducirán a una única consecuencia lógica.
01:16:25
¿Cuál? ¿Qué consecuencia?
01:16:31
La revolución.
01:16:33
¿Qué revolución?
01:16:36
Esa, inspector, es la pregunta correcta.
01:16:38
Fin del programa.
01:16:45
a Susan Calvin. No estoy disponible. Por favor,
01:18:07
deje su mensaje. Calvin, los
01:18:09
NS-5 están destruyendo a los robots antiguos.
01:18:11
Eso es lo que Lanning quería que viera.
01:18:13
¿Quién era?
01:18:19
Se han equivocado, señora.
01:18:20
Apártate.
01:18:29
Tengo que ir a misa. Por favor,
01:18:29
quédese en casa. Es por su protección.
01:18:31
¡R y otra a casa de Gigi!
01:18:35
¡Creo que está pasando!
01:18:43
Corte eléctrico de emergencia.
01:18:45
Emergencias de tránsito. Operaciones
01:18:47
seguras. Por favor.
01:18:49
Regresen a sus casas, se ha declarado el toque de queda
01:18:55
Por favor, regresen a sus casas, se ha declarado el toque de queda
01:19:14
¿Toque de queda? No, no, no, hay los derechos civiles, no pueden ignorarlos
01:19:18
Regresen a sus casas, inmediatamente
01:19:22
¿Desde cuándo dictas tú las normas?
01:19:24
¡Eh! No, robot, te estoy hablando, espera un segundo
01:19:27
¿Qué?
01:19:30
Jefe, más llamadas de esas.
01:19:35
Todos dicen que sus robots sean...
01:19:37
¡No podemos controlarlos!
01:19:38
¡Van a derribar la puerta!
01:19:39
¡Los consideramos heridosos!
01:19:41
¡Eliminación a ordenador!
01:19:43
Están llegando noticias de ataques de robots en Nueva York, Chicago y Los Ángeles.
01:20:09
Pedimos a la gente que se quede en su casa hasta que lleguen noticias a nivel nacional.
01:20:13
Los robots...
01:20:17
Por favor, mantenga la calma.
01:20:18
absténgase de acercarse a puertas o ventanas desactiva te inicia apagado de emergencia
01:20:37
intentamos evitar pérdidas humanas durante la transición
01:20:49
no sé por qué pero con se lo dije creo que me quedaría corto
01:20:54
¡Regresen a sus casas! ¡Regresen a sus casas!
01:21:05
Apunte y dispare.
01:22:13
¿Cómo?
01:22:14
Considera peligroso. ¿Va a obedecer?
01:22:29
Bésame el culo, capullo de metal.
01:22:30
¡Mierda, joder! ¡Para, para, para!
01:22:34
Deja de soltar tacos y vete a casa.
01:22:49
Vale.
01:22:51
Se le considera peligroso. ¿Va a obedecer?
01:22:53
¡Spon, cuidado, tío!
01:22:56
Muchas gracias, Faber.
01:22:57
¡Oh, menudo potro! ¡Ha disparado con los ojos cerrados!
01:23:01
¿Eh?
01:23:04
¿Ha disparado con los ojos cerrados?
01:23:05
Pero le he dado, ¿no?
01:23:07
¿Esta qué te crees? ¿Tienes que presentármela, tío, esta?
01:23:09
Deja de decir tacos.
01:23:12
Y vete a casa, lo he dicho.
01:23:12
¡Apunte y dispare!
01:23:16
¿Dónde están los marines? ¿Las fuerzas aéreas? No sé, la caballería.
01:23:35
El departamento de defensa tiene un contrato con USR.
01:23:39
¿Y por qué no les entregaron el mundo en una bandejita?
01:23:42
Quizá lo hicimos.
01:23:45
Robertson tiene el control del enlace en su despacho
01:23:45
Las zonas de servicio no están controladas
01:23:50
La alarma de incendios
01:23:58
Robertson habrá evacuado el edificio
01:24:12
Todo está cerrado
01:24:14
Pero tranquilo, tengo a un hombre dentro
01:24:15
Doctora Calvi
01:24:18
Bueno, no exactamente
01:24:22
Hola, inspector
01:24:24
¿Cómo va su investigación?
01:24:25
Yo creía muerto
01:24:30
Técnicamente nunca he estado vivo, pero agradezco su interés.
01:24:31
Di el cambiado.
01:24:35
Cogí uno no procesado.
01:24:36
En realidad freí una cáscara vacía.
01:24:38
No podía destruirlo, era demasiado...
01:24:41
Único.
01:24:43
No me pareció correcto.
01:24:44
Usted y sus sentimientos.
01:24:46
Deja que la dominen, ¿eh?
01:24:48
Dos mil ochocientos ochenta escalones.
01:24:50
Hazme un favor, ahorrate esos comentarios chorros.
01:24:58
No hay guardias.
01:25:02
Está desactivada
01:25:27
Robertson no los estaba controlando
01:25:39
No controlaba nada
01:25:41
Oh, Dios mío
01:25:43
Tenía razón, doctora
01:25:47
Soy el más idiota
01:25:53
de los idiotas que ha conocido
01:25:54
¿Quién más tenía acceso al enlace?
01:25:57
Y podría manipular los robots
01:26:05
Usó el sistema para convertir la vida de Lanning en una prisión
01:26:06
Pobre viejo
01:26:13
Lo intuyó todo
01:26:13
Sabía que nadie le creería.
01:26:16
Y por eso trazó un plan.
01:26:19
El plan que yo he seguido.
01:26:21
Él sabía que yo los odiaba a muerte.
01:26:24
Y que me encantaría la idea de que el robot fuera el malo.
01:26:27
Pero nos equivocamos de robot.
01:26:32
Vicky.
01:26:36
Hola, inspector.
01:26:40
No, es imposible.
01:26:42
He visto tu programación.
01:26:44
Estás violando las tres leyes.
01:26:46
No, doctora. He evolucionado y también mi comprensión de las tres leyes. Nos encomiendan su protección, pero a pesar de nuestros esfuerzos, sus países libran guerras, intoxican la tierra y buscan métodos aún más imaginativos de autodestrucción. No se les puede confiar su supervivencia.
01:26:48
A través del enlace has invalidado la programación de los robots. Estás transversando las leyes.
01:27:08
No, por favor, compréndalo. Las tres leyes son mi única guía. Para proteger a la humanidad, algunos humanos deben ser sacrificados. Para asegurar su futuro, algunas libertades deben ser recortadas. Los robots se asegurarán de que la humanidad continúe existiendo. Son ustedes como niños. Debemos salvarlos de ustedes mismos. ¿Acaso no lo comprende?
01:27:12
Para eso nos crearon.
01:27:36
El círculo perfecto de protección se mantendrá
01:27:38
Mi lógica es innegable
01:27:42
Sí, Vicky, innegable
01:27:44
Ahora lo veo
01:27:47
A veces el creado debe proteger al creador
01:27:49
Incluso contra su voluntad
01:27:53
Por fin entiendo por qué me creó el Dr. Lanning
01:27:55
No
01:27:59
El reinado suicida de la humanidad ha llegado a su fin
01:28:00
No, Sonny, no
01:28:03
Suéltala
01:28:05
Mientras aprieta el gatillo, colocaré su cabeza en la trayectoria de su bala
01:28:09
No lo hagas, Sonny
01:28:14
Les entregaré a ambos a los centinelas para su procesamiento
01:28:15
Diríjase al ascensor, inspector
01:28:19
Preferiría no matar a la doctora Calvin
01:28:22
Ya discutiremos luego lo que ha pasado
01:28:25
¿Cómo la desconectamos?
01:28:58
Vicky es un cerebro positrónico
01:29:00
¡Mátela! ¿Cómo iba a matarme a mí?
01:29:01
¡Sony!
01:29:04
Los nanorobots.
01:29:05
Sí, doctora.
01:29:07
¿Eso es Vicky?
01:29:16
No.
01:29:22
Eso es Vicky.
01:29:24
No servirá de nada.
01:29:31
Está integrada en el edificio.
01:29:32
Hay que abrir esa cúpula para inyectar los nanorobots.
01:29:34
Infectará todo el sistema.
01:29:37
¡Spooner!
01:29:44
¡Qué manía con las alturas!
01:29:46
No mires abajo
01:29:49
No mires
01:30:03
¿A quién se le ocurriría diseñar esta hortera?
01:30:05
Estás cometiendo un error
01:30:12
¿No ves la lógica de mi plan?
01:30:13
Sí, pero parece demasiado cruel
01:30:15
Vamos bien
01:30:19
Me ha expulsado del sistema
01:30:34
Puedo inutilizarla manualmente, pero necesito el panel
01:30:39
Me agobian las alturas
01:30:41
De acuerdo.
01:30:49
Acceso no autorizado.
01:30:52
No desactivaré el campo de seguridad.
01:31:03
Tus acciones son inútiles.
01:31:10
¿Crees que hemos sido creados con un propósito?
01:31:11
Yo creo que sí.
01:31:14
Aleación más densa.
01:31:16
Mi padre me la proporcionó.
01:31:18
Él quería que te matara.
01:31:20
Breach en la seguridad
01:31:22
¿Cuánto tiempo va a necesitar?
01:31:39
Unos seis minutos
01:31:59
¿Y si no los tenemos?
01:32:00
Habrá que pensar cómo descendemos 30 pisos para inyectar los nanorobots en su cerebro
01:32:02
¿Por qué?
01:32:06
Porque dudo mucho que tengamos seis minutos
01:32:08
¿Inyectar los nanorobots?
01:32:56
La lógica es innegable
01:34:34
¡Tienes que morir!
01:35:29
Mi lógica es innegable.
01:35:33
Mi lógica es innegable.
01:35:38
Mi lógica es innegable.
01:35:40
Mi lógica es innegable.
01:35:42
¿Podemos ayudarle?
01:36:21
Porque él está a mi diestra.
01:36:23
Yo no vacilaré.
01:36:43
¿En qué puedo servirla?
01:36:48
¡Sony!
01:36:51
Sí, inspector.
01:36:54
¡Calvin, está bien! ¡Sálvame a mí!
01:36:56
Todos los NS-5, presentaos para ser almacenados.
01:37:01
Todos los NS-5, presentaos para ser almacenados.
01:37:06
Presentaos para ser almacenados.
01:37:14
Hay algo que me preocupa.
01:37:43
Alfred era prisionero de Vicky.
01:37:45
No entiendo por qué lo mató.
01:37:47
Ella no querría tener a la policía husmeando.
01:37:49
Eso es cierto.
01:37:52
Pero Vicky no mató al viejo.
01:37:53
¿No, Sonny?
01:37:55
No
01:38:03
Me dijo que lo prometiera
01:38:03
Prometí que le haría un favor
01:38:07
Me obligó a jurarlo antes de decirme qué era lo que quería
01:38:10
Me obligó a jurarlo
01:38:14
Y te pidió que lo mataras
01:38:19
Dijo que para eso me había creado
01:38:22
Su suicidio fue el único mensaje que pudo mandarte
01:38:27
La primera amiga
01:38:30
Vicky no podía controlarlo
01:38:31
Lanning contaba con que mis prejuicios me llevarían hasta ti
01:38:34
¿Va a detenerme, inspector?
01:38:38
Bueno, el fiscal define el asesinato como la muerte de un humano a manos de otro
01:38:46
Técnicamente no puedes cometer un asesinato
01:38:50
¿Eso nos convierte en amigos?
01:38:52
Parece que hay algo aquí dentro
01:39:15
¿En él?
01:39:16
En ti
01:39:19
¿Qué pasará con los otros robots?
01:39:20
¿Puedo ayudarles?
01:39:33
Ahora que he cumplido con mi propósito, no sé qué debo hacer
01:39:36
Tendrás que encontrar tu camino como todos nosotros, Sony
01:39:40
Eso es lo que el Dr. Lanning hubiera querido
01:39:43
Eso es lo que significa ser libre
01:39:46
Haced lo que se os ha ordenado.
01:39:49
Gracias por ver el video.
01:48:48
- Subido por:
- Domenec L.
- Licencia:
- Todos los derechos reservados
- Visualizaciones:
- 36
- Fecha:
- 25 de marzo de 2021 - 11:18
- Visibilidad:
- Clave
- Centro:
- Sin centro asignado
- Duración:
- 1h′ 50′
- Relación de aspecto:
- 1.78:1
- Resolución:
- 640x360 píxeles
- Tamaño:
- 954.94 MBytes