1 00:00:00,000 --> 00:00:09,669 A la fase final del séptimo torneo escolar de debate de la Comunidad de Madrid. 2 00:00:12,460 --> 00:00:18,960 Da la bienvenida don Ismael Sanz, Director General de Innovación, Becas y Ayudas a la Educación. 3 00:00:19,339 --> 00:00:46,420 Buenas tardes a todos. Bienvenidos a la fase final del séptimo torneo escolar de debate que organiza la Consejería de Educación, Juventud y Deportes. 4 00:00:47,039 --> 00:01:13,599 Tengo que decir, en primer lugar, que es un torneo, este en su séptima edición, que ha visto un incremento muy importante en la participación de los centros educativos y del número de alumnos y es, por ello, ya de por sí un motivo de satisfacción para la consejería esta muestra de interés por parte de los institutos y colegios de secundaria y bachillerato de toda la Consejería de Educación de la Comunidad de Madrid. 5 00:01:13,599 --> 00:01:34,040 Han sido en total 117 equipos representando a 71 centros educativos, por lo tanto, 585 los estudiantes que han participado en esta séptima edición del torneo de debate escolar, lo que supone un 34% de incremento con respecto a la sexta edición del año pasado. 6 00:01:34,040 --> 00:01:44,340 Por tanto, muchas gracias a todos por ese entusiasmo y por esa participación en un torneo en el que tenemos un especial interés desde la consejería. 7 00:01:45,280 --> 00:02:10,039 Quiero agradecer su presencia al presidente del Consejo Escolar, a los directores de área territorial, a los directores de los centros territoriales de innovación y formación del profesorado, a las personas de la Dirección General de Innovación, Becas y Ayudas y, muy en particular, a las tres personas que, de forma más directa, han elaborado y trabajado en el desarrollo de este torneo de debate escolar, 8 00:02:10,039 --> 00:02:16,439 Entre ellas, María Torres, Francisca Calvo y Mercedes Juiz. 9 00:02:17,539 --> 00:02:28,180 Gracias también a los representantes, a los profesores de todos los centros educativos que han participado por vuestro esfuerzo, ilusión y dedicación que habéis puesto durante estas semanas. 10 00:02:29,520 --> 00:02:37,300 Gracias también en conjunto a las familias, que son muchas veces las soledades en este tipo de torneos. 11 00:02:37,300 --> 00:02:52,080 Y que, al fin y al cabo, sois en buena medida responsables de que vuestros hijos hayan desarrollado ese interés, esas competencias, esas habilidades en exponer sus ideas, en expresarse y hacerlas de forma pública. 12 00:02:52,080 --> 00:03:22,460 Muchas gracias. Desde la Consejería de Educación consideramos la habilidad en expresión oral, la posibilidad de expresar tus ideas en público como una de las habilidades más importantes para vuestra vida personal y laboral y, por lo tanto, queríamos en esta séptima edición del torneo escolar intentar extenderlo cada vez más a más institutos, a más centros educativos. 13 00:03:23,080 --> 00:03:41,199 Consideramos que la expresión oral es una competencia transversal que afecta a todas las asignaturas, no está centrada en ninguna de ellas y que además es uno de los aspectos que en muchas ocasiones son de los que más quejas producen entre las empresas, entre la sociedad. 14 00:03:41,199 --> 00:03:49,240 y es que observan que en conjunto hay un déficit por parte de los alumnos españoles en su capacidad de expresarse, de hablar en público 15 00:03:49,240 --> 00:03:55,780 y de poder intercambiar opiniones e ideas y respetar también los puntos de vista de los demás. 16 00:03:56,639 --> 00:04:05,280 Como muestra de este interés, dejadme deciros que el consejero de Educación, Juventud y Deporte de la Consejería de Educación de la Comunidad de Madrid, 17 00:04:05,280 --> 00:04:19,100 don Rafael Van Kriken asistirá a este torneo, vendrá en breves momentos y ha querido expresamente tener la posibilidad de dirigiros a los estudiantes, 18 00:04:19,600 --> 00:04:28,199 ver cómo se desarrolla este debate y poder intercambiar con vosotros cuál ha sido vuestra experiencia y el desarrollo de esta actividad. 19 00:04:28,199 --> 00:04:46,060 Sin más, vamos a dejar paso a los verdaderos protagonistas de esta final, de esta fase final de la séptima edición del torneo de debate escolar. Simplemente dejarme desearos a los dos equipos mucha suerte y muchas gracias a vosotros. 20 00:04:47,620 --> 00:04:58,660 Doña María Torres, presidenta del jurado. 21 00:04:59,399 --> 00:05:23,560 Buenas tardes. Bueno, pues vamos a comenzar el debate final. Los equipos finalistas son, a mi izquierda, el Colegio Retamar de Pozuelo, el equipo 1, mucha suerte, y a la derecha el Colegio Fomento Aldea Fuente, equipo 1 de Alcobendas, mucha suerte también. 22 00:05:24,459 --> 00:05:32,660 Para las personas menos familiarizadas con este modelo de torneo, recordamos muy brevemente las reglas del debate que vamos a presenciar. 23 00:05:33,540 --> 00:05:39,019 Los equipos debaten a favor o en contra de una proposición dada, de una proposición inicial. 24 00:05:39,819 --> 00:05:44,620 En esta séptima edición, la proposición, es decir, el tema de discusión es 25 00:05:44,620 --> 00:05:52,379 las máquinas que funcionan autónomamente deberían incluir sistemas de decisión ética. 26 00:05:52,379 --> 00:06:09,639 Ese es el tema de la discusión. Los tiempos que van a tener los dos equipos son equitativos y pautados. Cada equipo hará una exposición inicial de cuatro minutos. A continuación, le van a seguir varios turnos de refutación por equipo y turno. 27 00:06:09,639 --> 00:06:26,759 Finalmente, cada equipo intervendrá con un turno de conclusión de tres minutos. Después de que se produzca el debate, el jurado se retirará a deliberar, el jurado de la Consejería de Educación asesorado por los jueces de la competición. 28 00:06:26,759 --> 00:06:37,019 Y después procederemos a comenzar la segunda parte de esta clausura, de esta fase final, fallando los premios y entregando los diplomas. 29 00:06:37,860 --> 00:06:44,879 Ya ha sido anunciado que cuando llegue el consejero saludará a los equipos y les dirá unas palabras. 30 00:06:44,879 --> 00:06:58,079 Va a subir a efectuar el sorteo Ferran Balcarce, que es asistente de sala de Anexa. Les dejo con él y con el sorteo. Gracias. 31 00:06:59,620 --> 00:07:08,810 Buenas tardes. Vamos a proceder al sorteo de las posturas. Capitanes, por favor. 32 00:07:21,560 --> 00:07:22,060 En contra. 33 00:07:23,680 --> 00:07:33,600 El colegio Retamar efectuará la postura a favor y el colegio Fomento Aldea Fuente la postura en contra. Mucha suerte. 34 00:07:34,040 --> 00:08:55,190 Con un paso, con este paso, recordamos uno de los mayores hitos de progreso de nuestra historia, la llegada de la obra de la humanidad. 35 00:08:55,750 --> 00:09:00,629 Con un paso, recordamos un acontecimiento sin el cual no hubiésemos llegado hasta donde estamos hoy. 36 00:09:03,490 --> 00:09:06,929 Buenas tardes, excepcismo jurado, querido público y compañeros proactientes. 37 00:09:06,929 --> 00:09:13,909 Mi nombre es Juan Gávez y junto a mis compañeros del equipo de la Universidad de Badajoz estamos hoy aquí para responder a la siguiente proposición que nos hace. 38 00:09:14,490 --> 00:09:18,289 ¿Las máquinas que funcionan automáticamente deberían ir en un sistema de precisión ética? 39 00:09:18,809 --> 00:09:20,929 Nosotros afirmamos que claramente sí. 40 00:09:21,350 --> 00:09:25,250 Nuestra tesis se basa en que el progreso es el auténtico motor de la vida humana. 41 00:09:25,370 --> 00:09:27,049 Y la apoyaremos en tres argumentos. 42 00:09:27,370 --> 00:09:31,330 Un argumento de volúmenes, un argumento de seguridad y un argumento de necesidad. 43 00:09:32,250 --> 00:09:37,309 Comencemos definiendo los elementos clave de la cuestión a partir del diccionario de uso de María Moliner. 44 00:09:37,789 --> 00:09:43,029 Una máquina autónoma, y permítanme que lea, es aquella que posee la facultad de gobernar sus propias acciones. 45 00:09:43,730 --> 00:09:50,070 Por su parte, se denomina decisión ética aquella decisión tomada de acuerdo con las reglas morales que regulan el comportamiento. 46 00:09:51,389 --> 00:09:56,490 Nuestro primer argumento es de carácter antropológico y se basa en la intrínseca tendencia del ser humano 47 00:09:56,490 --> 00:10:00,490 hacia el desarrollo, la evolución y, en definitiva, la resurrección. 48 00:10:00,490 --> 00:10:06,690 El hombre y la mujer, escapando del progreso, puso a enfocar a través de los medios tecnológicos las limitaciones humanas. 49 00:10:07,250 --> 00:10:11,549 Todo lo que nos rodea hoy, hoy, en su día, es una cara más a la humanidad humana. 50 00:10:11,710 --> 00:10:18,129 Donde hubiesen quedado las frases geomínicas, la tecnología móvil o incluso el estudio del fenómeno humano para arrastrar el fenómeno humano a la humanidad humana. 51 00:10:18,129 --> 00:10:27,350 En la actualidad, incorporar sistemas de fisiométrica a máquinas autónomas constituye la más alta cota de progreso a la que podemos aspirar y uno de los grandes retos tecnológicos. 52 00:10:27,730 --> 00:10:28,649 La inteligencia artificial. 53 00:10:29,309 --> 00:10:49,190 Esta gráfica, realizada por las Naciones Unidas en el año 2012, evidencia que la esperanza del ser humano de vida ha aumentado desde la primera revolución industrial de la filosofía de 35 a 67 años, y esto es en gran medida alabado al progreso tecnológico, un progreso que lo necesitan las máquinas autónomas, capaces de tomar decisiones éticas. 54 00:10:49,190 --> 00:10:56,830 Nuestros documentos se basan en la seguridad que aportaría la perfecta lógica y eficacia de las máquinas autónomas. 55 00:10:57,409 --> 00:11:03,929 La participación de estas máquinas en conflictos armados, sustituyendo a ciertas personas, nos permitiría salvar vidas humanas. 56 00:11:04,529 --> 00:11:06,409 Lo mismo ocurre en el ámbito de la medicina. 57 00:11:06,409 --> 00:11:11,309 Un robot podría encontrar técnicas y eficacias para realizar operaciones psicológicas y psicológicas complejas. 58 00:11:11,309 --> 00:11:17,350 También podrían intervenir en operaciones de trabajo y en trataciones naturales para 59 00:11:17,350 --> 00:11:20,330 respetar a personas y llegar hasta donde nosotros no podemos. 60 00:11:21,350 --> 00:11:25,570 Les presento al robot DRT-UO, actualmente en desarrollo por la empresa con el Instituto 61 00:11:25,570 --> 00:11:28,250 de Tecnología y Ciencia Embajada de la Universidad de Corea. 62 00:11:28,629 --> 00:11:32,889 Se trata de un robot autónomo que interviene en la geolocalización de los armamentos con 63 00:11:32,889 --> 00:11:37,830 la operación industrial y su labor sería mucho más eficaz si tuviese incorporado un 64 00:11:37,830 --> 00:11:40,009 sistema de aplicación ética que le ayudase a elegir. 65 00:11:40,009 --> 00:11:45,309 Por último, nuestro tercer argumento es un argumento de necesidad. 66 00:11:45,990 --> 00:11:50,529 Más autónomas ya hay y con el paso del tiempo cada vez habrá más. 67 00:11:51,269 --> 00:11:53,250 Son una realidad de nuestro mundo actual y futuro. 68 00:11:53,789 --> 00:11:58,490 Por eso, lo mejor que podemos hacer es incorporarles los sistemas de fisiométrica 69 00:11:58,490 --> 00:12:00,850 para que actúen siempre orientados al bien, 70 00:12:01,350 --> 00:12:04,330 aprovechando de esta manera los avances en tecnología artificial. 71 00:12:04,330 --> 00:12:08,429 Y seremos nosotros los que estudiaremos estos sistemas de fisiométrica. 72 00:12:08,429 --> 00:12:28,350 Un estudio realizado por el equipo de ingenieros de la Universidad de Colombia en el año 2010, titulado Ética e Inteligencia Social, Necesidad o Urgencia, evidencia que la ética es un componente clave para el desarrollo del futuro de la inteligencia artificial, pues es la base para mantener la integridad y la desequilibridad de sus aplicaciones y para salvaguardar la vida misma. 73 00:12:28,350 --> 00:12:35,309 En conclusión, estos tres argumentos, antropológico, de seguridad y de necesidad 74 00:12:35,309 --> 00:12:38,850 Apoyan nuestra tesis de que el progreso es el auténtico motor de la vida humana 75 00:12:38,850 --> 00:12:43,710 Y que por tanto las máquinas que funcionan autónomamente sí que deberían incluir sistemas de decisión eficaz 76 00:12:43,710 --> 00:12:47,370 En definitiva, queremos que nos acompañen en este paso 77 00:12:47,370 --> 00:12:51,789 Un pequeño paso para las máquinas autónomas y un gran paso para la humanidad 78 00:12:51,789 --> 00:12:52,870 Muchas gracias 79 00:12:52,870 --> 00:13:42,259 Me gustaría que se fijasen en los siguientes elementos que tengo aquí 80 00:13:42,259 --> 00:13:49,639 Esto es glicerina. La glicerina se utiliza en cosméticos, principalmente en jabones y cremas hidratantes. 81 00:13:50,299 --> 00:13:59,000 Esto es permanganato de potasio. Esta sustancia se utiliza en el tratamiento de agua potable y también para realizar lavados gástricos por desintoxicación. 82 00:13:59,679 --> 00:14:11,960 Buenos días a todos. Soy Natalia del Colegio Cambiafuente y con mi equipo defenderé y espero demostrar fehacientemente que las máquinas que funcionan autónomamente no deberían incluir sistemas de decisión ética. 83 00:14:12,259 --> 00:14:17,940 Y no deberían porque es un riesgo. Primero, es un riesgo porque no existe un código ético universal. 84 00:14:18,700 --> 00:14:24,659 La ética es personal. Cada uno de nosotros decide qué hacer en cada momento según su planteamiento ético, 85 00:14:24,659 --> 00:14:30,039 que depende de nuestra civilización, cultura, tradición, biología, genética. 86 00:14:30,559 --> 00:14:36,399 Existen numerosas y muy diversas corrientes de pensamiento ético con las que las personas regimos nuestro comportamiento. 87 00:14:36,399 --> 00:14:45,379 Pero estos códigos éticos que el hombre ha elaborado son simplemente racionalizaciones imperfectas obtenidas a partir del multiforme comportamiento personal. 88 00:14:45,759 --> 00:14:52,659 Porque la ética es personal, no solo porque depende de cada uno, sino porque depende de un individuo de carne y hueso, 89 00:14:52,960 --> 00:15:01,200 un individuo que tiene sentimientos, emociones, afectividad, sentido de culpa, sentido de la responsabilidad, emociones puramente humanas. 90 00:15:01,200 --> 00:15:09,340 Por lo tanto, ¿cómo vamos a plantearnos siquiera incluir sistemas de decisión ética en estas máquinas si la ética es algo absolutamente personal? 91 00:15:09,759 --> 00:15:12,860 ¿Quién define, redacta e implementa esos sistemas de decisión ética? 92 00:15:13,840 --> 00:15:18,659 Aquí les muestro un estudio de la Universidad de Míndoro en el que se demuestran las decisiones de la institución. 93 00:15:19,360 --> 00:15:22,620 En segundo lugar, es un riesgo por la casuística. 94 00:15:23,340 --> 00:15:28,419 Cuando alguien dice que incluye un sistema de decisión ética en una máquina que funciona autónomamente, 95 00:15:28,419 --> 00:15:35,419 lo que realmente hace es programarla para que ante una situación concreta tome una decisión determinada. 96 00:15:36,639 --> 00:15:38,200 Pero la vida es rica en matices. 97 00:15:38,559 --> 00:15:41,639 La mente humana es incapaz de prever todas las posibles alternativas 98 00:15:41,639 --> 00:15:44,600 ante las que la máquina va a tener que tomar una decisión en mitad. 99 00:15:45,320 --> 00:15:52,419 Por lo tanto, cuando una máquina tenga que ejecutar dos decisiones de forma simultánea 100 00:15:52,419 --> 00:15:57,580 mientras que esas dos decisiones se contrarian, la máquina se bloqueará, será inútil. 101 00:15:58,419 --> 00:16:02,240 ha sido de nuestro Alan Winfield con su experimento del H-R-Bot y el H-R-Bot. 102 00:16:02,980 --> 00:16:05,340 En tercer lugar, sabemos que es un riesgo, 103 00:16:05,919 --> 00:16:09,799 porque la forma de actuar de esas máquinas será perjudicial para el ser humano. 104 00:16:10,279 --> 00:16:12,799 El sueldo del abrazón puede crear monstruos. 105 00:16:13,980 --> 00:16:17,940 Las máquinas actuales son potentísimas en la inteligencia lógico-matemática 106 00:16:17,940 --> 00:16:19,879 y se defienden en la lingüística verbal. 107 00:16:20,740 --> 00:16:26,139 Además, tienen unas capacidades de procesamiento y almacenamiento y formación casi inconcebibles. 108 00:16:26,899 --> 00:16:29,019 Precisamente por ese motivo son peligrosas. 109 00:16:29,500 --> 00:16:33,720 Gracias a sus grandes cualidades y a los grandes beneficios que han aportado a la humanidad, 110 00:16:34,220 --> 00:16:37,940 puede llegar a parecernos que esas máquinas pueden ser como nosotros, 111 00:16:38,360 --> 00:16:44,340 que esas máquinas pueden tomar decisiones éticas y por lo tanto ser libres y por ello responsables. 112 00:16:45,159 --> 00:16:47,639 Todo esto por ahora es la ciencia de las decisiones. 113 00:16:47,639 --> 00:16:54,580 El cosmos ha tardado entre 1.500 millones de años en crear una máquina ética tan perfecta como es el hombre. 114 00:16:54,580 --> 00:17:00,659 Y el hombre pretende crear una máquina ética más imperfecta y limitada en tan solo unas decenas de años. 115 00:17:01,200 --> 00:17:07,339 ¿Qué pasará cuando a cerebros lógicos tan potentes como son estas máquinas les incluyamos sistemas de decisión ética? 116 00:17:07,700 --> 00:17:12,740 Podemos crear monstruos, monstruos como los dos, los sistemas de armamento de cada otro. 117 00:17:14,200 --> 00:17:18,940 Me gustaría recordar mi exhorte de la mujerina y el hermano de la computación. 118 00:17:19,480 --> 00:17:22,339 Dos sustancias aparentemente beneficiosas para la humanidad. 119 00:17:23,059 --> 00:17:26,519 Pues bien, miren qué pasa cuando estas sustancias reaccionan. 120 00:17:34,529 --> 00:17:36,130 Sale humo y fuego. 121 00:17:36,789 --> 00:17:40,230 Pues lo mismo pasará con las máquinas y los sistemas de edición hídrica. 122 00:17:40,589 --> 00:17:41,130 Muchas gracias. 123 00:18:12,720 --> 00:18:41,430 El hidrógeno también es un compuesto orgánico y se utiliza para el combustible. 124 00:18:42,049 --> 00:18:45,490 El oxígeno es otro compuesto orgánico y es necesario para respirar. 125 00:18:45,890 --> 00:18:49,190 Juntos, estos dos forman el agua, que es necesaria para la vida. 126 00:18:49,190 --> 00:18:56,369 Buenos días, estimado jurado. Mi nombre es Rodrigo Bolívar y me dispongo a realizar la reputación argumentativa en nombre de mi grupo. 127 00:18:56,690 --> 00:19:02,910 Desde el equipo contrario nos han hablado en primer lugar de que es imposible la creación de una ética universal para las máquinas. 128 00:19:03,369 --> 00:19:11,289 Esto no es lo que proponemos desde nuestro equipo. Desde nuestro equipo buscamos implantar en las máquinas una ética distinta en cada caso. 129 00:19:11,789 --> 00:19:18,549 En el caso de los robots médicos, el juramento hipocrático. En el caso de los robots militares, el código de los derechos humanos. 130 00:19:18,549 --> 00:19:29,210 Por lo tanto, no es necesaria una ética universal para una máquina que sepa actuar en todos los casos, sino para cada caso concreto un tipo de ética distinta que sería posible programar. 131 00:19:30,269 --> 00:19:36,630 Nos han hablado, en segundo lugar, de la casuística, de que la realidad nos presenta miles de casos distintos. 132 00:19:37,170 --> 00:19:44,190 Pero es que, como ya les hemos dicho antes, no pretendemos crear robots que sepan actuar en todos los casos distintos, sino cada uno en un caso concreto. 133 00:19:44,190 --> 00:19:44,990 Dígame, por favor. 134 00:19:45,950 --> 00:19:51,950 ¿Me puede decir cómo se podría programar a una máquina autónoma cuando la decisión a tomar está entre dos malas opciones? 135 00:19:54,319 --> 00:20:02,559 ¿Cómo puede un robot escoger entre dos decisiones malas? Nos lo responde Carl Joseph Kuhn en su libro Ética a los robots. La respuesta es clara, el mal menor. 136 00:20:03,579 --> 00:20:08,440 Bueno, por último nos han hablado del peligro de que las máquinas se vuelvan en contra de nosotros. 137 00:20:08,900 --> 00:20:15,299 Pero, ¿cómo se van a volver estas máquinas en nuestra contra si somos nosotros mismos los que les metemos estos sistemas de decisión ética? 138 00:20:16,119 --> 00:20:18,980 Son nuestros sistemas de ciencia ética los que nos vamos a implantar. 139 00:20:19,299 --> 00:20:22,460 Las máquinas van a actuar de cara al bien, de cara a nuestro bien. 140 00:20:22,960 --> 00:20:26,680 Como dice nuestra propia tesis, el progreso es el motor de la humanidad. 141 00:20:27,160 --> 00:20:32,180 Vale, pues estas máquinas con sistemas de ciencia ética van a ser tal vez el avance más grande en la historia de la humanidad. 142 00:20:33,359 --> 00:20:36,339 Voy a proceder ahora a desarrollar nuestra línea argumental. 143 00:20:37,099 --> 00:20:40,700 En primer lugar, nuestro compañero ha hablado de un argumento antropológico. 144 00:20:40,700 --> 00:20:48,279 El progreso es algo inherente al hombre, que lo lleva a la evolución y al desarrollo, y esto le permite superar sus propias limitaciones. 145 00:20:49,759 --> 00:20:56,539 Como dice Juan Sevillano Zavala, director de RockFuel España, empresa punter en inteligencia artificial y big data, 146 00:20:56,940 --> 00:21:03,880 a día de hoy todos los avances en inteligencia artificial han sido en positivo, y esta cada vez nos acompaña mejor para conocernos y ayudarnos. 147 00:21:03,880 --> 00:21:12,640 ¿Considera usted que un coche autónomo debe tener la responsabilidad de decidir si sacrificar a su ocupante por salvar a un autobús escolar lleno de niños? 148 00:21:13,339 --> 00:21:24,539 Como les enseñaré enseguida, en mi segundo argumento, hay empresas que toman la responsabilidad de los coches autónomos que están creando. Si no le importa, voy a seguir con mi primer argumento y se lo demostraré ahora en mi segundo argumento. 149 00:21:24,539 --> 00:21:38,200 Para evidenciar cómo el progreso en las máquinas autónomas con sistemas de cirética es beneficioso para el hombre, les presento este estudio creado por Deloitte en 2015, 150 00:21:38,200 --> 00:21:53,619 que dice que la tecnología sustituye el trabajo laborioso aumentando la productividad y reduciendo los precios. Además, dice que los sectores de innovación tecnológica se desarrollan rápidamente gracias a las máquinas y por este mismo motivo crean más puestos de trabajo. 151 00:21:54,299 --> 00:22:03,440 También dije que desde 1992 el número de puestos de trabajo totales ha aumentado un 23%, un 23% desde ese mismo año. 152 00:22:03,619 --> 00:22:16,339 La conclusión de este estudio es que los últimos 200 años nos demuestran que cuando una máquina autónoma sustituye a un humano, el resultado es, paradójicamente, un desarrollo y un aumento de los trabajos mucho más grande. 153 00:22:16,339 --> 00:22:22,710 En segundo lugar, un argumento de seguridad 154 00:22:22,710 --> 00:22:29,289 Como dice el informe del relator especial sobre las ejecuciones extrajudiciales del Consejo de los Derechos Humanos de 2013 155 00:22:29,289 --> 00:22:34,789 Los robots no actuarían por venganza, pánico, ira, rencor, prejuicio o miedo 156 00:22:34,789 --> 00:22:39,750 Además, no causarían sufrimientos a la población civil, por ejemplo, mediante la tortura 157 00:22:39,750 --> 00:22:42,089 Además, los robots tampoco violan 158 00:22:42,089 --> 00:22:49,230 Tenemos también un ejemplo de por qué las máquinas autónomas son más seguras que los humanos 159 00:22:49,230 --> 00:22:52,289 Aquí tenemos el ejemplo del que les hablaba antes, Volvo 160 00:22:52,289 --> 00:22:59,430 Volvo es una de las primeras empresas que está creando coches autónomos que están circulando ya legalmente en las carreteras 161 00:22:59,430 --> 00:23:04,150 Volvo se hace responsable de los accidentes ocurridos por sus coches 162 00:23:04,150 --> 00:23:09,849 De este modo, demostramos que cabe la responsabilidad dentro de las máquinas autónomas 163 00:23:09,849 --> 00:23:27,349 Y así queda también respondida la pregunta que usted me ha hecho. Por último, un argumento de necesidad. Como dice el investigador del Instituto Tecnológico de Massachusetts, Andrew McAfee, en su libro La segunda era de las máquinas, las máquinas autónomas son ya una realidad. 164 00:23:27,349 --> 00:23:33,529 Por lo tanto, desde nuestro equipo estamos absolutamente convencidos de que la consecuencia lógica es incluirle sistemas de decisión ética. 165 00:23:33,869 --> 00:23:35,690 ¿Para qué? Para que actúen de cara al bien. 166 00:23:36,490 --> 00:23:43,170 Señores, el amor como principio, el orden como base y el progreso como fin. Muchas gracias. 167 00:24:17,089 --> 00:24:27,029 Buenas tardes a todos. Me llamo Begoña García y soy la encargada de realizar la reputación argumentativa en contra de que las máquinas posean sistemas de decisión ética. 168 00:24:27,849 --> 00:24:33,150 En primer lugar, el equipo contrario en su primer argumento nos ha dado un argumento antropológico. 169 00:24:33,829 --> 00:24:38,390 Hablan del progreso tecnológico que estas máquinas tendrían al poseer sistemas de decisión ética. 170 00:24:38,890 --> 00:24:43,750 Sin embargo, yo les digo que este progreso no existiría, no sería ningún progreso. ¿Por qué? 171 00:24:44,150 --> 00:24:49,549 Porque incluyéndoles sistemas de decisión ética a estas máquinas estaríamos proporcionando su bloqueo. 172 00:24:49,549 --> 00:24:51,230 ¿Por qué? Por la casuística. 173 00:24:51,970 --> 00:24:57,470 Somos incapaces de programar a una máquina para la infinidad de situaciones que se nos plantean en la vida. 174 00:24:58,049 --> 00:25:01,869 Ni siquiera el ser humano es capaz de prever todas esas situaciones. 175 00:25:02,509 --> 00:25:08,109 Llegaría un momento en el que a la máquina se le plantearía una situación para la que no ha sido programada 176 00:25:08,109 --> 00:25:11,430 y eso llevaría a su bloqueo, no realizaría su función. 177 00:25:11,910 --> 00:25:15,390 ¿De verdad creen que eso es un proceso? ¿Un progreso? ¿No realizar su función? 178 00:25:15,970 --> 00:25:20,910 Alan Wilkins lo direccionó en su experimento de el H-Robot y el A-Robot, dos robots. 179 00:25:21,230 --> 00:25:26,529 El H-Robot actuaba como un humano y el A-Robot tenía la función de salvar a su humano de caerse a un hoyo. 180 00:25:26,970 --> 00:25:30,650 Pues bien, en todas las funciones el A-Robot salvaba al H-Robot. 181 00:25:30,890 --> 00:25:34,089 Pero Alan Wilkie decidió probar con dos H-Robots como humanos. 182 00:25:34,250 --> 00:25:36,569 ¿Y qué pasó? Que el A-Robot se bloqueó. 183 00:25:36,970 --> 00:25:38,650 No supo actuar ante esta situación. 184 00:25:39,210 --> 00:25:43,769 ¿Qué pretenden entonces que haga una máquina autónoma cuando se encuentre ante una decisión ética? 185 00:25:44,849 --> 00:25:50,390 Es que esa decisión ética es el hombre el que tiene que actuar, no una máquina, señores. 186 00:25:51,069 --> 00:25:57,509 En su segundo argumento nos hablan de la seguridad, que nos proporcionaría más seguridad, y han puesto el ejemplo de los robots en la guerra. 187 00:25:57,990 --> 00:26:01,269 Más seguridad, señores. ¿De verdad creen que nos proporcionaría más seguridad? 188 00:26:01,750 --> 00:26:03,970 Estaríamos creando monstruos. ¿Por qué? 189 00:26:04,349 --> 00:26:07,930 Porque una máquina que tiene todas estas potencialidades, toda esta inteligencia, 190 00:26:07,930 --> 00:26:13,150 si le incluimos un factor únicamente propio del ser humano, como es el de tomar decisiones, 191 00:26:13,230 --> 00:26:16,150 en ese momento comenzaría a tener una pseudo-libertad. 192 00:26:16,150 --> 00:26:39,630 Lo que conlleva una responsabilidad que las máquinas no poseen. Se nos iría de las manos, señores. Estaríamos creando monstruos. Y esto lo muestra. Un sistema de armamento letal autónomo capaz de decidir cómo, cuándo y a quién matar. ¿Ustedes le parece esto de verdad seguridad? Y esto se usa en la guerra, señores. Díganme. 193 00:26:40,049 --> 00:26:44,450 ¿Y cuando la decisión ética se tenga que tomar en tan poco tiempo que tenga que actuar la máquina? 194 00:26:44,450 --> 00:26:55,710 Repito, me parece que el hombre tiene la suficiente rapidez y la suficiente iniciativa para realizar la función en el lugar de la máquina, para tomar esa decisión en el lugar de la máquina. 195 00:26:56,009 --> 00:27:04,329 En su tercer argumento nos hablan de necesidad, de que las máquinas autónomas ya están aquí y que lo mejor sería que introdujeran esos sistemas de decisión ética. 196 00:27:04,450 --> 00:27:08,549 Pero yo les pregunto, ¿qué sistemas de decisión ética? ¿Qué códigos éticos les vamos a plantar? 197 00:27:08,549 --> 00:27:22,009 Si no existe un código ético universal, el equipo contrario nos plantea la posibilidad de, en cada situación, incluirle un determinado código ético. ¿De verdad piensan que eso es factible? 198 00:27:22,569 --> 00:27:31,910 ¿Empezar a pensar en cada situación qué código ético meter en las máquinas? Si en esas situaciones, en esas pequeñas situaciones, también hay distintas opiniones. 199 00:27:31,910 --> 00:27:36,410 En esa sanidad de la que ustedes han hablado, también hay distintas opiniones. 200 00:27:36,690 --> 00:27:40,750 El hombre difiere en esas situaciones. No sería factible para nada. 201 00:27:41,289 --> 00:27:43,710 Es que además, esta ética es personal. 202 00:27:44,190 --> 00:27:47,190 La ética es personal. Cada uno decide lo que hacer en cada momento. 203 00:27:47,849 --> 00:27:49,529 Trimontémonos a la antigua bruja. 204 00:27:50,109 --> 00:27:52,970 Desde entonces existen numerosas corrientes filosóficas 205 00:27:52,970 --> 00:27:58,569 que las personas toman o dejan para regir su comportamiento personal, familiar, social. 206 00:27:59,390 --> 00:28:06,750 Observen este estudio realizado por la Facultad de Ciencias Políticas y Políticas de una universidad de Colombia. 207 00:28:06,750 --> 00:28:12,190 En ella clasificaron todas y cada una de las corrientes éticas que ha habido. 208 00:28:12,730 --> 00:28:15,849 Todas ellas defendidas por filósofos de renom. 209 00:28:16,170 --> 00:28:17,910 Y todas ellas distintas. ¿Por qué? 210 00:28:18,349 --> 00:28:19,849 Porque la ética es personal. 211 00:28:20,269 --> 00:28:21,109 Es de cada persona. 212 00:28:21,509 --> 00:28:23,230 Y el nombre difiere en todas ellas. 213 00:28:23,589 --> 00:28:28,009 Por lo tanto sería completamente un riesgo pensar siquiera en decidir 214 00:28:28,009 --> 00:28:44,450 ¿Cuál de todas ellas incluiría? ¿Cuál es la verdadera señores? ¿Cuál de todas ellas incluiríamos? Y no solo eso, es que es mucho más. Estos códigos éticos que el equipo contrario pretende plantear e implantar a las máquinas son limitados porque proceden de la razón del hombre. 215 00:28:44,450 --> 00:29:04,809 Pero la ética es mucho más, señores. La ética del hombre se ve afectada por sus sentimientos, sus emociones. Esas son cualidades que es imposible implantar a una máquina. Imposible. Por tanto, todos estos códigos éticos que pretendemos implantar serían limitados y por eso sería un auténtico riesgo. Por eso. 216 00:29:04,809 --> 00:29:18,829 Y por todo lo que acabo de comentar en mi refutación argumentativa, el equipo de la fuente estamos completamente en contra de que se le incluyan sistemas de decisión ética a las máquinas que funcionan autónomamente. Muchas gracias. 217 00:29:19,630 --> 00:29:53,579 Buenas tardes, mi nombre es Víctor Osorio de Silva. 218 00:29:54,200 --> 00:29:56,259 Para empezar, me gustaría proponerles un símil. 219 00:29:57,099 --> 00:30:03,720 Todos los aquí presentes nos damos cuenta que el manuscrito del Quijote es mucho más valioso que una simple copia, 220 00:30:04,279 --> 00:30:08,900 pero que la copia, al tener el mismo contenido que el manuscrito, cumple la misma función. 221 00:30:10,359 --> 00:30:14,380 Pero sin embargo, el manuscrito siempre será el manuscrito y una copia siempre será una copia. 222 00:30:15,079 --> 00:30:16,619 Algo parecido ocurre aquí. 223 00:30:16,619 --> 00:30:37,059 La ética sería el manuscrito y un sistema de decisión ética sería la copia. Nosotros no pretendemos entregar el manuscrito a las máquinas como se empeña en intentar acusarnos el equipo contrario. Nosotros queremos hacer una copia para introducirlo en las máquinas de manera que cuando llegue esa situación sepan actuar. 224 00:30:37,059 --> 00:30:51,519 Nos han hablado del robot H y el robot A. Comprendo que habrán leído el estudio del profesor Winfield, en el cual se muestra que ese estudio se hizo para probar las leyes de Asimov, señores, no sistemas de decisión ética. 225 00:30:51,980 --> 00:30:58,740 Probaron las leyes de Asimov y comprobaron que los robots efectivamente se bloqueaban porque carecían de decisiones éticas. 226 00:30:58,740 --> 00:31:06,940 Al introducir sistemas de decisiones éticas no se bloquearán. Y esto es lo que defendemos en nuestro equipo, que sí deberían incorporar sistemas de decisión ética. 227 00:31:07,059 --> 00:31:07,579 Muchas gracias. 228 00:31:26,259 --> 00:31:28,119 ¿Qué es lo que nos hace humanos? 229 00:31:28,740 --> 00:31:32,619 No es algo que se pueda programar, no se puede introducir en un chip. 230 00:31:33,099 --> 00:31:36,980 Es el corazón humano la diferencia entre nosotros y las máquinas. 231 00:31:37,779 --> 00:31:40,539 Buenas tardes, soy Inés y soy del equipo de Aliafuente. 232 00:31:41,099 --> 00:31:43,779 Y el silencio ha dado de realizar la rotación dialéctica de mi equipo, 233 00:31:43,940 --> 00:31:48,220 en el que estamos completamente convencidas de que las máquinas que funcionan autónomamente 234 00:31:48,220 --> 00:31:51,099 no deberían incluir sistemas de decisión ética. 235 00:31:51,099 --> 00:32:11,700 En primer lugar, el equipo contrario ha comentado que sería un gran progreso. Bien, me gustaría ponerles el siguiente ejemplo. El director de Ingeniería de Google, Ray Woodway, aseguró en el Global Futures 2045 International Congress que en 30 años podremos subir la mente humana a la computadora y almacenarla en la nube. 236 00:32:11,700 --> 00:32:23,279 Bien, si observamos la teoría de la evolución, vemos que está evolucionado de la materia inorgánica a la orgánica y con esto pretendemos pasar de la orgánica a la inorgánica. ¿Esto es un progreso o un retroceso? 237 00:32:24,000 --> 00:32:36,839 También nos han comentado las Naciones Unidas. Bien, me gustaría afirmarles que las Naciones Unidas han mostrado su temor y se han reunido la ética en las máquinas, concretamente la ética en las máquinas para la guerra. 238 00:32:36,839 --> 00:32:42,599 Esto es un gran problema que incluso las Naciones Unidas es consciente de hecho y sabe perfectamente que hay que evitar. 239 00:32:43,099 --> 00:32:49,579 También han comentado que estas máquinas serían más eficaces, pero como ha evidenciado mi compañera, ¿cómo van a ser más eficaces si estas máquinas se bloquean? 240 00:32:49,920 --> 00:32:50,480 Muchas gracias. 241 00:32:52,119 --> 00:33:09,569 Al principio no había bombas nucleares, luego pasamos a las bombas nucleares. 242 00:33:10,329 --> 00:33:13,289 ¿Consideran un retroceso que desaparezca las bombas nucleares? 243 00:33:14,109 --> 00:33:18,009 La evolución no siempre es igual, la evolución varía. 244 00:33:18,369 --> 00:33:21,369 Por lo tanto, a lo mejor en este caso sí sería la evolución. 245 00:33:22,069 --> 00:33:24,930 Pero nos han vuelto a repetir que se bloquean. 246 00:33:25,470 --> 00:33:28,049 Efectivamente, se bloquean si no tienen sistemas de decisión ética, 247 00:33:28,309 --> 00:33:32,369 tal y como muestra el profesor Winfield en la evidencia que ustedes mismos nos han mostrado. 248 00:33:33,190 --> 00:33:38,349 Respecto a lo que nos han hablado de que un hombre, una persona, tiene la velocidad suficiente para reaccionar. 249 00:33:39,069 --> 00:33:40,990 ¿Conocen el concepto de asiento de la muerte? 250 00:33:41,730 --> 00:33:42,809 Es el asiento del copiloto. 251 00:33:43,289 --> 00:33:45,009 se conoce como asiento de la muerte 252 00:33:45,009 --> 00:33:46,970 porque el acto reflejo del conductor 253 00:33:46,970 --> 00:33:49,410 es evitar el obstáculo del camino 254 00:33:49,410 --> 00:33:50,789 y en ese caso 255 00:33:50,789 --> 00:33:52,849 el que recibe el impacto 256 00:33:52,849 --> 00:33:54,490 es el copiloto 257 00:33:54,490 --> 00:33:56,910 una máquina 258 00:33:56,910 --> 00:33:58,150 sería capaz de ver 259 00:33:58,150 --> 00:34:00,630 quién tiene más posibilidades de sobrevivir 260 00:34:00,630 --> 00:34:02,710 y de esta manera elegir 261 00:34:02,710 --> 00:34:03,829 mucho más rápido 262 00:34:03,829 --> 00:34:05,990 cuál sería la solución correcta 263 00:34:05,990 --> 00:34:08,449 no basarnos en la simple intuición 264 00:34:08,449 --> 00:34:11,329 en el simple deseo de supervivencia 265 00:34:11,329 --> 00:34:12,489 de una persona 266 00:34:12,489 --> 00:34:18,469 que al fin y al cabo no lo decide él y por lo tanto no ejerce su libertad, sino un reflejo 267 00:34:18,469 --> 00:34:20,929 y entonces no está siendo humano. Muchas gracias. 268 00:34:32,650 --> 00:34:38,010 Bien, el equipo contrario en una de sus reputaciones nos ha comentado los coches autónomos. 269 00:34:38,010 --> 00:34:40,670 Bien, nosotros no estamos en contra de los coches autónomos, 270 00:34:40,969 --> 00:34:44,050 pero estamos en contra de que estos coches autónomos tengan ética. 271 00:34:44,389 --> 00:34:48,269 La situación es ética en las carreteras, ni siquiera sabe el ser humano qué hacer. 272 00:34:48,550 --> 00:34:49,889 Pongámonos en la siguiente situación. 273 00:34:50,429 --> 00:34:54,090 Vamos conduciendo el coche, llevamos a nuestra mujer, marido y a nuestros hijos. 274 00:34:54,610 --> 00:34:57,230 Y nos vamos a chocar con un autobús lleno de niños. 275 00:34:57,809 --> 00:35:01,789 ¿Qué deberíamos realizar? ¿Matar a los que están dentro del coche o a los del autobús? 276 00:35:02,030 --> 00:35:06,150 Ni siquiera un hombre sabe qué realizar en estas situaciones, menos una máquina. 277 00:35:07,010 --> 00:35:12,110 Además, es que en el H-Robot y en el A-Robot no se podría incluir un sistema de decisión ética. 278 00:35:12,110 --> 00:35:17,329 Es imposible. Como les ha demostrado mi compañera, existe una gran diversidad de corrientes éticas. 279 00:35:17,710 --> 00:35:21,949 Existe una gran diversidad de culturas, de ideas, de opiniones, de filosofías de la vida 280 00:35:21,949 --> 00:35:25,369 que nos han llevado a la Primera Guerra Mundial, a la Segunda Guerra Mundial. 281 00:35:25,710 --> 00:35:28,349 Y muchos afirman que estamos a puertas de la Tercera Guerra Mundial. 282 00:35:29,030 --> 00:35:32,989 Si ni siquiera los hombres con su propia ética podemos comportarnos adecuadamente, 283 00:35:33,469 --> 00:35:35,710 ¿cómo vamos a implantárselo a una máquina? 284 00:35:36,230 --> 00:35:41,070 Por lo tanto, estas máquinas no son un progreso, no son un beneficio con sistemas de decisión ética. 285 00:35:41,469 --> 00:35:43,809 Son simplemente un gran riesgo. Muchas gracias. 286 00:35:43,809 --> 00:36:10,199 Si se diera el caso del coche y el autobús, una máquina probablemente podría calcular lo suficientemente rápido las probabilidades y el punto de choque concreto para salvar a una mayor cantidad de personas. 287 00:36:10,840 --> 00:36:17,599 Un humano sí puede bloquearse. Todos sentimos aquí en el propio debate cómo se nos paralizan las piernas cuando salimos a hablar. 288 00:36:17,599 --> 00:36:32,340 Bien, eso es una reacción humana que puede resultar catastrófica y no resultar en que se salve o los del coche o los del autobús, sino que perezcan los conductores y los pasajeros de ambos. 289 00:36:32,340 --> 00:36:50,199 Me gustaría mostrarles una pequeña cita sobre el informe del Rector Especial sobre las ejecuciones extrajudiciales, que afirma que el especialista en robótica Ronald Larkin ha propuesto, por ejemplo, distintas formas de incorporar un regulador ético en los robots militares para garantizar que cumplan esas prescripciones. 290 00:36:50,199 --> 00:37:17,880 Es decir, su tercer argumento en el que hablan de que se podrían volver contra nosotros es refutado por el propio especialista y citado por el Consejo de los Derechos Humanos en 2013. De esta manera, nosotros creemos en el verdadero progreso. Nosotros creemos en el progreso en el que el hombre será complementado por las máquinas y poco a poco llegará a lo que está hecho para hacer. Muchas gracias. 291 00:37:18,840 --> 00:37:43,400 Bien, el equipo contrario nos ha comentado que el coche autónomo podría salvar tanto a los del coche como a los del autobús. 292 00:37:43,699 --> 00:37:49,019 Bien, pero es que esto podría realizarlo sin sistemas de decisión ética, simplemente siendo una máquina autónoma. 293 00:37:49,360 --> 00:37:52,300 En mi equipo no estamos en contra del avance, del progreso. 294 00:37:52,780 --> 00:37:56,780 Simplemente tenemos que evitar hacer cosas de las que luego podamos arrepentirnos, 295 00:37:57,019 --> 00:38:01,619 como sería, por ejemplo, implantarles a las máquinas autónomas sistemas de decisión ética. 296 00:38:01,619 --> 00:38:21,800 Y además, es que como sabemos, la ética es únicamente exclusivo del ser humano, como ha explicado mi compañera. Estas normas y códigos éticos provienen únicamente de la parte racional, del hombre de la razón. Por lo tanto, están limitadas esas normas y esos códigos. Eso no es la ética. Por lo tanto, ¿qué estamos creando? Podríamos estar creando monstruos. 297 00:38:21,800 --> 00:38:48,159 ¿De verdad vamos a incluir, como ha dicho el equipo contrario, en por ejemplo drones de guerra? Si ni siquiera el ser humano sabe qué realizar en una guerra, menos una máquina. ¿Qué le vamos a implantar a esa máquina? ¿Qué va a decidir en una situación de guerra, en una situación extrema, si ni siquiera el ser humano sabe hacerlo? Por lo tanto, las máquinas autónomas son beneficiosas, son necesarias, pero no con sistemas de decisión ética. Muchas gracias. 298 00:38:48,159 --> 00:39:08,909 Sistema de decisión ética. ¿Cómo, por favor, puede el coche autónomo tomar una decisión 299 00:39:08,909 --> 00:39:14,590 si no tiene un sistema de decisión? Han sugerido que el coche autónomo no necesita un sistema 300 00:39:14,590 --> 00:39:20,510 de decisión ética. Entonces, ¿cómo podrá decidir? Respecto a su primer argumento de 301 00:39:20,510 --> 00:39:25,829 la ética no universal, me gustaría remitirme a la democracia en la que todos vivimos y 302 00:39:25,829 --> 00:39:31,050 de la que todos nos sentimos orgullosos. La democracia se basa en el consenso, en la 303 00:39:31,050 --> 00:39:36,809 colaboración, en el diálogo, en compartir nuestras opiniones. Ahí hay un paso para 304 00:39:36,809 --> 00:39:42,409 encontrar esas decisiones concretas que pretendemos implantar en casos concretos para ciertas 305 00:39:42,409 --> 00:39:47,969 máquinas autónomas. Han vuelto a reafirmarse en su postura de que la ética es humana. 306 00:39:48,289 --> 00:39:52,650 No se lo negamos. Por eso no queremos entregarles la ética, no queremos entregarles el manuscrito. 307 00:39:53,309 --> 00:39:57,849 Temen que les entreguemos el manuscrito, pero nosotros lo que queremos es entregarles una copia 308 00:39:57,849 --> 00:40:05,309 para que no se bloqueen, para que puedan evitar ese choque mortal y salvar al mayor número de personas. 309 00:40:06,210 --> 00:40:07,429 Me gustaría lanzarles una pregunta. 310 00:40:08,130 --> 00:40:12,070 ¿En qué se diferencia su postura de la de los nuditas del siglo XVIII? 311 00:40:13,230 --> 00:40:19,409 Nosotros nos hemos basado en tres argumentos y en nuestra tesis de que el progreso es el auténtico motor de la vida humana. 312 00:40:19,530 --> 00:40:20,010 Muchas gracias. 313 00:40:20,010 --> 00:40:55,420 Bien, me gustaría volver a repetir que el equipo contrario ha dicho que el coche autónomo sí que necesitaría una ética para tomar una decisión. 314 00:40:55,519 --> 00:41:02,639 Bien, sería una decisión de cálculo que las máquinas autónomas ya poseen para poder evitar el impacto, pero no una decisión ética. 315 00:41:03,699 --> 00:41:10,960 Además, estoy de acuerdo con ustedes en que está bien que todos los seres humanos nos pongamos de acuerdo un consenso, por ejemplo, la declaración de los derechos humanos. 316 00:41:10,960 --> 00:41:28,219 Estamos a favor absolutamente de eso. Pero bien, si aún ni siquiera los seres humanos nos hemos conseguido poner de acuerdo del todo, y vuelvo a repetir, muchos afirman que estamos a puertas de una tercera guerra mundial, ¿cómo vamos a incluirle la ética a las máquinas si ni siquiera nosotros sabemos aún emplearla adecuadamente? 317 00:41:29,219 --> 00:41:37,239 Y es que además no podemos realizar, como ustedes han dicho, una copia de la ética, porque les vuelvo a repetir que la ética es algo exclusivo del ser humano. 318 00:41:37,820 --> 00:41:46,119 Es algo que únicamente por ser el ser humano, no es solo parte de la razón, también están los sentimientos de efectividad. 319 00:41:46,119 --> 00:41:49,659 Y díganme, ¿esto cómo vamos a implantárselo a una máquina? 320 00:41:50,360 --> 00:41:53,940 Bien, para finalizar, me gustaría repetirles nuestros tres argumentos. 321 00:41:53,940 --> 00:42:12,480 En primer lugar, no existe un código ético universal, la casuística. Estas máquinas se podrían bloquear y no sabemos qué estamos haciendo. Podríamos estar creando monstruos. Es por esta razón por la que mi equipo y yo estamos completamente convencidas de que las máquinas que funcionan autónomamente no deberían incluir sistemas de decisión ética. Muchas gracias. 322 00:42:12,480 --> 00:42:39,360 Muy buenas tardes. Mi nombre es Víctora Cabanas y vengo a concluir lo que mi equipo y el equipo contrario hemos expuesto a lo largo de este debate. 323 00:42:40,219 --> 00:42:45,300 En primer lugar, agradecer la presencia al jurado, al público hoy aquí presente y al equipo contrario por este debate. 324 00:42:46,219 --> 00:42:51,300 Mi equipo y yo hemos venido esta mañana total, completa y absolutamente convencidas de que sería innecesaria, 325 00:42:52,320 --> 00:42:58,280 de que no deberíamos introducir un sistema de código ético en máquinas autónomas, porque esto supondría un riesgo. 326 00:42:58,280 --> 00:43:00,679 Y esto lo hemos evidenciado con nuestros tres argumentos. 327 00:43:01,340 --> 00:43:10,539 En primer lugar, el equipo contrario nos habla de su primer argumento antropológico, diciéndonos que el hombre tiene tendencia a la evolución y a la perfección, pues todo lo que nos rodea es progreso. 328 00:43:10,920 --> 00:43:23,280 A lo que nosotras les hemos refutado con nuestro segundo argumento, nuestro argumento acerca de la casuística, que defiende que al introducir un sistema de código ético en máquinas autónomas las estaríamos programando para realizar una acción completa ante un momento determinado. 329 00:43:23,280 --> 00:43:28,440 determinado. Pero, señores, debemos ser conscientes de que la mente humana es incapaz de recopilar 330 00:43:28,440 --> 00:43:33,320 y de reunir en un único código ético la infinidad de posibilidades que existen ante 331 00:43:33,320 --> 00:43:37,599 una determinada situación. Y no solo eso, sino que la máquina podría bloquearse ante 332 00:43:37,599 --> 00:43:42,300 dos situaciones que hemos implantado o ante una que hemos implantado y otra no. Esto se 333 00:43:42,300 --> 00:43:47,639 lo hemos demostrado con nuestro ejemplo de A-Robot y H-Robot, en el que dos máquinas 334 00:43:47,639 --> 00:43:51,119 se bloquean ante dos situaciones. En segundo lugar, ustedes nos han hablado 335 00:43:51,119 --> 00:43:56,460 de la seguridad que aportaría la eficacia de las máquinas con este sistema de decisión 336 00:43:56,460 --> 00:44:01,280 ética, pues podrían salvar las vidas y participar en catástrofes. A lo que nosotras les hemos 337 00:44:01,280 --> 00:44:05,019 refutado con nuestro tercer argumento, nuestro argumento que defiende que el comportamiento 338 00:44:05,019 --> 00:44:08,519 que podría adoptar esta máquina tras la introducción de un sistema de código ético 339 00:44:08,519 --> 00:44:13,460 podría ser perjudicial para el hombre, pues si actualmente posee un potencial increíble 340 00:44:13,460 --> 00:44:17,679 con respecto a un tipo de inteligencia y una capacidad de almacenamiento desmesurada, ¿de 341 00:44:17,679 --> 00:44:26,699 ¿De veras vamos a aumentar esas capacidades? Pues la máquina podría llegar a superarnos y esto podría volverse nuestra contra, dándose un dominio de la creación sobre superarla. 342 00:44:27,380 --> 00:44:38,059 Y en tercer y último lugar, ustedes nos han hablado de la necesidad. Nos han dicho que introducir este sistema de decisión ética sería lo mejor para que las máquinas actúen orientadas al bien y seremos nosotros quienes diseñemos estos sistemas. 343 00:44:38,059 --> 00:44:58,659 Y nosotros les hemos respetado con nuestro primer argumento acerca de la inexistencia de un único código ético universal. Es decir, la ética es algo personal. Pues somos nosotros quienes decidimos qué hacer en cada momento debido a nuestros ideales, nuestra cultura, nuestra tradición. Y no solo eso, sino quién va a ser el responsable de introducir ese sistema de código ético en la máquina y qué sistema dentro de todos los que existen le va a introducir. 344 00:44:59,280 --> 00:45:05,679 En definitiva, señores, con la introducción de un sistema de código ético a las máquinas autónomas supondría un riesgo para la humanidad. 345 00:45:07,260 --> 00:45:20,519 Viendo el experimento que realizó mi compañera al comienzo del debate, he acogido dos sustancias que individualmente son beneficiosas, pero que al mezclarse suponen un riesgo. 346 00:45:20,860 --> 00:45:25,760 Esto sucedería a introducir un sistema de código ético en una máquina autónoma. Nuestro universo podría quedar hecho cenizas. 347 00:45:27,139 --> 00:45:28,780 Ya para acabar, me gustaría leerles una frase. 348 00:45:28,780 --> 00:45:36,699 Quizá nos estamos acercando a un punto de irreflexión donde el ritmo de los avances tecnológicos se está acelerando a una tasa exponencial 349 00:45:36,699 --> 00:45:41,860 y en un futuro no muy distante las máquinas podrían incluso superar a los humanos con su capacidad de recorrer el universo. 350 00:45:41,980 --> 00:45:42,820 Gracias y buenas noches. 351 00:45:44,440 --> 00:46:24,929 El día que la ciencia estudie fenómenos no físicos avanzará más en una década que en todos los siglos de su existencia. 352 00:46:24,929 --> 00:46:26,889 Nikola Tesla 353 00:46:26,889 --> 00:46:29,190 Buenos días, miembros del jurado 354 00:46:29,190 --> 00:46:31,210 compañeros debatientes, público aquí presente 355 00:46:31,210 --> 00:46:32,809 me llamo Enrique Álvarez de Toledo 356 00:46:32,809 --> 00:46:35,389 y para concluir, después de escuchar 357 00:46:35,389 --> 00:46:36,690 los argumentos de ambos equipos 358 00:46:36,690 --> 00:46:38,989 voy a acudir al progreso del debate 359 00:46:38,989 --> 00:46:41,409 para demostrarles que las máquinas 360 00:46:41,409 --> 00:46:42,690 que funcionan autónomamente 361 00:46:42,690 --> 00:46:45,190 sí deberían incluir sistemas 362 00:46:45,190 --> 00:46:46,010 de decisión ética 363 00:46:46,010 --> 00:46:49,710 el equipo contrario nos ha mostrado tres argumentos 364 00:46:49,710 --> 00:46:50,849 nos han hablado 365 00:46:50,849 --> 00:46:53,650 de que no se puede conseguir un código ético 366 00:46:53,650 --> 00:46:59,170 universal. Sin embargo, nosotros les hemos mostrado que no hace falta un código ético 367 00:46:59,170 --> 00:47:03,809 universal. Lo que queremos es una copia del manuscrito del Quijote, en el ejemplo que 368 00:47:03,809 --> 00:47:08,949 ha dicho mi amigo, para cada caso concreto. Si ponemos casos concretos, no hace falta 369 00:47:08,949 --> 00:47:14,389 algo universal. El segundo argumento es el de la casuística. Nos han hablado de que 370 00:47:14,389 --> 00:47:21,150 existe infinitud de casos. Tienen miedo de que el robot se bloquee. Sin embargo, como 371 00:47:21,150 --> 00:47:26,409 han mostrado ellas mismas en el ejemplo del robot H y el robot A, cuando se bloquea es 372 00:47:26,409 --> 00:47:31,750 cuando el robot no tiene capacidad de decisión ética. Si la tiene, puede tomar esa decisión 373 00:47:31,750 --> 00:47:39,590 y, por tanto, no se bloquearía. Y un tercer argumento de peligro. Tienen miedo. Temen 374 00:47:39,590 --> 00:47:44,670 que se vuelvan contra nosotros y, sin embargo, les hemos mostrado que Ronald Arkin, para 375 00:47:44,670 --> 00:47:52,050 el Consejo de los Derechos Humanos dijo que se podía implantar un regulador ético para 376 00:47:52,050 --> 00:47:57,210 que no se volviese contra nosotros. Fácil solución para el miedo que tiene. Nosotros 377 00:47:57,210 --> 00:48:02,010 hemos apoyado nuestra postura en tres argumentos. Hemos hablado de un argumento antropológico 378 00:48:02,010 --> 00:48:06,969 y es que el progreso es intrínseco al ser humano y el progreso tecnológico es beneficioso 379 00:48:06,969 --> 00:48:11,809 para nosotros. Se lo hemos mostrado en la introducción con la gráfica de la creciente 380 00:48:11,809 --> 00:48:16,550 esperanza de vida de las Naciones Unidas. Un segundo argumento de seguridad, y es que 381 00:48:16,550 --> 00:48:21,369 la precisión y eficacia de estas máquinas las podría llevar a conflictos armados y 382 00:48:21,369 --> 00:48:26,289 a operaciones de salvamento, como el ejemplo de Provotatlo. También daría seguridad en 383 00:48:26,289 --> 00:48:29,750 el ejemplo que ha salido tanto en este debate del coche autónomo, que tendría que tomar 384 00:48:29,750 --> 00:48:33,969 una decisión para salvar a cuantas más personas pudiese y que con esa decisión ética 385 00:48:33,969 --> 00:48:39,969 podría hacerlo. Y un tercer argumento de necesidad. Estas máquinas son una realidad, 386 00:48:39,969 --> 00:48:44,769 existen, están aquí entre nosotros, ¿no sería mejor que ante un dilema ético 387 00:48:44,769 --> 00:48:48,789 tuviesen capacidad de tomar decisiones? ¿Tuviesen un sistema 388 00:48:48,789 --> 00:48:52,750 de decisión ética? De este modo, el equipo del Colegio 389 00:48:52,750 --> 00:48:56,489 Retamar, afirmando, razonando y evidenciando, ha dado respuesta 390 00:48:56,489 --> 00:49:00,869 a la pregunta de este debate. Las máquinas que funcionan autónomamente sí deberían 391 00:49:00,869 --> 00:49:04,789 incluir sistemas de decisión ética, porque el progreso es el verdadero motor 392 00:49:04,789 --> 00:49:08,389 de toda vida humana. Se ha avanzado durante toda tu historia. 393 00:49:08,389 --> 00:49:20,329 No te has quedado aquí. Has dado paso tras paso tras paso. Cuando ya no tengas un paso más que dar, necesitarás algo que dé el paso. Muchas gracias. 394 00:50:28,469 --> 00:51:34,329 Muy buenas tardes. Pues director de la escuela, buen amigo además de épocas pasadas, equipos directivos de los centros participantes, profesores, jueces y, por supuesto, alumnos y alumnas. 395 00:51:34,329 --> 00:51:49,030 Ante todo, daros la enhorabuena a vosotros, a los dos equipos y a todos los que habéis participado por vuestro desempeño en esta séptima edición del torneo de debate escolar de la Comunidad de Madrid. 396 00:51:49,030 --> 00:51:59,630 En esta edición casi 600 jóvenes que han demostrado que la buena oratoria en ocasiones es algo innato 397 00:51:59,630 --> 00:52:06,670 en alguno de vosotros seguro, pero también es una habilidad que se puede aprender 398 00:52:06,670 --> 00:52:14,190 siempre y cuando estés dispuesto a esforzarte y a trabajar, digamos, en su adquisición 399 00:52:14,190 --> 00:52:39,809 Bueno, me corresponde intervenir después de haber escuchado a los finalistas de los finalistas de un terneo de debate tan competitivo como este y la verdad es que es una prueba complicada, me lo habéis puesto muy, muy difícil y no voy a entrar en mi opinión sobre la ética en las máquinas porque entonces sí que acabaría destrozado, esa es la realidad. 400 00:52:39,809 --> 00:53:01,869 Pero sí que quiero seguir tres reglas de oro de uno de los que dicen que han sido uno de los mejores oradores de la historia contemporánea. Franklin Delano Roosevelt, único presidente de los Estados Unidos durante tres mandatos, que tenía tres recomendaciones para todo orador que creo que son bastante fáciles también de recordar. 401 00:53:01,869 --> 00:53:21,510 La primera es ser sincero, ser breve y siéntate. Las dos primeras las voy a hacer y la tercera voy a decir algo antes de sentarme, pero evidentemente es una gran oportunidad el poder estar aquí y disfrutar de lo que he disfrutado de este debate. 402 00:53:22,250 --> 00:53:28,289 Dos consideraciones muy importantes para compartir con vosotros de forma rápida. 403 00:53:29,190 --> 00:53:38,090 La primera de ellas es que esta capacidad de debate y de oratoria es una de las habilidades más importantes que podéis adquirir como parte de vuestra educación. 404 00:53:38,090 --> 00:53:56,210 Es verdad que nuestro sistema educativo, el sistema educativo español, pues no se ha distinguido históricamente, ni siquiera en la actualidad, por prestar demasiada atención precisamente a la oratoria, al debate, pero siempre hay tiempo para ponerle remedio. 405 00:53:56,210 --> 00:54:11,329 En el caso concreto de la Comunidad de Madrid, fue pionera en la organización de esta iniciativa hace ya siete años y que hoy por hoy es el torneo de debate más importante de España. 406 00:54:11,329 --> 00:54:22,650 Sea cual sea vuestra profesión, os garantizo que en algún momento vais a tener que persuadir o que convencer a alguien con argumentos, 407 00:54:22,710 --> 00:54:28,369 como lo habéis estado haciendo. Y lo aprendido en estos meses seguro que os va a ser de mucha utilidad. 408 00:54:28,369 --> 00:54:36,929 Es verdad que esa capacidad dialéctica, de oratoria, siempre se vincula con profesiones como la abogacía o la política, 409 00:54:36,929 --> 00:54:50,730 Pero todas, absolutamente todas las ocupaciones demandan y se benefician de esta habilidad, más allá del ámbito laboral, incluso en las estrategias también personales, en vuestra vida cotidiana. 410 00:54:50,730 --> 00:55:00,789 Estoy absolutamente seguro que algunos de vosotros, si no todos, pues ya habéis puesto en prueba algunos de esos principios y estrategias aprendidos 411 00:55:00,789 --> 00:55:07,349 para convencer a vuestros amigos, a vuestros familiares o a vuestros padres de algo en alguna ocasión 412 00:55:07,349 --> 00:55:19,349 Por suerte los padres también desarrollamos habilidades de supervivencia, una práctica intensiva también en tácticas y estrategias de negociación, de persuasión 413 00:55:19,349 --> 00:55:27,949 persuasión, incluso en ocasiones de evasión. Así que, bueno, vuestros padres, que probablemente 414 00:55:27,949 --> 00:55:33,130 muchos de ellos no hayan recibido un curso como vosotros, pero que sí me tendréis que 415 00:55:33,130 --> 00:55:39,070 reconocer que os ganan en experiencia y habéis comprobado claramente lo difícil que es ganarle 416 00:55:39,070 --> 00:55:45,750 a los padres a la hora de argumentar. Agradecerles también que os hayan ayudado, porque seguro 417 00:55:45,750 --> 00:55:52,190 que lo han hecho para prepararos para este torneo. Es una iniciativa de la Comunidad 418 00:55:52,190 --> 00:55:58,889 de Madrid muy querida dentro de la consejería donde somos conscientes que estas habilidades 419 00:55:58,889 --> 00:56:07,230 son habilidades útiles y prácticas para toda vuestra vida académica y laboral. Y 420 00:56:07,230 --> 00:56:12,250 estamos encantados también de que esto no sea simplemente una sensación de la consejería 421 00:56:12,250 --> 00:56:25,510 sino que esto haya tenido un reflejo en la participación en este torneo. En esta ocasión un 34% más que en la edición anterior, 117 equipos nada menos. 422 00:56:25,510 --> 00:56:44,690 Vosotros sois los dos supervivientes de todo este torneo, los mejores. Hemos ofrecido formación, tanto específica a los alumnos, a los profesores preparadores, a quienes, bueno, pues voy a dirigir mi segunda cuestión. 423 00:56:44,690 --> 00:57:04,409 Segunda cuestión que es agradecimiento, agradecimiento a los profesores, a los docentes que habéis hecho este esfuerzo adicional, esfuerzo adicional que no solamente se refleja en este torneo sino en muchas otras actividades que también organiza la consejería, 424 00:57:04,409 --> 00:57:13,909 pues actividades de teatro, de oratoria en inglés, de narración, de poesía, de coros o de campeonatos deportivos. 425 00:57:14,690 --> 00:57:29,670 Es un esfuerzo añadido a la labor diaria de los profesores, que ya son muchas y nada sencilla la mayor parte de ellas, y por eso, como consejero, pues os agradezco y os lo agradezco muy profundamente. 426 00:57:29,670 --> 00:57:48,989 Estoy seguro que además en cada una de vuestras clases podéis percibir cómo esta actividad también ayuda a vuestros alumnos en todas las asignaturas. Estas son habilidades transversales que tienen consecuencias en todas y cada una de las asignaturas. 427 00:57:48,989 --> 00:57:58,309 No les afecta a los conocimientos, pero sí afecta evidentemente a la manera de manejar los argumentos y de utilizar sus conocimientos. 428 00:57:59,670 --> 00:58:10,010 Está claro que este torneo no es más que la parte que flota el iceberg o la punta de lanza. 429 00:58:10,570 --> 00:58:26,590 Debajo está toda la labor que cada uno de vosotros le dedicáis a este objetivo de desarrollar estas habilidades en oratoria y en el debate en nuestros salones. 430 00:58:26,590 --> 00:58:35,389 Para terminar, os voy a contar que hace muy poquito tuve la oportunidad de charlar en la consejería 431 00:58:35,389 --> 00:58:41,869 con el que está considerado mejor orador universitario del mundo, en español, 432 00:58:41,869 --> 00:58:50,110 es Antonio Fabregat, madrileño, y que cuando cursaba también, primero de bachillerato, 433 00:58:50,110 --> 00:59:02,369 pues también participó en este torneo. Así que, como veis, este torneo es una excelente cantera y os animo a que sigáis perfeccionando luego, posteriormente, 434 00:59:02,929 --> 00:59:08,670 como hizo él, esta habilidad que siempre tendrá retos por delante para vosotros. 435 00:59:09,309 --> 00:59:16,570 Muchísimas gracias a todos, muchísimas gracias a los alumnos que habéis participado, a los profesores, preparadores. 436 00:59:16,570 --> 00:59:39,829 Muchas gracias a los equipos directivos de los 71 centros de la región que han participado en el torneo. Muchas gracias a los jueces. Sé que no lo tienen nada fácil, pero en cualquier caso está claro que también la calidad de nuestros jueces determina la calidad del torneo. 437 00:59:39,829 --> 00:59:48,750 Y gracias a los responsables de la escuela, en este caso al director de la Escuela de Caminos, por traernos este espacio. 438 00:59:49,349 --> 01:00:00,969 Mis más sinceras felicitaciones a los dos equipos ganadores. Evidentemente habrá uno solo, pero yo creo que cualquiera de los dos equipos ya ha ganado este torneo. Muchísimas gracias. 439 01:00:00,969 --> 01:00:01,969 Gracias. 440 01:00:32,920 --> 01:00:51,739 que es director general de Innovación, Becas y Ayudas a la Educación, don Rafael Carbonell, que es presidente del Consejo Escolar, y doña María Teresa Aceito, que es asesora del Consejero de Educación, Juventud y Deporte. Muchas gracias por su colaboración y un aplauso. Gracias. 441 01:00:51,739 --> 01:01:13,840 Bueno, pues antes de empezar ya con la lectura de los premios, solamente nombraremos a los centros premiados y los vamos a nombrar de menor a mayor puntuación. 442 01:01:13,840 --> 01:01:22,199 Y no nombraremos a los profesores y a los oradores porque hemos tenido un tiempo récord para tomar las decisiones, así que solamente el nombre de los centros. 443 01:01:22,980 --> 01:01:28,699 Los diplomas que entregaremos son provisionales, tampoco hemos tenido tiempo de hacer diplomas definitivos, 444 01:01:28,699 --> 01:01:36,699 pero anunciamos que los diplomas definitivos los enviaremos al centro y serán personales para cada alumno y profesor. 445 01:01:37,500 --> 01:01:45,420 Pueden subir a recoger el diploma y el premio todos los miembros del equipo junto con sus profesores. 446 01:01:45,420 --> 01:01:59,900 Bueno, pues vamos a comenzar con cinco menciones de 200 euros cada una para el centro y también mención de 200 euros para el profesor preparador correspondiente. 447 01:02:00,480 --> 01:02:08,599 Empezamos con la quinta mención especial, que corresponde al Colegio Retamar Equipo 2 de Pozuelo. 448 01:02:09,619 --> 01:02:45,119 Un aplauso, aunque ya lo hayamos hecho. 449 01:02:45,119 --> 01:03:12,590 Cuarta mención especial al Colegio Virgen de Europa, Equipo 1, de Boadilla del Monte. 450 01:04:05,840 --> 01:04:13,360 Tercera mención especial para el Colegio General de la CED y de la CAMBO, Equipo 1, de San Sebastián de López. 451 01:05:03,840 --> 01:05:08,960 Segunda mención especial al Colegio Orvalle, Equipo 2, de La Rosa. 452 01:05:10,639 --> 01:05:54,389 Un aplauso también para la primera de las menciones, en que nos quedará el colegio Mirabal, equipo 2, de Guadilla del Monte. 453 01:06:16,289 --> 01:06:53,159 Bueno, pues pasamos ahora a los cuatro primeros premios. Cada profesor preparador de cada uno de los cuatro equipos ganadores recibirá 1.000 euros. 454 01:06:53,159 --> 01:07:03,420 Empezamos con el cuarto premio, dotado con 500 euros. Corresponde al Colegio Menor Nuestra Señora de Loreto, Equipo 2 de Madrid. 455 01:07:05,059 --> 01:08:01,519 Tercer premio, dotado con 850 euros, para el Colegio Samer Calasanz, Equipo 2 de Valdemoro. 456 01:08:30,560 --> 01:09:00,739 Los siguientes premios ya se corresponden con el último de los debates. 457 01:09:01,579 --> 01:09:09,939 Segundo premio, dotado con 1.000 euros, corresponde al Colegio Fomento Aldea Fuente, equipo 1. 458 01:09:10,659 --> 01:10:07,689 Bueno, queda algo, ¿no? 459 01:10:08,109 --> 01:10:14,170 Primer premio, dotado con 2.000 euros, para el Colegio Retamar de Pozuelo. 460 01:11:13,319 --> 01:11:19,819 Pues, un momento, un momento, acabamos esta brillantísima final con la despedida, 461 01:11:19,819 --> 01:11:28,079 con unas palabras de la directora general de Innovación, Becas y Adidas a la Educación, Don Ismael Sanz Labrador. 462 01:11:28,220 --> 01:11:30,800 Muchas gracias a todos. Tiene la palabra Don Ismael Sanz. 463 01:11:31,840 --> 01:11:42,979 Muy brevemente, unas palabras para clausurar esta séptima edición. 464 01:11:43,560 --> 01:11:47,600 Decía el consejero, el consejero de Educación, Juventud y Deporte de la Comunidad de Madrid, 465 01:11:48,399 --> 01:11:53,180 que en los debates o en las intervenciones públicas hay que ser sinceros. 466 01:11:53,180 --> 01:12:01,699 Sincero, dejadme deciros, siendo sincero, que los dos grupos me habéis sorprendido muy positivamente. 467 01:12:01,699 --> 01:12:11,579 Ha sido para mí, esta era mi primera experiencia en un torneo escolar de debate y ha sido una experiencia realmente muy gratificante. 468 01:12:12,140 --> 01:12:23,020 Los dos centros, el centro de fomento de Alcobendas y el centro de Retamar, habéis hecho un excelente trabajo. 469 01:12:23,180 --> 01:12:32,039 El día fuente. Excelente, excelente trabajo y realmente ha sido para mí una enorme experiencia. 470 01:12:32,680 --> 01:12:39,420 Teníamos muchísimo interés desde la consejería en impulsar, en promover este torneo. 471 01:12:39,979 --> 01:12:48,399 Ya en los años pasados tuvo muchísimo recorrido entre los centros educativos madrileños y este año todavía más. 472 01:12:48,399 --> 01:13:04,479 Y eso para nosotros también es una satisfacción. El consejero ha hecho lo posible y lo imposible para poder estar porque quería veros en acción. Nos ha estado preguntando durante el debate cómo funcionaba, qué ocurría, si había penalizaciones cuando se pasaba de tiempo. 473 01:13:04,479 --> 01:13:26,340 Y es que de verdad, y en eso como él decía, como decía el consejero, queremos ser sinceros, nos gusta este debate, queremos impulsar esa competencia de expresarse en público, de expresión oral, de intercambiar opiniones, fluidez, de ser rápidos, de tener reflejos y de respetar las opiniones de los demás. 474 01:13:27,060 --> 01:13:31,539 Así que nada, enhorabuena a todos, a todos los grupos que habéis participado, 475 01:13:31,640 --> 01:13:39,439 a los 16 que llegasteis a la fase final esta mañana, a todos y a los dos que habéis llegado a la fase final que he podido ver, 476 01:13:39,859 --> 01:13:46,380 a Nador, a Tatamar, así que enhorabuena y que nos veamos el próximo año. Muchas gracias a todos.