Activa JavaScript para disfrutar de los vídeos de la Mediateca.
VII TORNEO ESCOLAR DE DEBATE DE LA COMUNIDAD DE MADRID
Ajuste de pantallaEl ajuste de pantalla se aprecia al ver el vídeo en pantalla completa. Elige la presentación que más te guste:
VII TORNEO ESCOLAR DE DEBATE
FASE FINAL DEL VII TORNEO ESCOLAR DE DEBATE DE LA COMUNIDAD DE MADRID, celebrado el día 2 de marzo de 2016, en la Escuela Técnica Superior de Ingenieros de Caminos, Canales y Puertos de Madrid.
Secciones del video.
1º.- PRESENTACIÓN DEL ACTO
(00:32) - Director General de Innovación, Becas y Ayudas a la Educación: D. Ismael Sanz Labrador.
2º.- DEBATE DE LOS CENTROS FINALISTAS
(04:50) - Colegio Retamar (Pozuelo de Alarcón)
- Colegio Fomento Aldeafuente (Alcobendas)
3º.- PALABRAS DEL CONSEJERO
(50:00) – Consejero de Educación, Juventud y Deporte: D. Rafael van Grieken Salvador
4º.- ENTREGA DE PREMIOS
(1:00:09) - Presidenta de la Comisión de Selección: Dª María Torres Cayuela
5º .- PALABRAS DE CLAUSURA
(1:11:40) – Director General de Innovación, Becas y Ayudas a la Educación: D. Ismael Sanz Labrador.
FASE FINAL DEL VII TORNEO ESCOLAR DE DEBATE DE LA COMUNIDAD DE MADRID, celebrado el día 2 de marzo de 2016, en la Escuela Técnica Superior de Ingenieros de Caminos, Canales y Puertos de Madrid.
Secciones del video.
1º.- PRESENTACIÓN DEL ACTO
(00:32) - Director General de Innovación, Becas y Ayudas a la Educación: D. Ismael Sanz Labrador.
2º.- DEBATE DE LOS CENTROS FINALISTAS
(04:50) - Colegio Retamar (Pozuelo de Alarcón)
- Colegio Fomento Aldeafuente (Alcobendas)
3º.- PALABRAS DEL CONSEJERO
(50:00) – Consejero de Educación, Juventud y Deporte: D. Rafael van Grieken Salvador
4º.- ENTREGA DE PREMIOS
(1:00:09) - Presidenta de la Comisión de Selección: Dª María Torres Cayuela
5º .- PALABRAS DE CLAUSURA
(1:11:40) – Director General de Innovación, Becas y Ayudas a la Educación: D. Ismael Sanz Labrador.
A la fase final del séptimo torneo escolar de debate de la Comunidad de Madrid.
00:00:00
Da la bienvenida don Ismael Sanz, Director General de Innovación, Becas y Ayudas a la Educación.
00:00:12
Buenas tardes a todos. Bienvenidos a la fase final del séptimo torneo escolar de debate que organiza la Consejería de Educación, Juventud y Deportes.
00:00:19
Tengo que decir, en primer lugar, que es un torneo, este en su séptima edición, que ha visto un incremento muy importante en la participación de los centros educativos y del número de alumnos y es, por ello, ya de por sí un motivo de satisfacción para la consejería esta muestra de interés por parte de los institutos y colegios de secundaria y bachillerato de toda la Consejería de Educación de la Comunidad de Madrid.
00:00:47
Han sido en total 117 equipos representando a 71 centros educativos, por lo tanto, 585 los estudiantes que han participado en esta séptima edición del torneo de debate escolar, lo que supone un 34% de incremento con respecto a la sexta edición del año pasado.
00:01:13
Por tanto, muchas gracias a todos por ese entusiasmo y por esa participación en un torneo en el que tenemos un especial interés desde la consejería.
00:01:34
Quiero agradecer su presencia al presidente del Consejo Escolar, a los directores de área territorial, a los directores de los centros territoriales de innovación y formación del profesorado, a las personas de la Dirección General de Innovación, Becas y Ayudas y, muy en particular, a las tres personas que, de forma más directa, han elaborado y trabajado en el desarrollo de este torneo de debate escolar,
00:01:45
Entre ellas, María Torres, Francisca Calvo y Mercedes Juiz.
00:02:10
Gracias también a los representantes, a los profesores de todos los centros educativos que han participado por vuestro esfuerzo, ilusión y dedicación que habéis puesto durante estas semanas.
00:02:17
Gracias también en conjunto a las familias, que son muchas veces las soledades en este tipo de torneos.
00:02:29
Y que, al fin y al cabo, sois en buena medida responsables de que vuestros hijos hayan desarrollado ese interés, esas competencias, esas habilidades en exponer sus ideas, en expresarse y hacerlas de forma pública.
00:02:37
Muchas gracias. Desde la Consejería de Educación consideramos la habilidad en expresión oral, la posibilidad de expresar tus ideas en público como una de las habilidades más importantes para vuestra vida personal y laboral y, por lo tanto, queríamos en esta séptima edición del torneo escolar intentar extenderlo cada vez más a más institutos, a más centros educativos.
00:02:52
Consideramos que la expresión oral es una competencia transversal que afecta a todas las asignaturas, no está centrada en ninguna de ellas y que además es uno de los aspectos que en muchas ocasiones son de los que más quejas producen entre las empresas, entre la sociedad.
00:03:23
y es que observan que en conjunto hay un déficit por parte de los alumnos españoles en su capacidad de expresarse, de hablar en público
00:03:41
y de poder intercambiar opiniones e ideas y respetar también los puntos de vista de los demás.
00:03:49
Como muestra de este interés, dejadme deciros que el consejero de Educación, Juventud y Deporte de la Consejería de Educación de la Comunidad de Madrid,
00:03:56
don Rafael Van Kriken asistirá a este torneo, vendrá en breves momentos y ha querido expresamente tener la posibilidad de dirigiros a los estudiantes,
00:04:05
ver cómo se desarrolla este debate y poder intercambiar con vosotros cuál ha sido vuestra experiencia y el desarrollo de esta actividad.
00:04:19
Sin más, vamos a dejar paso a los verdaderos protagonistas de esta final, de esta fase final de la séptima edición del torneo de debate escolar. Simplemente dejarme desearos a los dos equipos mucha suerte y muchas gracias a vosotros.
00:04:28
Doña María Torres, presidenta del jurado.
00:04:47
Buenas tardes. Bueno, pues vamos a comenzar el debate final. Los equipos finalistas son, a mi izquierda, el Colegio Retamar de Pozuelo, el equipo 1, mucha suerte, y a la derecha el Colegio Fomento Aldea Fuente, equipo 1 de Alcobendas, mucha suerte también.
00:04:59
Para las personas menos familiarizadas con este modelo de torneo, recordamos muy brevemente las reglas del debate que vamos a presenciar.
00:05:24
Los equipos debaten a favor o en contra de una proposición dada, de una proposición inicial.
00:05:33
En esta séptima edición, la proposición, es decir, el tema de discusión es
00:05:39
las máquinas que funcionan autónomamente deberían incluir sistemas de decisión ética.
00:05:44
Ese es el tema de la discusión. Los tiempos que van a tener los dos equipos son equitativos y pautados. Cada equipo hará una exposición inicial de cuatro minutos. A continuación, le van a seguir varios turnos de refutación por equipo y turno.
00:05:52
Finalmente, cada equipo intervendrá con un turno de conclusión de tres minutos. Después de que se produzca el debate, el jurado se retirará a deliberar, el jurado de la Consejería de Educación asesorado por los jueces de la competición.
00:06:09
Y después procederemos a comenzar la segunda parte de esta clausura, de esta fase final, fallando los premios y entregando los diplomas.
00:06:26
Ya ha sido anunciado que cuando llegue el consejero saludará a los equipos y les dirá unas palabras.
00:06:37
Va a subir a efectuar el sorteo Ferran Balcarce, que es asistente de sala de Anexa. Les dejo con él y con el sorteo. Gracias.
00:06:44
Buenas tardes. Vamos a proceder al sorteo de las posturas. Capitanes, por favor.
00:06:59
En contra.
00:07:21
El colegio Retamar efectuará la postura a favor y el colegio Fomento Aldea Fuente la postura en contra. Mucha suerte.
00:07:23
Con un paso, con este paso, recordamos uno de los mayores hitos de progreso de nuestra historia, la llegada de la obra de la humanidad.
00:07:34
Con un paso, recordamos un acontecimiento sin el cual no hubiésemos llegado hasta donde estamos hoy.
00:08:55
Buenas tardes, excepcismo jurado, querido público y compañeros proactientes.
00:09:03
Mi nombre es Juan Gávez y junto a mis compañeros del equipo de la Universidad de Badajoz estamos hoy aquí para responder a la siguiente proposición que nos hace.
00:09:06
¿Las máquinas que funcionan automáticamente deberían ir en un sistema de precisión ética?
00:09:14
Nosotros afirmamos que claramente sí.
00:09:18
Nuestra tesis se basa en que el progreso es el auténtico motor de la vida humana.
00:09:21
Y la apoyaremos en tres argumentos.
00:09:25
Un argumento de volúmenes, un argumento de seguridad y un argumento de necesidad.
00:09:27
Comencemos definiendo los elementos clave de la cuestión a partir del diccionario de uso de María Moliner.
00:09:32
Una máquina autónoma, y permítanme que lea, es aquella que posee la facultad de gobernar sus propias acciones.
00:09:37
Por su parte, se denomina decisión ética aquella decisión tomada de acuerdo con las reglas morales que regulan el comportamiento.
00:09:43
Nuestro primer argumento es de carácter antropológico y se basa en la intrínseca tendencia del ser humano
00:09:51
hacia el desarrollo, la evolución y, en definitiva, la resurrección.
00:09:56
El hombre y la mujer, escapando del progreso, puso a enfocar a través de los medios tecnológicos las limitaciones humanas.
00:10:00
Todo lo que nos rodea hoy, hoy, en su día, es una cara más a la humanidad humana.
00:10:07
Donde hubiesen quedado las frases geomínicas, la tecnología móvil o incluso el estudio del fenómeno humano para arrastrar el fenómeno humano a la humanidad humana.
00:10:11
En la actualidad, incorporar sistemas de fisiométrica a máquinas autónomas constituye la más alta cota de progreso a la que podemos aspirar y uno de los grandes retos tecnológicos.
00:10:18
La inteligencia artificial.
00:10:27
Esta gráfica, realizada por las Naciones Unidas en el año 2012, evidencia que la esperanza del ser humano de vida ha aumentado desde la primera revolución industrial de la filosofía de 35 a 67 años, y esto es en gran medida alabado al progreso tecnológico, un progreso que lo necesitan las máquinas autónomas, capaces de tomar decisiones éticas.
00:10:29
Nuestros documentos se basan en la seguridad que aportaría la perfecta lógica y eficacia de las máquinas autónomas.
00:10:49
La participación de estas máquinas en conflictos armados, sustituyendo a ciertas personas, nos permitiría salvar vidas humanas.
00:10:57
Lo mismo ocurre en el ámbito de la medicina.
00:11:04
Un robot podría encontrar técnicas y eficacias para realizar operaciones psicológicas y psicológicas complejas.
00:11:06
También podrían intervenir en operaciones de trabajo y en trataciones naturales para
00:11:11
respetar a personas y llegar hasta donde nosotros no podemos.
00:11:17
Les presento al robot DRT-UO, actualmente en desarrollo por la empresa con el Instituto
00:11:21
de Tecnología y Ciencia Embajada de la Universidad de Corea.
00:11:25
Se trata de un robot autónomo que interviene en la geolocalización de los armamentos con
00:11:28
la operación industrial y su labor sería mucho más eficaz si tuviese incorporado un
00:11:32
sistema de aplicación ética que le ayudase a elegir.
00:11:37
Por último, nuestro tercer argumento es un argumento de necesidad.
00:11:40
Más autónomas ya hay y con el paso del tiempo cada vez habrá más.
00:11:45
Son una realidad de nuestro mundo actual y futuro.
00:11:51
Por eso, lo mejor que podemos hacer es incorporarles los sistemas de fisiométrica
00:11:53
para que actúen siempre orientados al bien,
00:11:58
aprovechando de esta manera los avances en tecnología artificial.
00:12:01
Y seremos nosotros los que estudiaremos estos sistemas de fisiométrica.
00:12:04
Un estudio realizado por el equipo de ingenieros de la Universidad de Colombia en el año 2010, titulado Ética e Inteligencia Social, Necesidad o Urgencia, evidencia que la ética es un componente clave para el desarrollo del futuro de la inteligencia artificial, pues es la base para mantener la integridad y la desequilibridad de sus aplicaciones y para salvaguardar la vida misma.
00:12:08
En conclusión, estos tres argumentos, antropológico, de seguridad y de necesidad
00:12:28
Apoyan nuestra tesis de que el progreso es el auténtico motor de la vida humana
00:12:35
Y que por tanto las máquinas que funcionan autónomamente sí que deberían incluir sistemas de decisión eficaz
00:12:38
En definitiva, queremos que nos acompañen en este paso
00:12:43
Un pequeño paso para las máquinas autónomas y un gran paso para la humanidad
00:12:47
Muchas gracias
00:12:51
Me gustaría que se fijasen en los siguientes elementos que tengo aquí
00:12:52
Esto es glicerina. La glicerina se utiliza en cosméticos, principalmente en jabones y cremas hidratantes.
00:13:42
Esto es permanganato de potasio. Esta sustancia se utiliza en el tratamiento de agua potable y también para realizar lavados gástricos por desintoxicación.
00:13:50
Buenos días a todos. Soy Natalia del Colegio Cambiafuente y con mi equipo defenderé y espero demostrar fehacientemente que las máquinas que funcionan autónomamente no deberían incluir sistemas de decisión ética.
00:13:59
Y no deberían porque es un riesgo. Primero, es un riesgo porque no existe un código ético universal.
00:14:12
La ética es personal. Cada uno de nosotros decide qué hacer en cada momento según su planteamiento ético,
00:14:18
que depende de nuestra civilización, cultura, tradición, biología, genética.
00:14:24
Existen numerosas y muy diversas corrientes de pensamiento ético con las que las personas regimos nuestro comportamiento.
00:14:30
Pero estos códigos éticos que el hombre ha elaborado son simplemente racionalizaciones imperfectas obtenidas a partir del multiforme comportamiento personal.
00:14:36
Porque la ética es personal, no solo porque depende de cada uno, sino porque depende de un individuo de carne y hueso,
00:14:45
un individuo que tiene sentimientos, emociones, afectividad, sentido de culpa, sentido de la responsabilidad, emociones puramente humanas.
00:14:52
Por lo tanto, ¿cómo vamos a plantearnos siquiera incluir sistemas de decisión ética en estas máquinas si la ética es algo absolutamente personal?
00:15:01
¿Quién define, redacta e implementa esos sistemas de decisión ética?
00:15:09
Aquí les muestro un estudio de la Universidad de Míndoro en el que se demuestran las decisiones de la institución.
00:15:13
En segundo lugar, es un riesgo por la casuística.
00:15:19
Cuando alguien dice que incluye un sistema de decisión ética en una máquina que funciona autónomamente,
00:15:23
lo que realmente hace es programarla para que ante una situación concreta tome una decisión determinada.
00:15:28
Pero la vida es rica en matices.
00:15:36
La mente humana es incapaz de prever todas las posibles alternativas
00:15:38
ante las que la máquina va a tener que tomar una decisión en mitad.
00:15:41
Por lo tanto, cuando una máquina tenga que ejecutar dos decisiones de forma simultánea
00:15:45
mientras que esas dos decisiones se contrarian, la máquina se bloqueará, será inútil.
00:15:52
ha sido de nuestro Alan Winfield con su experimento del H-R-Bot y el H-R-Bot.
00:15:58
En tercer lugar, sabemos que es un riesgo,
00:16:02
porque la forma de actuar de esas máquinas será perjudicial para el ser humano.
00:16:05
El sueldo del abrazón puede crear monstruos.
00:16:10
Las máquinas actuales son potentísimas en la inteligencia lógico-matemática
00:16:13
y se defienden en la lingüística verbal.
00:16:17
Además, tienen unas capacidades de procesamiento y almacenamiento y formación casi inconcebibles.
00:16:20
Precisamente por ese motivo son peligrosas.
00:16:26
Gracias a sus grandes cualidades y a los grandes beneficios que han aportado a la humanidad,
00:16:29
puede llegar a parecernos que esas máquinas pueden ser como nosotros,
00:16:34
que esas máquinas pueden tomar decisiones éticas y por lo tanto ser libres y por ello responsables.
00:16:38
Todo esto por ahora es la ciencia de las decisiones.
00:16:45
El cosmos ha tardado entre 1.500 millones de años en crear una máquina ética tan perfecta como es el hombre.
00:16:47
Y el hombre pretende crear una máquina ética más imperfecta y limitada en tan solo unas decenas de años.
00:16:54
¿Qué pasará cuando a cerebros lógicos tan potentes como son estas máquinas les incluyamos sistemas de decisión ética?
00:17:01
Podemos crear monstruos, monstruos como los dos, los sistemas de armamento de cada otro.
00:17:07
Me gustaría recordar mi exhorte de la mujerina y el hermano de la computación.
00:17:14
Dos sustancias aparentemente beneficiosas para la humanidad.
00:17:19
Pues bien, miren qué pasa cuando estas sustancias reaccionan.
00:17:23
Sale humo y fuego.
00:17:34
Pues lo mismo pasará con las máquinas y los sistemas de edición hídrica.
00:17:36
Muchas gracias.
00:17:40
El hidrógeno también es un compuesto orgánico y se utiliza para el combustible.
00:18:12
El oxígeno es otro compuesto orgánico y es necesario para respirar.
00:18:42
Juntos, estos dos forman el agua, que es necesaria para la vida.
00:18:45
Buenos días, estimado jurado. Mi nombre es Rodrigo Bolívar y me dispongo a realizar la reputación argumentativa en nombre de mi grupo.
00:18:49
Desde el equipo contrario nos han hablado en primer lugar de que es imposible la creación de una ética universal para las máquinas.
00:18:56
Esto no es lo que proponemos desde nuestro equipo. Desde nuestro equipo buscamos implantar en las máquinas una ética distinta en cada caso.
00:19:03
En el caso de los robots médicos, el juramento hipocrático. En el caso de los robots militares, el código de los derechos humanos.
00:19:11
Por lo tanto, no es necesaria una ética universal para una máquina que sepa actuar en todos los casos, sino para cada caso concreto un tipo de ética distinta que sería posible programar.
00:19:18
Nos han hablado, en segundo lugar, de la casuística, de que la realidad nos presenta miles de casos distintos.
00:19:30
Pero es que, como ya les hemos dicho antes, no pretendemos crear robots que sepan actuar en todos los casos distintos, sino cada uno en un caso concreto.
00:19:37
Dígame, por favor.
00:19:44
¿Me puede decir cómo se podría programar a una máquina autónoma cuando la decisión a tomar está entre dos malas opciones?
00:19:45
¿Cómo puede un robot escoger entre dos decisiones malas? Nos lo responde Carl Joseph Kuhn en su libro Ética a los robots. La respuesta es clara, el mal menor.
00:19:54
Bueno, por último nos han hablado del peligro de que las máquinas se vuelvan en contra de nosotros.
00:20:03
Pero, ¿cómo se van a volver estas máquinas en nuestra contra si somos nosotros mismos los que les metemos estos sistemas de decisión ética?
00:20:08
Son nuestros sistemas de ciencia ética los que nos vamos a implantar.
00:20:16
Las máquinas van a actuar de cara al bien, de cara a nuestro bien.
00:20:19
Como dice nuestra propia tesis, el progreso es el motor de la humanidad.
00:20:22
Vale, pues estas máquinas con sistemas de ciencia ética van a ser tal vez el avance más grande en la historia de la humanidad.
00:20:27
Voy a proceder ahora a desarrollar nuestra línea argumental.
00:20:33
En primer lugar, nuestro compañero ha hablado de un argumento antropológico.
00:20:37
El progreso es algo inherente al hombre, que lo lleva a la evolución y al desarrollo, y esto le permite superar sus propias limitaciones.
00:20:40
Como dice Juan Sevillano Zavala, director de RockFuel España, empresa punter en inteligencia artificial y big data,
00:20:49
a día de hoy todos los avances en inteligencia artificial han sido en positivo, y esta cada vez nos acompaña mejor para conocernos y ayudarnos.
00:20:56
¿Considera usted que un coche autónomo debe tener la responsabilidad de decidir si sacrificar a su ocupante por salvar a un autobús escolar lleno de niños?
00:21:03
Como les enseñaré enseguida, en mi segundo argumento, hay empresas que toman la responsabilidad de los coches autónomos que están creando. Si no le importa, voy a seguir con mi primer argumento y se lo demostraré ahora en mi segundo argumento.
00:21:13
Para evidenciar cómo el progreso en las máquinas autónomas con sistemas de cirética es beneficioso para el hombre, les presento este estudio creado por Deloitte en 2015,
00:21:24
que dice que la tecnología sustituye el trabajo laborioso aumentando la productividad y reduciendo los precios. Además, dice que los sectores de innovación tecnológica se desarrollan rápidamente gracias a las máquinas y por este mismo motivo crean más puestos de trabajo.
00:21:38
También dije que desde 1992 el número de puestos de trabajo totales ha aumentado un 23%, un 23% desde ese mismo año.
00:21:54
La conclusión de este estudio es que los últimos 200 años nos demuestran que cuando una máquina autónoma sustituye a un humano, el resultado es, paradójicamente, un desarrollo y un aumento de los trabajos mucho más grande.
00:22:03
En segundo lugar, un argumento de seguridad
00:22:16
Como dice el informe del relator especial sobre las ejecuciones extrajudiciales del Consejo de los Derechos Humanos de 2013
00:22:22
Los robots no actuarían por venganza, pánico, ira, rencor, prejuicio o miedo
00:22:29
Además, no causarían sufrimientos a la población civil, por ejemplo, mediante la tortura
00:22:34
Además, los robots tampoco violan
00:22:39
Tenemos también un ejemplo de por qué las máquinas autónomas son más seguras que los humanos
00:22:42
Aquí tenemos el ejemplo del que les hablaba antes, Volvo
00:22:49
Volvo es una de las primeras empresas que está creando coches autónomos que están circulando ya legalmente en las carreteras
00:22:52
Volvo se hace responsable de los accidentes ocurridos por sus coches
00:22:59
De este modo, demostramos que cabe la responsabilidad dentro de las máquinas autónomas
00:23:04
Y así queda también respondida la pregunta que usted me ha hecho. Por último, un argumento de necesidad. Como dice el investigador del Instituto Tecnológico de Massachusetts, Andrew McAfee, en su libro La segunda era de las máquinas, las máquinas autónomas son ya una realidad.
00:23:09
Por lo tanto, desde nuestro equipo estamos absolutamente convencidos de que la consecuencia lógica es incluirle sistemas de decisión ética.
00:23:27
¿Para qué? Para que actúen de cara al bien.
00:23:33
Señores, el amor como principio, el orden como base y el progreso como fin. Muchas gracias.
00:23:36
Buenas tardes a todos. Me llamo Begoña García y soy la encargada de realizar la reputación argumentativa en contra de que las máquinas posean sistemas de decisión ética.
00:24:17
En primer lugar, el equipo contrario en su primer argumento nos ha dado un argumento antropológico.
00:24:27
Hablan del progreso tecnológico que estas máquinas tendrían al poseer sistemas de decisión ética.
00:24:33
Sin embargo, yo les digo que este progreso no existiría, no sería ningún progreso. ¿Por qué?
00:24:38
Porque incluyéndoles sistemas de decisión ética a estas máquinas estaríamos proporcionando su bloqueo.
00:24:44
¿Por qué? Por la casuística.
00:24:49
Somos incapaces de programar a una máquina para la infinidad de situaciones que se nos plantean en la vida.
00:24:51
Ni siquiera el ser humano es capaz de prever todas esas situaciones.
00:24:58
Llegaría un momento en el que a la máquina se le plantearía una situación para la que no ha sido programada
00:25:02
y eso llevaría a su bloqueo, no realizaría su función.
00:25:08
¿De verdad creen que eso es un proceso? ¿Un progreso? ¿No realizar su función?
00:25:11
Alan Wilkins lo direccionó en su experimento de el H-Robot y el A-Robot, dos robots.
00:25:15
El H-Robot actuaba como un humano y el A-Robot tenía la función de salvar a su humano de caerse a un hoyo.
00:25:21
Pues bien, en todas las funciones el A-Robot salvaba al H-Robot.
00:25:26
Pero Alan Wilkie decidió probar con dos H-Robots como humanos.
00:25:30
¿Y qué pasó? Que el A-Robot se bloqueó.
00:25:34
No supo actuar ante esta situación.
00:25:36
¿Qué pretenden entonces que haga una máquina autónoma cuando se encuentre ante una decisión ética?
00:25:39
Es que esa decisión ética es el hombre el que tiene que actuar, no una máquina, señores.
00:25:44
En su segundo argumento nos hablan de la seguridad, que nos proporcionaría más seguridad, y han puesto el ejemplo de los robots en la guerra.
00:25:51
Más seguridad, señores. ¿De verdad creen que nos proporcionaría más seguridad?
00:25:57
Estaríamos creando monstruos. ¿Por qué?
00:26:01
Porque una máquina que tiene todas estas potencialidades, toda esta inteligencia,
00:26:04
si le incluimos un factor únicamente propio del ser humano, como es el de tomar decisiones,
00:26:07
en ese momento comenzaría a tener una pseudo-libertad.
00:26:13
Lo que conlleva una responsabilidad que las máquinas no poseen. Se nos iría de las manos, señores. Estaríamos creando monstruos. Y esto lo muestra. Un sistema de armamento letal autónomo capaz de decidir cómo, cuándo y a quién matar. ¿Ustedes le parece esto de verdad seguridad? Y esto se usa en la guerra, señores. Díganme.
00:26:16
¿Y cuando la decisión ética se tenga que tomar en tan poco tiempo que tenga que actuar la máquina?
00:26:40
Repito, me parece que el hombre tiene la suficiente rapidez y la suficiente iniciativa para realizar la función en el lugar de la máquina, para tomar esa decisión en el lugar de la máquina.
00:26:44
En su tercer argumento nos hablan de necesidad, de que las máquinas autónomas ya están aquí y que lo mejor sería que introdujeran esos sistemas de decisión ética.
00:26:56
Pero yo les pregunto, ¿qué sistemas de decisión ética? ¿Qué códigos éticos les vamos a plantar?
00:27:04
Si no existe un código ético universal, el equipo contrario nos plantea la posibilidad de, en cada situación, incluirle un determinado código ético. ¿De verdad piensan que eso es factible?
00:27:08
¿Empezar a pensar en cada situación qué código ético meter en las máquinas? Si en esas situaciones, en esas pequeñas situaciones, también hay distintas opiniones.
00:27:22
En esa sanidad de la que ustedes han hablado, también hay distintas opiniones.
00:27:31
El hombre difiere en esas situaciones. No sería factible para nada.
00:27:36
Es que además, esta ética es personal.
00:27:41
La ética es personal. Cada uno decide lo que hacer en cada momento.
00:27:44
Trimontémonos a la antigua bruja.
00:27:47
Desde entonces existen numerosas corrientes filosóficas
00:27:50
que las personas toman o dejan para regir su comportamiento personal, familiar, social.
00:27:52
Observen este estudio realizado por la Facultad de Ciencias Políticas y Políticas de una universidad de Colombia.
00:27:59
En ella clasificaron todas y cada una de las corrientes éticas que ha habido.
00:28:06
Todas ellas defendidas por filósofos de renom.
00:28:12
Y todas ellas distintas. ¿Por qué?
00:28:16
Porque la ética es personal.
00:28:18
Es de cada persona.
00:28:20
Y el nombre difiere en todas ellas.
00:28:21
Por lo tanto sería completamente un riesgo pensar siquiera en decidir
00:28:23
¿Cuál de todas ellas incluiría? ¿Cuál es la verdadera señores? ¿Cuál de todas ellas incluiríamos? Y no solo eso, es que es mucho más. Estos códigos éticos que el equipo contrario pretende plantear e implantar a las máquinas son limitados porque proceden de la razón del hombre.
00:28:28
Pero la ética es mucho más, señores. La ética del hombre se ve afectada por sus sentimientos, sus emociones. Esas son cualidades que es imposible implantar a una máquina. Imposible. Por tanto, todos estos códigos éticos que pretendemos implantar serían limitados y por eso sería un auténtico riesgo. Por eso.
00:28:44
Y por todo lo que acabo de comentar en mi refutación argumentativa, el equipo de la fuente estamos completamente en contra de que se le incluyan sistemas de decisión ética a las máquinas que funcionan autónomamente. Muchas gracias.
00:29:04
Buenas tardes, mi nombre es Víctor Osorio de Silva.
00:29:19
Para empezar, me gustaría proponerles un símil.
00:29:54
Todos los aquí presentes nos damos cuenta que el manuscrito del Quijote es mucho más valioso que una simple copia,
00:29:57
pero que la copia, al tener el mismo contenido que el manuscrito, cumple la misma función.
00:30:04
Pero sin embargo, el manuscrito siempre será el manuscrito y una copia siempre será una copia.
00:30:10
Algo parecido ocurre aquí.
00:30:15
La ética sería el manuscrito y un sistema de decisión ética sería la copia. Nosotros no pretendemos entregar el manuscrito a las máquinas como se empeña en intentar acusarnos el equipo contrario. Nosotros queremos hacer una copia para introducirlo en las máquinas de manera que cuando llegue esa situación sepan actuar.
00:30:16
Nos han hablado del robot H y el robot A. Comprendo que habrán leído el estudio del profesor Winfield, en el cual se muestra que ese estudio se hizo para probar las leyes de Asimov, señores, no sistemas de decisión ética.
00:30:37
Probaron las leyes de Asimov y comprobaron que los robots efectivamente se bloqueaban porque carecían de decisiones éticas.
00:30:51
Al introducir sistemas de decisiones éticas no se bloquearán. Y esto es lo que defendemos en nuestro equipo, que sí deberían incorporar sistemas de decisión ética.
00:30:58
Muchas gracias.
00:31:07
¿Qué es lo que nos hace humanos?
00:31:26
No es algo que se pueda programar, no se puede introducir en un chip.
00:31:28
Es el corazón humano la diferencia entre nosotros y las máquinas.
00:31:33
Buenas tardes, soy Inés y soy del equipo de Aliafuente.
00:31:37
Y el silencio ha dado de realizar la rotación dialéctica de mi equipo,
00:31:41
en el que estamos completamente convencidas de que las máquinas que funcionan autónomamente
00:31:43
no deberían incluir sistemas de decisión ética.
00:31:48
En primer lugar, el equipo contrario ha comentado que sería un gran progreso. Bien, me gustaría ponerles el siguiente ejemplo. El director de Ingeniería de Google, Ray Woodway, aseguró en el Global Futures 2045 International Congress que en 30 años podremos subir la mente humana a la computadora y almacenarla en la nube.
00:31:51
Bien, si observamos la teoría de la evolución, vemos que está evolucionado de la materia inorgánica a la orgánica y con esto pretendemos pasar de la orgánica a la inorgánica. ¿Esto es un progreso o un retroceso?
00:32:11
También nos han comentado las Naciones Unidas. Bien, me gustaría afirmarles que las Naciones Unidas han mostrado su temor y se han reunido la ética en las máquinas, concretamente la ética en las máquinas para la guerra.
00:32:24
Esto es un gran problema que incluso las Naciones Unidas es consciente de hecho y sabe perfectamente que hay que evitar.
00:32:36
También han comentado que estas máquinas serían más eficaces, pero como ha evidenciado mi compañera, ¿cómo van a ser más eficaces si estas máquinas se bloquean?
00:32:43
Muchas gracias.
00:32:49
Al principio no había bombas nucleares, luego pasamos a las bombas nucleares.
00:32:52
¿Consideran un retroceso que desaparezca las bombas nucleares?
00:33:10
La evolución no siempre es igual, la evolución varía.
00:33:14
Por lo tanto, a lo mejor en este caso sí sería la evolución.
00:33:18
Pero nos han vuelto a repetir que se bloquean.
00:33:22
Efectivamente, se bloquean si no tienen sistemas de decisión ética,
00:33:25
tal y como muestra el profesor Winfield en la evidencia que ustedes mismos nos han mostrado.
00:33:28
Respecto a lo que nos han hablado de que un hombre, una persona, tiene la velocidad suficiente para reaccionar.
00:33:33
¿Conocen el concepto de asiento de la muerte?
00:33:39
Es el asiento del copiloto.
00:33:41
se conoce como asiento de la muerte
00:33:43
porque el acto reflejo del conductor
00:33:45
es evitar el obstáculo del camino
00:33:46
y en ese caso
00:33:49
el que recibe el impacto
00:33:50
es el copiloto
00:33:52
una máquina
00:33:54
sería capaz de ver
00:33:56
quién tiene más posibilidades de sobrevivir
00:33:58
y de esta manera elegir
00:34:00
mucho más rápido
00:34:02
cuál sería la solución correcta
00:34:03
no basarnos en la simple intuición
00:34:05
en el simple deseo de supervivencia
00:34:08
de una persona
00:34:11
que al fin y al cabo no lo decide él y por lo tanto no ejerce su libertad, sino un reflejo
00:34:12
y entonces no está siendo humano. Muchas gracias.
00:34:18
Bien, el equipo contrario en una de sus reputaciones nos ha comentado los coches autónomos.
00:34:32
Bien, nosotros no estamos en contra de los coches autónomos,
00:34:38
pero estamos en contra de que estos coches autónomos tengan ética.
00:34:40
La situación es ética en las carreteras, ni siquiera sabe el ser humano qué hacer.
00:34:44
Pongámonos en la siguiente situación.
00:34:48
Vamos conduciendo el coche, llevamos a nuestra mujer, marido y a nuestros hijos.
00:34:50
Y nos vamos a chocar con un autobús lleno de niños.
00:34:54
¿Qué deberíamos realizar? ¿Matar a los que están dentro del coche o a los del autobús?
00:34:57
Ni siquiera un hombre sabe qué realizar en estas situaciones, menos una máquina.
00:35:02
Además, es que en el H-Robot y en el A-Robot no se podría incluir un sistema de decisión ética.
00:35:07
Es imposible. Como les ha demostrado mi compañera, existe una gran diversidad de corrientes éticas.
00:35:12
Existe una gran diversidad de culturas, de ideas, de opiniones, de filosofías de la vida
00:35:17
que nos han llevado a la Primera Guerra Mundial, a la Segunda Guerra Mundial.
00:35:21
Y muchos afirman que estamos a puertas de la Tercera Guerra Mundial.
00:35:25
Si ni siquiera los hombres con su propia ética podemos comportarnos adecuadamente,
00:35:29
¿cómo vamos a implantárselo a una máquina?
00:35:33
Por lo tanto, estas máquinas no son un progreso, no son un beneficio con sistemas de decisión ética.
00:35:36
Son simplemente un gran riesgo. Muchas gracias.
00:35:41
Si se diera el caso del coche y el autobús, una máquina probablemente podría calcular lo suficientemente rápido las probabilidades y el punto de choque concreto para salvar a una mayor cantidad de personas.
00:35:43
Un humano sí puede bloquearse. Todos sentimos aquí en el propio debate cómo se nos paralizan las piernas cuando salimos a hablar.
00:36:10
Bien, eso es una reacción humana que puede resultar catastrófica y no resultar en que se salve o los del coche o los del autobús, sino que perezcan los conductores y los pasajeros de ambos.
00:36:17
Me gustaría mostrarles una pequeña cita sobre el informe del Rector Especial sobre las ejecuciones extrajudiciales, que afirma que el especialista en robótica Ronald Larkin ha propuesto, por ejemplo, distintas formas de incorporar un regulador ético en los robots militares para garantizar que cumplan esas prescripciones.
00:36:32
Es decir, su tercer argumento en el que hablan de que se podrían volver contra nosotros es refutado por el propio especialista y citado por el Consejo de los Derechos Humanos en 2013. De esta manera, nosotros creemos en el verdadero progreso. Nosotros creemos en el progreso en el que el hombre será complementado por las máquinas y poco a poco llegará a lo que está hecho para hacer. Muchas gracias.
00:36:50
Bien, el equipo contrario nos ha comentado que el coche autónomo podría salvar tanto a los del coche como a los del autobús.
00:37:18
Bien, pero es que esto podría realizarlo sin sistemas de decisión ética, simplemente siendo una máquina autónoma.
00:37:43
En mi equipo no estamos en contra del avance, del progreso.
00:37:49
Simplemente tenemos que evitar hacer cosas de las que luego podamos arrepentirnos,
00:37:52
como sería, por ejemplo, implantarles a las máquinas autónomas sistemas de decisión ética.
00:37:57
Y además, es que como sabemos, la ética es únicamente exclusivo del ser humano, como ha explicado mi compañera. Estas normas y códigos éticos provienen únicamente de la parte racional, del hombre de la razón. Por lo tanto, están limitadas esas normas y esos códigos. Eso no es la ética. Por lo tanto, ¿qué estamos creando? Podríamos estar creando monstruos.
00:38:01
¿De verdad vamos a incluir, como ha dicho el equipo contrario, en por ejemplo drones de guerra? Si ni siquiera el ser humano sabe qué realizar en una guerra, menos una máquina. ¿Qué le vamos a implantar a esa máquina? ¿Qué va a decidir en una situación de guerra, en una situación extrema, si ni siquiera el ser humano sabe hacerlo? Por lo tanto, las máquinas autónomas son beneficiosas, son necesarias, pero no con sistemas de decisión ética. Muchas gracias.
00:38:21
Sistema de decisión ética. ¿Cómo, por favor, puede el coche autónomo tomar una decisión
00:38:48
si no tiene un sistema de decisión? Han sugerido que el coche autónomo no necesita un sistema
00:39:08
de decisión ética. Entonces, ¿cómo podrá decidir? Respecto a su primer argumento de
00:39:14
la ética no universal, me gustaría remitirme a la democracia en la que todos vivimos y
00:39:20
de la que todos nos sentimos orgullosos. La democracia se basa en el consenso, en la
00:39:25
colaboración, en el diálogo, en compartir nuestras opiniones. Ahí hay un paso para
00:39:31
encontrar esas decisiones concretas que pretendemos implantar en casos concretos para ciertas
00:39:36
máquinas autónomas. Han vuelto a reafirmarse en su postura de que la ética es humana.
00:39:42
No se lo negamos. Por eso no queremos entregarles la ética, no queremos entregarles el manuscrito.
00:39:48
Temen que les entreguemos el manuscrito, pero nosotros lo que queremos es entregarles una copia
00:39:53
para que no se bloqueen, para que puedan evitar ese choque mortal y salvar al mayor número de personas.
00:39:57
Me gustaría lanzarles una pregunta.
00:40:06
¿En qué se diferencia su postura de la de los nuditas del siglo XVIII?
00:40:08
Nosotros nos hemos basado en tres argumentos y en nuestra tesis de que el progreso es el auténtico motor de la vida humana.
00:40:13
Muchas gracias.
00:40:19
Bien, me gustaría volver a repetir que el equipo contrario ha dicho que el coche autónomo sí que necesitaría una ética para tomar una decisión.
00:40:20
Bien, sería una decisión de cálculo que las máquinas autónomas ya poseen para poder evitar el impacto, pero no una decisión ética.
00:40:55
Además, estoy de acuerdo con ustedes en que está bien que todos los seres humanos nos pongamos de acuerdo un consenso, por ejemplo, la declaración de los derechos humanos.
00:41:03
Estamos a favor absolutamente de eso. Pero bien, si aún ni siquiera los seres humanos nos hemos conseguido poner de acuerdo del todo, y vuelvo a repetir, muchos afirman que estamos a puertas de una tercera guerra mundial, ¿cómo vamos a incluirle la ética a las máquinas si ni siquiera nosotros sabemos aún emplearla adecuadamente?
00:41:10
Y es que además no podemos realizar, como ustedes han dicho, una copia de la ética, porque les vuelvo a repetir que la ética es algo exclusivo del ser humano.
00:41:29
Es algo que únicamente por ser el ser humano, no es solo parte de la razón, también están los sentimientos de efectividad.
00:41:37
Y díganme, ¿esto cómo vamos a implantárselo a una máquina?
00:41:46
Bien, para finalizar, me gustaría repetirles nuestros tres argumentos.
00:41:50
En primer lugar, no existe un código ético universal, la casuística. Estas máquinas se podrían bloquear y no sabemos qué estamos haciendo. Podríamos estar creando monstruos. Es por esta razón por la que mi equipo y yo estamos completamente convencidas de que las máquinas que funcionan autónomamente no deberían incluir sistemas de decisión ética. Muchas gracias.
00:41:53
Muy buenas tardes. Mi nombre es Víctora Cabanas y vengo a concluir lo que mi equipo y el equipo contrario hemos expuesto a lo largo de este debate.
00:42:12
En primer lugar, agradecer la presencia al jurado, al público hoy aquí presente y al equipo contrario por este debate.
00:42:40
Mi equipo y yo hemos venido esta mañana total, completa y absolutamente convencidas de que sería innecesaria,
00:42:46
de que no deberíamos introducir un sistema de código ético en máquinas autónomas, porque esto supondría un riesgo.
00:42:52
Y esto lo hemos evidenciado con nuestros tres argumentos.
00:42:58
En primer lugar, el equipo contrario nos habla de su primer argumento antropológico, diciéndonos que el hombre tiene tendencia a la evolución y a la perfección, pues todo lo que nos rodea es progreso.
00:43:01
A lo que nosotras les hemos refutado con nuestro segundo argumento, nuestro argumento acerca de la casuística, que defiende que al introducir un sistema de código ético en máquinas autónomas las estaríamos programando para realizar una acción completa ante un momento determinado.
00:43:10
determinado. Pero, señores, debemos ser conscientes de que la mente humana es incapaz de recopilar
00:43:23
y de reunir en un único código ético la infinidad de posibilidades que existen ante
00:43:28
una determinada situación. Y no solo eso, sino que la máquina podría bloquearse ante
00:43:33
dos situaciones que hemos implantado o ante una que hemos implantado y otra no. Esto se
00:43:37
lo hemos demostrado con nuestro ejemplo de A-Robot y H-Robot, en el que dos máquinas
00:43:42
se bloquean ante dos situaciones. En segundo lugar, ustedes nos han hablado
00:43:47
de la seguridad que aportaría la eficacia de las máquinas con este sistema de decisión
00:43:51
ética, pues podrían salvar las vidas y participar en catástrofes. A lo que nosotras les hemos
00:43:56
refutado con nuestro tercer argumento, nuestro argumento que defiende que el comportamiento
00:44:01
que podría adoptar esta máquina tras la introducción de un sistema de código ético
00:44:05
podría ser perjudicial para el hombre, pues si actualmente posee un potencial increíble
00:44:08
con respecto a un tipo de inteligencia y una capacidad de almacenamiento desmesurada, ¿de
00:44:13
¿De veras vamos a aumentar esas capacidades? Pues la máquina podría llegar a superarnos y esto podría volverse nuestra contra, dándose un dominio de la creación sobre superarla.
00:44:17
Y en tercer y último lugar, ustedes nos han hablado de la necesidad. Nos han dicho que introducir este sistema de decisión ética sería lo mejor para que las máquinas actúen orientadas al bien y seremos nosotros quienes diseñemos estos sistemas.
00:44:27
Y nosotros les hemos respetado con nuestro primer argumento acerca de la inexistencia de un único código ético universal. Es decir, la ética es algo personal. Pues somos nosotros quienes decidimos qué hacer en cada momento debido a nuestros ideales, nuestra cultura, nuestra tradición. Y no solo eso, sino quién va a ser el responsable de introducir ese sistema de código ético en la máquina y qué sistema dentro de todos los que existen le va a introducir.
00:44:38
En definitiva, señores, con la introducción de un sistema de código ético a las máquinas autónomas supondría un riesgo para la humanidad.
00:44:59
Viendo el experimento que realizó mi compañera al comienzo del debate, he acogido dos sustancias que individualmente son beneficiosas, pero que al mezclarse suponen un riesgo.
00:45:07
Esto sucedería a introducir un sistema de código ético en una máquina autónoma. Nuestro universo podría quedar hecho cenizas.
00:45:20
Ya para acabar, me gustaría leerles una frase.
00:45:27
Quizá nos estamos acercando a un punto de irreflexión donde el ritmo de los avances tecnológicos se está acelerando a una tasa exponencial
00:45:28
y en un futuro no muy distante las máquinas podrían incluso superar a los humanos con su capacidad de recorrer el universo.
00:45:36
Gracias y buenas noches.
00:45:41
El día que la ciencia estudie fenómenos no físicos avanzará más en una década que en todos los siglos de su existencia.
00:45:44
Nikola Tesla
00:46:24
Buenos días, miembros del jurado
00:46:26
compañeros debatientes, público aquí presente
00:46:29
me llamo Enrique Álvarez de Toledo
00:46:31
y para concluir, después de escuchar
00:46:32
los argumentos de ambos equipos
00:46:35
voy a acudir al progreso del debate
00:46:36
para demostrarles que las máquinas
00:46:38
que funcionan autónomamente
00:46:41
sí deberían incluir sistemas
00:46:42
de decisión ética
00:46:45
el equipo contrario nos ha mostrado tres argumentos
00:46:46
nos han hablado
00:46:49
de que no se puede conseguir un código ético
00:46:50
universal. Sin embargo, nosotros les hemos mostrado que no hace falta un código ético
00:46:53
universal. Lo que queremos es una copia del manuscrito del Quijote, en el ejemplo que
00:46:59
ha dicho mi amigo, para cada caso concreto. Si ponemos casos concretos, no hace falta
00:47:03
algo universal. El segundo argumento es el de la casuística. Nos han hablado de que
00:47:08
existe infinitud de casos. Tienen miedo de que el robot se bloquee. Sin embargo, como
00:47:14
han mostrado ellas mismas en el ejemplo del robot H y el robot A, cuando se bloquea es
00:47:21
cuando el robot no tiene capacidad de decisión ética. Si la tiene, puede tomar esa decisión
00:47:26
y, por tanto, no se bloquearía. Y un tercer argumento de peligro. Tienen miedo. Temen
00:47:31
que se vuelvan contra nosotros y, sin embargo, les hemos mostrado que Ronald Arkin, para
00:47:39
el Consejo de los Derechos Humanos dijo que se podía implantar un regulador ético para
00:47:44
que no se volviese contra nosotros. Fácil solución para el miedo que tiene. Nosotros
00:47:52
hemos apoyado nuestra postura en tres argumentos. Hemos hablado de un argumento antropológico
00:47:57
y es que el progreso es intrínseco al ser humano y el progreso tecnológico es beneficioso
00:48:02
para nosotros. Se lo hemos mostrado en la introducción con la gráfica de la creciente
00:48:06
esperanza de vida de las Naciones Unidas. Un segundo argumento de seguridad, y es que
00:48:11
la precisión y eficacia de estas máquinas las podría llevar a conflictos armados y
00:48:16
a operaciones de salvamento, como el ejemplo de Provotatlo. También daría seguridad en
00:48:21
el ejemplo que ha salido tanto en este debate del coche autónomo, que tendría que tomar
00:48:26
una decisión para salvar a cuantas más personas pudiese y que con esa decisión ética
00:48:29
podría hacerlo. Y un tercer argumento de necesidad. Estas máquinas son una realidad,
00:48:33
existen, están aquí entre nosotros, ¿no sería mejor que ante un dilema ético
00:48:39
tuviesen capacidad de tomar decisiones? ¿Tuviesen un sistema
00:48:44
de decisión ética? De este modo, el equipo del Colegio
00:48:48
Retamar, afirmando, razonando y evidenciando, ha dado respuesta
00:48:52
a la pregunta de este debate. Las máquinas que funcionan autónomamente sí deberían
00:48:56
incluir sistemas de decisión ética, porque el progreso es el verdadero motor
00:49:00
de toda vida humana. Se ha avanzado durante toda tu historia.
00:49:04
No te has quedado aquí. Has dado paso tras paso tras paso. Cuando ya no tengas un paso más que dar, necesitarás algo que dé el paso. Muchas gracias.
00:49:08
Muy buenas tardes. Pues director de la escuela, buen amigo además de épocas pasadas, equipos directivos de los centros participantes, profesores, jueces y, por supuesto, alumnos y alumnas.
00:50:28
Ante todo, daros la enhorabuena a vosotros, a los dos equipos y a todos los que habéis participado por vuestro desempeño en esta séptima edición del torneo de debate escolar de la Comunidad de Madrid.
00:51:34
En esta edición casi 600 jóvenes que han demostrado que la buena oratoria en ocasiones es algo innato
00:51:49
en alguno de vosotros seguro, pero también es una habilidad que se puede aprender
00:51:59
siempre y cuando estés dispuesto a esforzarte y a trabajar, digamos, en su adquisición
00:52:06
Bueno, me corresponde intervenir después de haber escuchado a los finalistas de los finalistas de un terneo de debate tan competitivo como este y la verdad es que es una prueba complicada, me lo habéis puesto muy, muy difícil y no voy a entrar en mi opinión sobre la ética en las máquinas porque entonces sí que acabaría destrozado, esa es la realidad.
00:52:14
Pero sí que quiero seguir tres reglas de oro de uno de los que dicen que han sido uno de los mejores oradores de la historia contemporánea. Franklin Delano Roosevelt, único presidente de los Estados Unidos durante tres mandatos, que tenía tres recomendaciones para todo orador que creo que son bastante fáciles también de recordar.
00:52:39
La primera es ser sincero, ser breve y siéntate. Las dos primeras las voy a hacer y la tercera voy a decir algo antes de sentarme, pero evidentemente es una gran oportunidad el poder estar aquí y disfrutar de lo que he disfrutado de este debate.
00:53:01
Dos consideraciones muy importantes para compartir con vosotros de forma rápida.
00:53:22
La primera de ellas es que esta capacidad de debate y de oratoria es una de las habilidades más importantes que podéis adquirir como parte de vuestra educación.
00:53:29
Es verdad que nuestro sistema educativo, el sistema educativo español, pues no se ha distinguido históricamente, ni siquiera en la actualidad, por prestar demasiada atención precisamente a la oratoria, al debate, pero siempre hay tiempo para ponerle remedio.
00:53:38
En el caso concreto de la Comunidad de Madrid, fue pionera en la organización de esta iniciativa hace ya siete años y que hoy por hoy es el torneo de debate más importante de España.
00:53:56
Sea cual sea vuestra profesión, os garantizo que en algún momento vais a tener que persuadir o que convencer a alguien con argumentos,
00:54:11
como lo habéis estado haciendo. Y lo aprendido en estos meses seguro que os va a ser de mucha utilidad.
00:54:22
Es verdad que esa capacidad dialéctica, de oratoria, siempre se vincula con profesiones como la abogacía o la política,
00:54:28
Pero todas, absolutamente todas las ocupaciones demandan y se benefician de esta habilidad, más allá del ámbito laboral, incluso en las estrategias también personales, en vuestra vida cotidiana.
00:54:36
Estoy absolutamente seguro que algunos de vosotros, si no todos, pues ya habéis puesto en prueba algunos de esos principios y estrategias aprendidos
00:54:50
para convencer a vuestros amigos, a vuestros familiares o a vuestros padres de algo en alguna ocasión
00:55:00
Por suerte los padres también desarrollamos habilidades de supervivencia, una práctica intensiva también en tácticas y estrategias de negociación, de persuasión
00:55:07
persuasión, incluso en ocasiones de evasión. Así que, bueno, vuestros padres, que probablemente
00:55:19
muchos de ellos no hayan recibido un curso como vosotros, pero que sí me tendréis que
00:55:27
reconocer que os ganan en experiencia y habéis comprobado claramente lo difícil que es ganarle
00:55:33
a los padres a la hora de argumentar. Agradecerles también que os hayan ayudado, porque seguro
00:55:39
que lo han hecho para prepararos para este torneo. Es una iniciativa de la Comunidad
00:55:45
de Madrid muy querida dentro de la consejería donde somos conscientes que estas habilidades
00:55:52
son habilidades útiles y prácticas para toda vuestra vida académica y laboral. Y
00:55:58
estamos encantados también de que esto no sea simplemente una sensación de la consejería
00:56:07
sino que esto haya tenido un reflejo en la participación en este torneo. En esta ocasión un 34% más que en la edición anterior, 117 equipos nada menos.
00:56:12
Vosotros sois los dos supervivientes de todo este torneo, los mejores. Hemos ofrecido formación, tanto específica a los alumnos, a los profesores preparadores, a quienes, bueno, pues voy a dirigir mi segunda cuestión.
00:56:25
Segunda cuestión que es agradecimiento, agradecimiento a los profesores, a los docentes que habéis hecho este esfuerzo adicional, esfuerzo adicional que no solamente se refleja en este torneo sino en muchas otras actividades que también organiza la consejería,
00:56:44
pues actividades de teatro, de oratoria en inglés, de narración, de poesía, de coros o de campeonatos deportivos.
00:57:04
Es un esfuerzo añadido a la labor diaria de los profesores, que ya son muchas y nada sencilla la mayor parte de ellas, y por eso, como consejero, pues os agradezco y os lo agradezco muy profundamente.
00:57:14
Estoy seguro que además en cada una de vuestras clases podéis percibir cómo esta actividad también ayuda a vuestros alumnos en todas las asignaturas. Estas son habilidades transversales que tienen consecuencias en todas y cada una de las asignaturas.
00:57:29
No les afecta a los conocimientos, pero sí afecta evidentemente a la manera de manejar los argumentos y de utilizar sus conocimientos.
00:57:48
Está claro que este torneo no es más que la parte que flota el iceberg o la punta de lanza.
00:57:59
Debajo está toda la labor que cada uno de vosotros le dedicáis a este objetivo de desarrollar estas habilidades en oratoria y en el debate en nuestros salones.
00:58:10
Para terminar, os voy a contar que hace muy poquito tuve la oportunidad de charlar en la consejería
00:58:26
con el que está considerado mejor orador universitario del mundo, en español,
00:58:35
es Antonio Fabregat, madrileño, y que cuando cursaba también, primero de bachillerato,
00:58:41
pues también participó en este torneo. Así que, como veis, este torneo es una excelente cantera y os animo a que sigáis perfeccionando luego, posteriormente,
00:58:50
como hizo él, esta habilidad que siempre tendrá retos por delante para vosotros.
00:59:02
Muchísimas gracias a todos, muchísimas gracias a los alumnos que habéis participado, a los profesores, preparadores.
00:59:09
Muchas gracias a los equipos directivos de los 71 centros de la región que han participado en el torneo. Muchas gracias a los jueces. Sé que no lo tienen nada fácil, pero en cualquier caso está claro que también la calidad de nuestros jueces determina la calidad del torneo.
00:59:16
Y gracias a los responsables de la escuela, en este caso al director de la Escuela de Caminos, por traernos este espacio.
00:59:39
Mis más sinceras felicitaciones a los dos equipos ganadores. Evidentemente habrá uno solo, pero yo creo que cualquiera de los dos equipos ya ha ganado este torneo. Muchísimas gracias.
00:59:49
Gracias.
01:00:00
que es director general de Innovación, Becas y Ayudas a la Educación, don Rafael Carbonell, que es presidente del Consejo Escolar, y doña María Teresa Aceito, que es asesora del Consejero de Educación, Juventud y Deporte. Muchas gracias por su colaboración y un aplauso. Gracias.
01:00:32
Bueno, pues antes de empezar ya con la lectura de los premios, solamente nombraremos a los centros premiados y los vamos a nombrar de menor a mayor puntuación.
01:00:51
Y no nombraremos a los profesores y a los oradores porque hemos tenido un tiempo récord para tomar las decisiones, así que solamente el nombre de los centros.
01:01:13
Los diplomas que entregaremos son provisionales, tampoco hemos tenido tiempo de hacer diplomas definitivos,
01:01:22
pero anunciamos que los diplomas definitivos los enviaremos al centro y serán personales para cada alumno y profesor.
01:01:28
Pueden subir a recoger el diploma y el premio todos los miembros del equipo junto con sus profesores.
01:01:37
Bueno, pues vamos a comenzar con cinco menciones de 200 euros cada una para el centro y también mención de 200 euros para el profesor preparador correspondiente.
01:01:45
Empezamos con la quinta mención especial, que corresponde al Colegio Retamar Equipo 2 de Pozuelo.
01:02:00
Un aplauso, aunque ya lo hayamos hecho.
01:02:09
Cuarta mención especial al Colegio Virgen de Europa, Equipo 1, de Boadilla del Monte.
01:02:45
Tercera mención especial para el Colegio General de la CED y de la CAMBO, Equipo 1, de San Sebastián de López.
01:04:05
Segunda mención especial al Colegio Orvalle, Equipo 2, de La Rosa.
01:05:03
Un aplauso también para la primera de las menciones, en que nos quedará el colegio Mirabal, equipo 2, de Guadilla del Monte.
01:05:10
Bueno, pues pasamos ahora a los cuatro primeros premios. Cada profesor preparador de cada uno de los cuatro equipos ganadores recibirá 1.000 euros.
01:06:16
Empezamos con el cuarto premio, dotado con 500 euros. Corresponde al Colegio Menor Nuestra Señora de Loreto, Equipo 2 de Madrid.
01:06:53
Tercer premio, dotado con 850 euros, para el Colegio Samer Calasanz, Equipo 2 de Valdemoro.
01:07:05
Los siguientes premios ya se corresponden con el último de los debates.
01:08:30
Segundo premio, dotado con 1.000 euros, corresponde al Colegio Fomento Aldea Fuente, equipo 1.
01:09:01
Bueno, queda algo, ¿no?
01:09:10
Primer premio, dotado con 2.000 euros, para el Colegio Retamar de Pozuelo.
01:10:08
Pues, un momento, un momento, acabamos esta brillantísima final con la despedida,
01:11:13
con unas palabras de la directora general de Innovación, Becas y Adidas a la Educación, Don Ismael Sanz Labrador.
01:11:19
Muchas gracias a todos. Tiene la palabra Don Ismael Sanz.
01:11:28
Muy brevemente, unas palabras para clausurar esta séptima edición.
01:11:31
Decía el consejero, el consejero de Educación, Juventud y Deporte de la Comunidad de Madrid,
01:11:43
que en los debates o en las intervenciones públicas hay que ser sinceros.
01:11:48
Sincero, dejadme deciros, siendo sincero, que los dos grupos me habéis sorprendido muy positivamente.
01:11:53
Ha sido para mí, esta era mi primera experiencia en un torneo escolar de debate y ha sido una experiencia realmente muy gratificante.
01:12:01
Los dos centros, el centro de fomento de Alcobendas y el centro de Retamar, habéis hecho un excelente trabajo.
01:12:12
El día fuente. Excelente, excelente trabajo y realmente ha sido para mí una enorme experiencia.
01:12:23
Teníamos muchísimo interés desde la consejería en impulsar, en promover este torneo.
01:12:32
Ya en los años pasados tuvo muchísimo recorrido entre los centros educativos madrileños y este año todavía más.
01:12:39
Y eso para nosotros también es una satisfacción. El consejero ha hecho lo posible y lo imposible para poder estar porque quería veros en acción. Nos ha estado preguntando durante el debate cómo funcionaba, qué ocurría, si había penalizaciones cuando se pasaba de tiempo.
01:12:48
Y es que de verdad, y en eso como él decía, como decía el consejero, queremos ser sinceros, nos gusta este debate, queremos impulsar esa competencia de expresarse en público, de expresión oral, de intercambiar opiniones, fluidez, de ser rápidos, de tener reflejos y de respetar las opiniones de los demás.
01:13:04
Así que nada, enhorabuena a todos, a todos los grupos que habéis participado,
01:13:27
a los 16 que llegasteis a la fase final esta mañana, a todos y a los dos que habéis llegado a la fase final que he podido ver,
01:13:31
a Nador, a Tatamar, así que enhorabuena y que nos veamos el próximo año. Muchas gracias a todos.
01:13:39
- Valoración:
- Eres el primero. Inicia sesión para valorar el vídeo.
- 1
- 2
- 3
- 4
- 5
- Niveles educativos:
- ▼ Mostrar / ocultar niveles
- Educación Especial
- Educación Basica Obligatoria
- Infantil
- Básica 1
- Básica 2
- Programas de formación para la transición a la vida adulta
- Tránsito a la vida adulta
- Programas de iniciacion profesional especial
- Educación Basica Obligatoria
- Educación Infantil
- Primer Ciclo
- Primer Curso
- Segundo Curso
- Tercer Curso
- Segundo Ciclo
- Primer Curso
- Segundo Curso
- Tercer Curso
- Primer Ciclo
- Educación Primaria
- Primer Ciclo
- Primer Curso
- Segundo Curso
- Segundo Ciclo
- Tercer Curso
- Cuarto Curso
- Tercer Ciclo
- Quinto Curso
- Sexto Curso
- Primer Ciclo
- Educación Secundaria Obligatoria
- Ordinaria
- Primer Ciclo
- Primer Curso
- Segundo Curso
- Segundo Ciclo
- Tercer Curso
- Cuarto Curso
- Diversificacion Curricular 1
- Diversificacion Curricular 2
- Primer Ciclo
- Compensatoria
- Ordinaria
- Bachillerato
- Primer Curso
- Segundo Curso
- Formación Profesional
- Ciclo formativo de grado básico
- Primer Curso
- Segundo Curso
- Ciclo formativo de grado medio
- Primer Curso
- Segundo Curso
- Ciclo formativo de grado superior
- Primer Curso
- Segundo Curso
- Ciclo formativo de grado básico
- Educación de personas adultas
- Enseñanza básica para personas adultas
- Alfabetización
- Consolidación de conocimientos y técnicas instrumentales
- Enseñanzas Iniciales
- I 1º curso
- I 2º curso
- II 1º curso
- II 2º curso
- ESPAD
- Primer Curso
- Segundo Curso
- Tercer Curso
- Cuarto Curso
- Pruebas libres título G ESO
- Formación Técnico Profesional y Ocupacional
- Alfabetización en lengua castellana (español para inmigrantes)
- Enseñanzas para el desarrollo personal y la participación
- Bachillerato adultos y distancia
- Primer Curso
- Segundo Curso
- Enseñanza oficial de idiomas (That's English)
- Módulo 1
- Módulo 2
- Módulo 3
- Módulo 4
- Módulo 5
- Módulo 6
- Módulo 7
- Módulo 8
- Módulo 9
- Ciclo formativo grado medio a distancia
- Primer Curso
- Segundo Curso
- Ciclo formativo grado superior a distancia
- Primer Curso
- Segundo Curso
- Aulas Mentor
- Ciclo formativo de grado básico
- Primer Curso
- Segundo Curso
- Niveles para la obtención del título de E.S.O.
- Nivel I
- Nivel II
- Enseñanza básica para personas adultas
- Enseñanzas de régimen especial
- Escuelas oficiales de idioma
- Nivel básico
- Básico 1
- Básico 2
- Nivel Intermedio
- Intermedio 1
- Intermedio 2
- Nivel Avanzado
- Avanzado 1
- Avanzado 2
- Nivel básico
- Enseñanzas artísticas
- Enseñanzas de artes plásticas y diseño
- Ciclo formativo de grado medio
- Primer Curso
- Segundo Curso
- Ciclo formativo de grado superior
- Primer Curso
- Segundo Curso
- Ciclo formativo de grado medio
- Estudios superiores de diseño (Interiores)
- Primer Curso
- Segundo Curso
- Tercer Curso
- Enseñanzas de música
- Grado Elemental
- Primer Curso
- Segundo Curso
- Tercer Curso
- Cuarto Curso
- Grado Medio
- Primer Ciclo
- Primer Curso
- Segundo Curso
- Segundo Ciclo
- Tercer Curso
- Cuarto Curso
- Tercer Ciclo
- Quinto Curso
- Sexto Curso
- Primer Ciclo
- Grado Superior
- Primer Curso
- Segundo Curso
- Tercer Curso
- Cuarto Curso
- Quinto Curso
- Grado Elemental
- Enseñanzas de danza
- Grado Elemental
- Primer Curso
- Segundo Curso
- Tercer Curso
- Cuarto Curso
- Grado Medio
- Primer Ciclo
- Primer Curso
- Segundo Curso
- Segundo Ciclo
- Tercer Curso
- Cuarto Curso
- Tercer Ciclo
- Quinto Curso
- Sexto Curso
- Primer Ciclo
- Grado Superior
- Primer Curso
- Segundo Curso
- Tercer Curso
- Cuarto Curso
- Grado Elemental
- Enseñanzas de arte dramático
- Grado Superior
- Primer Curso
- Segundo Curso
- Tercer Curso
- Cuarto Curso
- Grado Superior
- Enseñanzas de artes plásticas y diseño
- Enseñanzas deportivas
- Técnico Deportivo
- Técnico Deportivo Superior
- Escuelas oficiales de idioma
- Educación Especial
- Autor/es:
- Dirección General de Innovación, Becas y Ayudas a la Educación
- Subido por:
- Gestiondgmejora
- Licencia:
- Reconocimiento - No comercial - Sin obra derivada
- Visualizaciones:
- 1485
- Fecha:
- 27 de octubre de 2016 - 11:14
- Visibilidad:
- Público
- Centro:
- C RECURSOS Dirección General del Mejora. Gestión de Aplicaciones
- Duración:
- 1h′ 13′ 54″
- Relación de aspecto:
- 1.30:1
- Resolución:
- 480x368 píxeles
- Tamaño:
- 335.84 MBytes