1 00:00:00,880 --> 00:00:02,339 Bueno, pues buenos días a todos. 2 00:00:03,580 --> 00:00:04,700 Antes de empezar, una pregunta. 3 00:00:04,839 --> 00:00:06,080 ¿Quién de vosotros tiene... 4 00:00:06,080 --> 00:00:07,780 ¿Hay alguno que tengáis menos de 30 años? 5 00:00:08,900 --> 00:00:10,000 ¿Tenéis menos de 30 años? 6 00:00:10,380 --> 00:00:12,099 Hoy se cumplen, hoy, precisamente, 7 00:00:12,279 --> 00:00:14,000 40 años del lanzamiento del Workman. 8 00:00:15,199 --> 00:00:15,900 ¿Sabéis lo que es un Workman? 9 00:00:16,739 --> 00:00:17,839 Los menores de cuáles... 10 00:00:17,839 --> 00:00:18,539 Los menores de 30. 11 00:00:20,280 --> 00:00:22,239 ¿Tú no sabes quién más tiene menos de 30? 12 00:00:23,839 --> 00:00:24,440 Ni idea. 13 00:00:24,559 --> 00:00:25,379 No sabéis lo que es un Workman. 14 00:00:25,640 --> 00:00:27,480 ¿Los menores de 40 sabéis lo que es un Workman? 15 00:00:29,280 --> 00:00:29,640 Sí. 16 00:00:30,000 --> 00:00:35,600 se cumplen 40 años 17 00:00:35,600 --> 00:00:36,780 fijaros 18 00:00:36,780 --> 00:00:38,799 lo que han dado de sí estos 40 años 19 00:00:38,799 --> 00:00:40,380 que hemos pasado de las cintas de casete 20 00:00:40,380 --> 00:00:41,119 del woman aquel 21 00:00:41,119 --> 00:00:43,799 que se fundía las pilas en 30 minutos 22 00:00:43,799 --> 00:00:45,159 y tenías que volver a ponerle pilas 23 00:00:45,159 --> 00:00:47,039 a qué hora vas en el coche 24 00:00:47,039 --> 00:00:48,759 y le pides verbalmente 25 00:00:48,759 --> 00:00:49,880 dices ok google 26 00:00:49,880 --> 00:00:51,539 y dices ponme esta canción 27 00:00:51,539 --> 00:00:53,880 y google o spotify 28 00:00:53,880 --> 00:00:55,420 te ponen la canción que tú quieres 29 00:00:55,420 --> 00:00:59,979 y han pasado solo 40 años 30 00:00:59,979 --> 00:01:01,619 que pueden parecer muchos 31 00:01:01,619 --> 00:01:03,060 pero si tenemos en cuenta lo que es 32 00:01:03,060 --> 00:01:05,000 la evolución humana 33 00:01:05,000 --> 00:01:07,540 40 años no es absolutamente nada 34 00:01:07,540 --> 00:01:09,560 por otra parte os voy a hacer otra pregunta 35 00:01:09,560 --> 00:01:10,739 hasta ya general a todos 36 00:01:10,739 --> 00:01:13,140 ¿quienes de vosotros utilizáis redes sociales? 37 00:01:14,780 --> 00:01:15,480 muchos, ¿no? 38 00:01:15,739 --> 00:01:16,299 prácticamente 39 00:01:16,299 --> 00:01:20,140 ¿quienes de vosotros compráis por internet? 40 00:01:21,599 --> 00:01:22,079 muchos 41 00:01:22,079 --> 00:01:22,799 también 42 00:01:22,799 --> 00:01:25,159 a ver si os atrevéis a contestar esta 43 00:01:25,159 --> 00:01:27,519 ¿quienes de vosotros habéis encontrado pareja en internet? 44 00:01:28,620 --> 00:01:29,420 muy bien 45 00:01:29,420 --> 00:01:31,900 los valientes que lo cuentan 46 00:01:31,900 --> 00:01:36,700 los valientes que lo cuentan 47 00:01:36,700 --> 00:01:38,280 fijaros 48 00:01:38,280 --> 00:01:40,140 estos tres elementos que os he dicho 49 00:01:40,140 --> 00:01:41,200 que son fundamentales 50 00:01:41,200 --> 00:01:43,719 para la vida cotidiana de nosotros 51 00:01:43,719 --> 00:01:45,000 también como nos han cambiado 52 00:01:45,000 --> 00:01:47,859 las redes sociales nos ayudan a relacionarnos 53 00:01:47,859 --> 00:01:49,799 con los demás, animales gregarios como somos 54 00:01:49,799 --> 00:01:52,140 nosotros, nos han puesto una serie de herramientas 55 00:01:52,140 --> 00:01:53,920 que nos ayudan a relacionarnos con los demás 56 00:01:53,920 --> 00:01:55,379 las compras 57 00:01:55,379 --> 00:01:57,840 la sociedad de consumo y satisfacer las necesidades 58 00:01:57,840 --> 00:01:59,840 personales lo tenemos a golpe de clic 59 00:01:59,840 --> 00:02:01,379 y también ha cambiado 60 00:02:01,379 --> 00:02:03,659 y algo tan importante como encontrar pareja 61 00:02:03,659 --> 00:02:06,260 ya no tienes que irte a las discotecas 62 00:02:06,260 --> 00:02:07,599 a las altas horas de la noche 63 00:02:07,599 --> 00:02:09,740 a intentar invitar a un 64 00:02:09,740 --> 00:02:12,080 cubata y a ver si cae 65 00:02:12,080 --> 00:02:13,939 no, ya todo es mucho más sencillo 66 00:02:13,939 --> 00:02:16,000 y es mucho más fácil 67 00:02:16,000 --> 00:02:18,259 yo os voy a hablar de mi libro 68 00:02:18,259 --> 00:02:20,199 como decía aquel 69 00:02:20,199 --> 00:02:22,259 mi libro se llama Actitud Digital 70 00:02:22,259 --> 00:02:24,060 yo soy psicólogo, soy doctor en psicología 71 00:02:24,060 --> 00:02:25,919 y ahora veréis que yo lo que hago en este libro 72 00:02:25,919 --> 00:02:28,400 es analizar el lado humano 73 00:02:28,400 --> 00:02:30,219 de la tecnología. Realmente es humanizar 74 00:02:30,219 --> 00:02:31,360 lo digital, ¿no? 75 00:02:32,500 --> 00:02:34,620 Frente a los que digitalizan lo humano 76 00:02:34,620 --> 00:02:36,680 yo intento humanizar 77 00:02:36,680 --> 00:02:38,219 lo digital. Y hago un análisis 78 00:02:38,219 --> 00:02:40,280 muy exhaustivo de la sociedad y cómo nos 79 00:02:40,280 --> 00:02:42,080 afecta en diferentes ámbitos y uno de ellos 80 00:02:42,080 --> 00:02:43,719 es el ámbito laboral. 81 00:02:44,139 --> 00:02:46,020 Cuando yo empecé a trabajar en este libro 82 00:02:46,020 --> 00:02:47,840 yo me di cuenta 83 00:02:47,840 --> 00:02:49,360 espera que se me ha ido aquí 84 00:02:49,360 --> 00:02:53,060 cuando yo empecé a trabajar en este libro 85 00:02:53,060 --> 00:02:55,280 yo me di cuenta de que 86 00:02:55,280 --> 00:02:57,699 la tecnología, todo lo que gira en torno a la tecnología 87 00:02:57,699 --> 00:02:59,379 siempre tiene números 88 00:02:59,379 --> 00:03:01,319 grandilocuentes, todo es muy grande, te hablan de 89 00:03:01,319 --> 00:03:03,159 miles de millones de 90 00:03:03,159 --> 00:03:04,639 terabytes 91 00:03:04,639 --> 00:03:07,539 de usuarios de redes sociales 92 00:03:07,539 --> 00:03:09,460 del número de tweets por minuto 93 00:03:09,460 --> 00:03:10,879 todo son cosas muy grandes 94 00:03:10,879 --> 00:03:13,280 y mensajes de este tipo 95 00:03:13,280 --> 00:03:15,379 fijaros, mirad a la izquierda, ese es un 96 00:03:15,379 --> 00:03:17,000 disco duro de 5 megabytes 97 00:03:17,000 --> 00:03:19,360 en el año 56, un disco duro de 98 00:03:19,360 --> 00:03:20,979 5 megabytes en el año 56 99 00:03:20,979 --> 00:03:23,539 algunos de los que 100 00:03:23,539 --> 00:03:25,479 aquí habéis nacido ya en el año 56 101 00:03:25,479 --> 00:03:27,620 lo otro es un microprocesador 102 00:03:27,620 --> 00:03:30,240 uno de los últimos microprocesadores del año 2018 103 00:03:30,240 --> 00:03:32,039 fijaros abajo 104 00:03:32,039 --> 00:03:33,819 por ejemplo como ha evolucionado la información 105 00:03:33,819 --> 00:03:35,800 si tomamos como referente una hormiga 106 00:03:35,800 --> 00:03:38,120 una hormiga la ponemos como equivalente 107 00:03:38,120 --> 00:03:39,979 de la información que tiene una novela 108 00:03:39,979 --> 00:03:41,860 una novela si el referente es una hormiga 109 00:03:41,860 --> 00:03:44,419 hoy dos tercios de la información 110 00:03:44,419 --> 00:03:46,000 que se genera anualmente 111 00:03:46,000 --> 00:03:46,979 dos tercios 112 00:03:46,979 --> 00:03:49,300 equivale al diámetro del sol 113 00:03:49,300 --> 00:03:50,939 fijaros como ha evolucionado 114 00:03:50,939 --> 00:03:53,159 estos son los números habituales 115 00:03:53,159 --> 00:04:01,900 Otros números dicen que 4.000 millones de personas usan Internet, que 3.000 millones utilizan alguna red social, Facebook sube 136.000 fotos cada minuto, es lo habitual. 116 00:04:02,099 --> 00:04:05,560 Este tipo de cosas es el mensaje que nos llega de la tecnología para sorprendernos. 117 00:04:05,560 --> 00:04:15,060 Hay uno que a mí me gusta especialmente, que es este, que dice que WhatsApp ha captado en 6 años más seguidores que el cristianismo en 19 siglos. 118 00:04:15,919 --> 00:04:20,500 Fijaros el impacto que tiene sobre la sociedad las redes sociales. 119 00:04:20,500 --> 00:04:23,579 más información que nos llega sobre la tecnología 120 00:04:23,579 --> 00:04:25,480 y que realmente no nos aporta 121 00:04:25,480 --> 00:04:27,120 ningún valor como personas 122 00:04:27,120 --> 00:04:28,920 ¿conocéis la ley de Moore? 123 00:04:29,000 --> 00:04:30,920 la ley de Moore lo que cuenta es cómo han ido evolucionando 124 00:04:30,920 --> 00:04:33,420 la capacidad de los microprocesadores 125 00:04:33,420 --> 00:04:35,600 desde el año 71 en el que Intel 126 00:04:35,600 --> 00:04:37,000 lanza el primer microprocesador 127 00:04:37,000 --> 00:04:39,439 hasta hoy, cómo va subiendo la capacidad 128 00:04:39,439 --> 00:04:41,720 y para que os hagáis una idea 129 00:04:41,720 --> 00:04:43,139 comparado el año 71 130 00:04:43,139 --> 00:04:45,699 con los microprocesadores de ahora 131 00:04:45,699 --> 00:04:47,920 hoy un microprocesador 132 00:04:47,920 --> 00:04:49,279 es 3.500 veces 133 00:04:49,279 --> 00:04:52,639 más eficaz, perdón, ofrece mejor rendimiento 134 00:04:52,639 --> 00:04:55,740 90.000 veces más eficiente y 60.000 veces menos costo 135 00:04:55,740 --> 00:04:57,620 y os voy a poner un ejemplo para que lo pongáis en valor 136 00:04:57,620 --> 00:05:01,439 imaginaros que en el año 71 Volkswagen lanzó su modelo 137 00:05:01,439 --> 00:05:03,920 Beetle, el escarabajo, el famoso escarabajo 138 00:05:03,920 --> 00:05:07,720 imaginaros que Volkswagen hubiera aplicado esta misma evolución 139 00:05:07,720 --> 00:05:10,040 a su modelo Beetle, a su modelo escarabajo 140 00:05:10,040 --> 00:05:12,720 pues hoy el modelo Beetle de Volkswagen 141 00:05:12,720 --> 00:05:16,019 correría a 480.000 kilómetros por hora 142 00:05:16,019 --> 00:05:18,339 gastaría 4 litros 143 00:05:18,339 --> 00:05:20,579 cada 3.200.000 kilómetros 144 00:05:20,579 --> 00:05:21,579 la ruina de Repsol 145 00:05:21,579 --> 00:05:23,500 y costaría 3 céntimos 146 00:05:23,500 --> 00:05:26,180 un biteloide haber seguido la misma evolución 147 00:05:26,180 --> 00:05:28,139 pero todos estos números en sí 148 00:05:28,139 --> 00:05:28,839 no son nada 149 00:05:28,839 --> 00:05:30,740 si no tenemos en cuenta la persona 150 00:05:30,740 --> 00:05:32,660 que se mete dentro del coche a conducirlo 151 00:05:32,660 --> 00:05:35,639 o el que utiliza Whatsapp 152 00:05:35,639 --> 00:05:37,480 o el que utiliza esas redes sociales 153 00:05:37,480 --> 00:05:39,139 entonces yo me planté 154 00:05:39,139 --> 00:05:41,360 aquí debería sonar pero no tenemos el audio 155 00:05:41,360 --> 00:05:44,339 este es un sketch de los Simpsons 156 00:05:44,339 --> 00:05:44,819 ¿lo conocéis? 157 00:05:44,819 --> 00:05:46,500 esta parte de los Simpsons? Si sois algún 158 00:05:46,500 --> 00:05:48,680 fanático de los Simpsons, lo reconoceréis. 159 00:05:49,600 --> 00:05:50,819 ¿Alguno lo reconoce este momento? 160 00:05:51,759 --> 00:05:52,980 Es que no, no se 161 00:05:52,980 --> 00:05:54,680 escucha, no lo puedo poner. Este es un momento 162 00:05:54,680 --> 00:05:56,720 en el cual esta mujer, que es la mujer 163 00:05:56,720 --> 00:05:58,759 del reverendo, dice, pero es que nadie va a pensar 164 00:05:58,759 --> 00:06:00,779 en los niños. ¿No? Y se pone muy 165 00:06:00,779 --> 00:06:02,220 angustiado y dice, nadie va a pensar en los niños. 166 00:06:02,459 --> 00:06:04,540 Y yo llegado a este punto dije, pero es que nadie va a pensar 167 00:06:04,540 --> 00:06:06,600 en las personas. Pero es que solo 168 00:06:06,600 --> 00:06:08,680 vamos a hablar de bytes, 169 00:06:08,779 --> 00:06:09,399 de tecnología. 170 00:06:11,199 --> 00:06:12,680 Vamos a pensar también en las 171 00:06:12,680 --> 00:06:14,319 personas, ¿no? Y entonces 172 00:06:14,319 --> 00:06:15,519 uno se da cuenta 173 00:06:15,519 --> 00:06:18,420 de el impacto 174 00:06:18,420 --> 00:06:20,779 que está teniendo la tecnología 175 00:06:20,779 --> 00:06:21,920 en nuestra sociedad 176 00:06:21,920 --> 00:06:23,660 porque el problema 177 00:06:23,660 --> 00:06:26,620 de la tecnología hoy no es un problema de velocidad 178 00:06:26,620 --> 00:06:28,120 no es que todo vaya muy rápido 179 00:06:28,120 --> 00:06:30,660 es que cada vez va más rápido 180 00:06:30,660 --> 00:06:32,639 y cada vez nos cuesta 181 00:06:32,639 --> 00:06:34,620 más seguir la tecnología, fijaros un dato 182 00:06:34,620 --> 00:06:36,720 antes hablaba del workman, los que compraste 183 00:06:36,720 --> 00:06:38,779 un workman en su momento, no nos vayamos 184 00:06:38,779 --> 00:06:40,180 tan lejos, o un vídeo 185 00:06:40,180 --> 00:06:42,519 un grabador de vídeo VHS 186 00:06:42,519 --> 00:06:58,160 Después, ¿os acordáis que venía con un manual de instrucciones así? Y el manual de instrucciones nos iba diciendo cómo teníamos que utilizarlo. Yo tengo un móvil, la tecnología de los buenos, ¿vale? Un móvil de los buenos, que vale dinero. 187 00:06:58,160 --> 00:07:00,579 no me traía instrucciones mi móvil 188 00:07:00,579 --> 00:07:02,720 porque los de Samsung 189 00:07:02,720 --> 00:07:03,600 el mío Samsung 190 00:07:03,600 --> 00:07:05,019 dice ¿para qué? 191 00:07:06,019 --> 00:07:07,800 o sea, es tan amplio todo lo que ofrece 192 00:07:07,800 --> 00:07:09,579 que ¿para qué le voy a dar instrucciones? 193 00:07:10,139 --> 00:07:11,100 yo no tengo el referente 194 00:07:11,100 --> 00:07:13,680 pero yo seguramente a mi móvil le saco un provecho del 15% 195 00:07:13,680 --> 00:07:16,439 el 20% con todo el valor que me puede ofrecer 196 00:07:16,439 --> 00:07:18,000 y mi móvil que es un 197 00:07:18,000 --> 00:07:19,399 dentro de Samsung los que tendáis 198 00:07:19,399 --> 00:07:20,279 es un Note 9 199 00:07:20,279 --> 00:07:23,040 y Samsung ya está hablando del Note 10 200 00:07:23,040 --> 00:07:25,199 que lo va a presentar en los próximos días 201 00:07:25,199 --> 00:07:26,699 y el mío tiene meses 202 00:07:27,480 --> 00:07:29,379 El lote 10 es mucho más avanzado. 203 00:07:29,759 --> 00:07:31,779 Entonces es un tema de aceleración. 204 00:07:31,899 --> 00:07:38,759 Fijaros, si tenemos en cuenta el timeline, la evolución del hombre, hace 4.600 millones de años se forma la Tierra. 205 00:07:39,379 --> 00:07:41,860 4.000 aproximadamente, 4.600 millones de años. 206 00:07:42,180 --> 00:07:48,139 Un dato muy curioso es que rápidamente aparecen los primeros organismos unicelulares, aparece vida. 207 00:07:48,560 --> 00:07:56,639 Hay una teoría que nos viene al caso, es la teoría de la panspermia, que es que se forma vida tan rápido en la Tierra que parece que se acepta que vino del espacio la vida. 208 00:07:56,699 --> 00:07:58,600 porque fue muy rápido realmente 209 00:07:58,600 --> 00:08:00,680 pero luego hay un espacio de casi 2000 años 210 00:08:00,680 --> 00:08:03,040 hasta que aparecen los organismos pluricelulares 211 00:08:03,040 --> 00:08:04,879 1000 años después 212 00:08:04,879 --> 00:08:07,120 de los pluricelulares aparecen los peces 213 00:08:07,120 --> 00:08:09,019 500 años después 214 00:08:09,019 --> 00:08:10,620 los mamíferos 215 00:08:10,620 --> 00:08:13,680 100 años después aparecen los primeros homínidos 216 00:08:13,680 --> 00:08:15,839 fijaros como se va acortando todo 217 00:08:15,839 --> 00:08:17,019 cada vez más 218 00:08:17,019 --> 00:08:18,459 es frenético 219 00:08:18,459 --> 00:08:20,620 el ritmo al cual evolucionamos 220 00:08:20,620 --> 00:08:22,199 porque lo que estamos viviendo ahora 221 00:08:22,199 --> 00:08:24,339 es un eslabón más en todo eso 222 00:08:24,339 --> 00:08:26,240 es una parte más en todo esto 223 00:08:26,240 --> 00:08:40,080 Esto no es la lavadora de los años 40 o la televisión en color de los años 70. Esto va mucho más allá de eso. Esto es algo que nos afecta a todos. Nos afecta en la manera en la que vivimos y lo vamos a ir viendo a lo largo de la presentación. 224 00:08:40,080 --> 00:08:57,019 Fijaros lo que ha sido la evolución del hombre. Los primates aproximadamente hace unos 10 millones de años. La bipedestación, el segundo dibujo, ocurre aproximadamente hace unos 7-8 millones de años, la bipedestación, cuando se hiergue en África los primeros primates. 225 00:08:57,019 --> 00:09:16,799 Los primeros homínidos, hace aproximadamente unos 4 o 5 millones de años. El neolítico, 3.000, más, 8.000, 10.000 años. Los oficios de la Edad Media, 1.000 años aproximadamente. Gutenberg, siglo XIV, el libro, la escritura, la socialización de la cultura. 226 00:09:16,799 --> 00:09:35,960 Los primeros ordenadores personales, 1980 aproximadamente, un poco más, 1985. El portátil, perdón, 1985. 1990. El smartphone, ¿cuándo salió el primer smartphone? ¿Os acordáis? 2007. El smartphone, 2007. 227 00:09:35,960 --> 00:09:38,419 en realidad virtual año 2000 228 00:09:38,419 --> 00:09:39,879 os vais a dar cuenta como cada vez 229 00:09:39,879 --> 00:09:41,960 todo es mucho más breve 230 00:09:41,960 --> 00:09:44,080 y eso nos genera un problema 231 00:09:44,080 --> 00:09:45,500 y nos genera un problema 232 00:09:45,500 --> 00:09:48,519 que es lo que da título a mi libro 233 00:09:48,519 --> 00:09:50,360 que es la actitud digital 234 00:09:50,360 --> 00:09:52,399 fijaros, la tecnología sigue 235 00:09:52,399 --> 00:09:53,500 este ritmo de cambio 236 00:09:53,500 --> 00:09:55,980 cada vez más frenético, cada vez más rápido 237 00:09:55,980 --> 00:09:58,419 y nosotros nos exigen 238 00:09:58,419 --> 00:09:59,639 adaptarnos a la tecnología 239 00:09:59,639 --> 00:10:02,539 este año Hacienda ya no permitía 240 00:10:02,539 --> 00:10:04,539 la entrega de la declaración de la renta 241 00:10:04,539 --> 00:10:06,100 de forma física 242 00:10:06,100 --> 00:10:08,159 no se lo aceptaba 243 00:10:08,159 --> 00:10:09,500 ya tenía que ser de forma 244 00:10:09,500 --> 00:10:12,279 digital la declaración 245 00:10:12,279 --> 00:10:14,620 la declaración de la renta 246 00:10:14,620 --> 00:10:16,659 y nuestra capacidad de adaptación 247 00:10:16,659 --> 00:10:17,419 es limitada 248 00:10:17,419 --> 00:10:20,460 la capacidad de adaptación que tenemos los humanos es limitada 249 00:10:20,460 --> 00:10:21,600 porque 250 00:10:21,600 --> 00:10:24,379 la tecnología, los objetos, nosotros los 251 00:10:24,379 --> 00:10:26,379 integramos en nuestra forma 252 00:10:26,379 --> 00:10:27,879 de vida pero 253 00:10:27,879 --> 00:10:30,440 tardamos tiempo en generalizarlos 254 00:10:30,440 --> 00:10:31,720 y en cambiar nuestra forma 255 00:10:31,720 --> 00:10:34,200 ahora pues el whatsapp hemos tenido ya tiempo 256 00:10:34,200 --> 00:10:46,639 Pero ha cambiado radicalmente la forma en la que nos comunicamos con los demás. Fijaros, ese punto en el cual la tecnología empieza a ir más rápido que nuestra capacidad de adaptación ocurre en el año 2007. 257 00:10:48,879 --> 00:10:58,559 En el año 2007 se produce una revolución tecnológica en el mundo que va a marcar no solamente el desarrollo de la sociedad, va a marcar el desarrollo de la condición humana. 258 00:10:58,559 --> 00:11:24,279 Fijaros todo lo que ocurre en el año 2007. En el año 2007, iPhone lanza el primer smartphone. Os cuento nada el impacto que ha tenido. En el año 2007, Facebook se hace una red social global. En el año 2007, nace Twitter. En el año 2007, Amazon lanza el primer libro digital, el primer e-book. En el año 2007, Google presenta Android. En el año 2007, nace Airbnb, la nueva forma de hacer negocios en el turismo. 259 00:11:24,279 --> 00:11:44,340 En el año 2007, YouTube encuentra la manera de monetizar, de generar un beneficio económico de los vídeos. Google anuncia el lanzamiento de su modelo de AdWords, de su modelo de patrocinios. Nacen las apps. En el año 2007 nacen las apps, que hoy por hoy es uno de los negocios más rentables que existen. 260 00:11:44,340 --> 00:12:11,799 El presidente de Netscape, ¿os acordáis? Era un buscador que había antes. En el año 2007, cuando nacen las apps, dice, nacen los tiempos de ganar mucho dinero, cuando nacen las apps. Servicio de microcrédito para ayudar al tercer mundo. Amazon empieza a lanzar el almacenamiento en la nube, porque muchos no lo sabéis, pero Amazon, el negocio fuerte de Amazon no es vender libros o no es vender aspiradoras. El negocio fuerte de Amazon son sus servidores, es su hosting que ofrece, que es lo que se llama la Amazon Web Service, ¿no? 261 00:12:11,799 --> 00:12:25,480 E IBM, esto es muy importante, lanza Watson. ¿Sabéis lo que es Watson? Un sistema de inteligencia artificial. Es un sistema de inteligencia artificial que lo han ido mejorando y que llegó en Estados Unidos. 262 00:12:25,480 --> 00:12:40,919 Hay un concurso tipo pasapalabra que allí se llama Geopardize, concurso de cultura, y Watson venció y superó sobradamente al campeón americano de Geopardize. Es un sistema que está en constante aprendizaje. 263 00:12:40,919 --> 00:13:00,940 Pues esa diferencia entre donde estamos y donde la tecnología está es lo que yo llamo actitud digital. La única forma que tenemos de seguir el ritmo que marcan las nuevas tecnologías es desarrollar una manera diferente de comportarnos, desarrollar una manera diferente de actuar. 264 00:13:04,480 --> 00:13:11,960 ¿Cuáles son las cuatro principales áreas que se ven más afectadas por las nuevas tecnologías? 265 00:13:11,960 --> 00:13:16,460 Pues fijaros, por una parte, y más importante, la comunicación y las relaciones interpersonales. 266 00:13:16,860 --> 00:13:19,820 ¿Por qué? Primero porque cambian los medios en los que nos comunicamos. 267 00:13:20,159 --> 00:13:25,500 Cada vez usamos menos el teléfono, cada vez usamos menos la voz, cada vez nos comunicamos más por el teclado. 268 00:13:25,919 --> 00:13:30,240 Pero sabéis que lo del teclado va a desaparecer y que será el dictado al final lo que vendrá. 269 00:13:30,919 --> 00:13:32,159 Pero ¿y qué vendrá después del dictado? 270 00:13:32,159 --> 00:13:34,700 muchas de las cosas que os voy a contar aquí pueden parecer ciencia ficción 271 00:13:34,700 --> 00:13:35,799 creedme que no lo son 272 00:13:35,799 --> 00:13:37,500 es una persona con los pies en la tierra 273 00:13:37,500 --> 00:13:40,080 lo siguiente es el pensamiento 274 00:13:40,080 --> 00:13:42,159 es el ser capaces de comunicarnos 275 00:13:42,159 --> 00:13:43,080 y veremos luego un ejemplo 276 00:13:43,080 --> 00:13:45,139 a través del pensamiento 277 00:13:45,139 --> 00:13:50,580 luego os pondré mi dirección de twitter 278 00:13:50,580 --> 00:13:52,139 hoy he publicado en twitter 279 00:13:52,139 --> 00:13:54,019 hablo mucho, tengo mi blog 280 00:13:54,019 --> 00:13:54,820 hablo mucho de esto 281 00:13:54,820 --> 00:13:58,620 he publicado una universidad americana 282 00:13:58,620 --> 00:14:00,100 que ha lanzado un sistema, el tetris 283 00:14:00,100 --> 00:14:01,039 ¿os acordáis del tetris? 284 00:14:01,240 --> 00:14:02,620 jugando al tetris con el pensamiento 285 00:14:02,620 --> 00:14:05,139 dos personas sentadas como estamos 286 00:14:05,139 --> 00:14:06,200 sin abrir la boca 287 00:14:06,200 --> 00:14:08,840 capaces de mover las piezas de Tetris 288 00:14:08,840 --> 00:14:10,820 y jugar al Tetris uno contra otro 289 00:14:10,820 --> 00:14:12,279 competir con el pensamiento 290 00:14:12,279 --> 00:14:14,500 si me seguís en Twitter lo tenéis 291 00:14:14,500 --> 00:14:16,899 cambian los medios, aumentan los destinatarios 292 00:14:16,899 --> 00:14:18,659 nos dirigimos a mucha más gente 293 00:14:18,659 --> 00:14:20,179 nos dirigimos a muchas más personas 294 00:14:20,179 --> 00:14:22,860 y no hablo simplemente del bluff de los influencers 295 00:14:22,860 --> 00:14:24,759 que es pan para hoy, hambre para mañana 296 00:14:24,759 --> 00:14:26,779 hablo simplemente de los grupos de Whatsapp 297 00:14:26,779 --> 00:14:29,059 donde de repente un mensaje específico 298 00:14:29,059 --> 00:14:30,879 llega a 40, 50, 60 personas 299 00:14:30,879 --> 00:14:38,019 Yo tengo hijos pequeños y estoy en los clásicos grupos de Lampa o de los padres, ¿no? Los padres son terribles, pero tienes que estar ahí y participar. 300 00:14:40,179 --> 00:14:45,500 Y luego, por otra parte, y es la contrapartida que tienen las tecnologías, que es la gestión del anonimato. 301 00:14:46,279 --> 00:14:51,879 La tecnología, al llegar tan rápido, nos implica un proceso de adaptación. 302 00:14:51,879 --> 00:14:58,799 adaptación. Esto es como si una farmacéutica lanzara un medicamento y ya en el mercado 303 00:14:58,799 --> 00:15:04,440 el medicamento dice, bueno, a ver si funciona y a ver qué mal hace. La tecnología funciona 304 00:15:04,440 --> 00:15:09,419 así. La tecnología primero lanza en los coches autónomos. Aparentemente están llenos 305 00:15:09,419 --> 00:15:13,480 de virtudes. Pero realmente hasta que no empecemos a utilizarlos no vamos a ver los defectos. 306 00:15:13,779 --> 00:15:19,899 El anonimato de las redes sociales es la contrapartida a la capacidad que tenemos de comunicarnos. 307 00:15:19,899 --> 00:15:22,919 y es el lado oscuro de las relaciones 308 00:15:22,919 --> 00:15:27,279 de las redes sociales y lo vemos habitualmente 309 00:15:27,279 --> 00:15:30,500 otro área que se ve muy afectada es la sociedad de consumo y ocio 310 00:15:30,500 --> 00:15:33,480 y creamos individuos basados en tres elementos 311 00:15:33,480 --> 00:15:36,179 primero el hedonismo, la búsqueda de la satisfacción 312 00:15:36,179 --> 00:15:38,580 la búsqueda de placer, de ahí por ejemplo 313 00:15:38,580 --> 00:15:40,720 el éxito de la pornografía en internet 314 00:15:40,720 --> 00:15:44,120 en segundo lugar, la inmediatez 315 00:15:44,120 --> 00:15:46,139 queremos las cosas ya 316 00:15:46,139 --> 00:15:48,360 Amazon 317 00:15:48,360 --> 00:15:50,899 se compromete a traerte algo en 24 horas 318 00:15:50,899 --> 00:15:52,039 incluso el mismo día 319 00:15:52,039 --> 00:15:53,600 y te lo trae 320 00:15:53,600 --> 00:15:56,539 yo tengo Netflix, muchos de vosotros tendréis Netflix 321 00:15:56,539 --> 00:15:58,559 cuando estás terminando un capítulo en Netflix 322 00:15:58,559 --> 00:16:00,620 ¿qué te dice? ¿quieres empezar el siguiente? 323 00:16:01,279 --> 00:16:02,779 y te da ya la opción de empezar el siguiente 324 00:16:02,779 --> 00:16:04,519 pero ¿y qué te dice cuando estás 325 00:16:04,519 --> 00:16:06,600 en la entrada, en la cabecera 326 00:16:06,600 --> 00:16:07,740 de la serie? 327 00:16:08,139 --> 00:16:09,240 ¿te la quieres saltar? 328 00:16:10,019 --> 00:16:11,919 ¿te quieres saltar la serie? ¿quieres ir a la chicha? 329 00:16:12,440 --> 00:16:14,220 esa es la inmediatez que buscamos 330 00:16:14,220 --> 00:16:15,580 y la individualidad 331 00:16:15,580 --> 00:16:17,799 lo hacemos a pesar 332 00:16:17,799 --> 00:16:19,799 de que tenemos muchas más relaciones 333 00:16:19,799 --> 00:16:21,179 son relaciones precarias 334 00:16:21,179 --> 00:16:23,840 son relaciones en muchos casos 335 00:16:23,840 --> 00:16:24,279 además 336 00:16:24,279 --> 00:16:27,320 mal interpretadas 337 00:16:27,320 --> 00:16:29,919 y en el fondo estamos más solos 338 00:16:29,919 --> 00:16:30,580 que antes 339 00:16:30,580 --> 00:16:32,879 en el fondo estamos 340 00:16:32,879 --> 00:16:34,480 la gran mayoría de las 341 00:16:34,480 --> 00:16:37,600 de la interacción que tenemos con la tecnología es una interacción 342 00:16:37,600 --> 00:16:40,000 en solitario y esos tres elementos 343 00:16:40,000 --> 00:16:42,240 hedonismo, quiero las cosas ya 344 00:16:42,240 --> 00:16:43,779 quiero la satisfacción 345 00:16:43,779 --> 00:16:44,740 y ese 346 00:16:44,740 --> 00:16:48,059 esa egolatría, ese egoísmo, esa individualidad 347 00:16:48,059 --> 00:16:49,799 de quién es característica 348 00:16:49,799 --> 00:16:51,240 de los niños 349 00:16:51,240 --> 00:16:53,220 estamos en una sociedad 350 00:16:53,220 --> 00:16:55,899 que se nos está infantilizando 351 00:16:55,899 --> 00:16:57,399 y los 352 00:16:57,399 --> 00:16:59,240 las grandes corporaciones 353 00:16:59,240 --> 00:17:01,000 de Silicon Valley 354 00:17:01,000 --> 00:17:03,840 lo saben y están constantemente 355 00:17:03,840 --> 00:17:05,740 dándonos carnaza todavía para 356 00:17:05,740 --> 00:17:08,039 infantilizarnos más 357 00:17:08,039 --> 00:17:11,269 otro área, tercer área 358 00:17:11,269 --> 00:17:13,210 es la gestión de la información y el conocimiento 359 00:17:13,210 --> 00:17:15,250 que bien gestionado es el gran valor 360 00:17:15,250 --> 00:17:18,130 de las nuevas tecnologías, cómo accedemos a la información. 361 00:17:18,930 --> 00:17:21,369 Pero tenemos tres retos a la hora de gestionar información. 362 00:17:21,710 --> 00:17:23,990 Primero, buscar información relevante. 363 00:17:24,730 --> 00:17:27,450 Cuando uno entra en Google y va a hacer una búsqueda de algo 364 00:17:27,450 --> 00:17:29,750 aparecen cientos de miles de referencias. 365 00:17:30,130 --> 00:17:33,210 ¿Cómo encuentro yo aquí lo que realmente es relevante para lo que estoy buscando? 366 00:17:33,569 --> 00:17:36,109 Tenemos que aprender a encontrar lo más relevante. 367 00:17:36,549 --> 00:17:38,490 Tenemos que aprender a profundizar en las cosas. 368 00:17:39,230 --> 00:17:41,890 Eso es lo que yo llamo pasar de la información al conocimiento. 369 00:17:41,890 --> 00:18:02,289 No basta con estar informado de las cosas. Hay que entenderlas. Y eso requiere profundizar en las cosas. No quedarnos en los titulares. Hay que leer la noticia. Y por último, y fundamental, la veracidad. Y esa es una responsabilidad nuestra. Se carga contra Facebook, se carga contra otras redes sociales, Twitter, de las fake news. 370 00:18:02,289 --> 00:18:04,190 que lanzan fake news 371 00:18:04,190 --> 00:18:06,549 la responsabilidad de identificar 372 00:18:06,549 --> 00:18:07,970 una fake news es nuestra 373 00:18:07,970 --> 00:18:10,289 y eso debe enseñarse a los niños 374 00:18:10,289 --> 00:18:12,490 desde pequeños, que es a través de lo que se llama 375 00:18:12,490 --> 00:18:13,529 el razonamiento 376 00:18:13,529 --> 00:18:15,670 crítico 377 00:18:15,670 --> 00:18:17,809 y por último 378 00:18:17,809 --> 00:18:20,569 el mundo del trabajo, la formación 379 00:18:20,569 --> 00:18:22,670 os voy a hacer 380 00:18:22,670 --> 00:18:24,950 una pregunta, ¿quiénes de vosotros 381 00:18:24,950 --> 00:18:26,710 desconozco en qué trabajáis cada uno? 382 00:18:27,029 --> 00:18:28,670 hay un elemento común que nos une aquí 383 00:18:28,670 --> 00:18:30,569 a todos, pero luego la actividad, la tarea 384 00:18:30,569 --> 00:18:35,730 de cada uno, las desconozco. ¿Quiénes de vosotros creéis que vuestro trabajo va a ser reemplazado 385 00:18:35,730 --> 00:18:40,750 por máquinas próximamente? Cuando digo máquinas no quiero decir robots mecánicos, quiero decir sistemas 386 00:18:40,750 --> 00:18:51,349 de inteligencia artificial. Yo levantaría más manos. Hay un estudio de la Universidad de Oxford 387 00:18:51,349 --> 00:18:59,009 donde analiza cerca de 700 empleos distintos y pone el porcentaje de riesgo de que sea una actividad 388 00:18:59,009 --> 00:19:00,990 concreta sea automatizada. 389 00:19:01,829 --> 00:19:03,150 Los puestos con más 390 00:19:03,150 --> 00:19:05,009 riesgos de automatización son los puestos que 391 00:19:05,009 --> 00:19:07,009 tienen que ver con las finanzas. Sobre todo 392 00:19:07,009 --> 00:19:08,329 gestión de riesgos. 393 00:19:09,329 --> 00:19:10,849 Los brokers. Brokers 394 00:19:10,849 --> 00:19:13,210 es un trabajo que desaparecerá. 395 00:19:13,589 --> 00:19:15,289 Que desaparecerá. Por contra 396 00:19:15,289 --> 00:19:16,690 los puestos 397 00:19:16,690 --> 00:19:19,190 que tienen menos riesgos de desaparecer 398 00:19:19,190 --> 00:19:22,740 ¿sabéis cuáles son? El mío. 399 00:19:23,319 --> 00:19:24,099 El psicólogo. 400 00:19:24,759 --> 00:19:26,119 Los que trabajamos con personas. 401 00:19:26,640 --> 00:19:28,400 Los que intentamos entender a las personas. 402 00:19:29,440 --> 00:19:30,460 Esos son los puestos que tienen 403 00:19:30,460 --> 00:19:34,579 menos, los que trabajan con gente mayor, porque además somos una sociedad envejecida y que 404 00:19:34,579 --> 00:19:40,660 tendemos a envejecer. Esos son los puestos que menos riesgos tienen de desaparecer. Pero 405 00:19:40,660 --> 00:19:45,539 os cuento una curiosidad. Uno de los puestos también que, pues frente al 98% de riesgo 406 00:19:45,539 --> 00:19:51,359 que tiene un broker, uno de los puestos que están por debajo del 1% de riesgo es un arqueólogo. 407 00:19:52,240 --> 00:19:56,440 ¿Sabéis por qué la arqueología es poco probable que sea reemplazada por máquinas? 408 00:19:56,440 --> 00:20:00,980 porque a un arqueólogo utiliza mucho la intuición. 409 00:20:01,660 --> 00:20:07,299 No hay algoritmo posible que puedas aplicar para encontrar una tumba en Egipto 410 00:20:07,299 --> 00:20:09,480 que esté todavía pendiente de ser descubierta. 411 00:20:10,039 --> 00:20:12,359 Y hoy por hoy los ordenadores carecen de la intuición. 412 00:20:12,880 --> 00:20:18,779 Tienen la inteligencia, tienen el razonamiento, pero no tienen ese elemento de intuición, 413 00:20:19,779 --> 00:20:21,640 lo que muchas veces llamamos el pálpito. 414 00:20:22,720 --> 00:20:22,980 Les falta. 415 00:20:23,720 --> 00:20:35,079 En el mundo del trabajo es importante la autoformación, porque esa aceleración requiere que reaccionemos nosotros antes que nuestra empresa. 416 00:20:35,500 --> 00:20:43,880 No podemos esperar a que ante una nueva novedad en nuestro área, en nuestro sector, un nuevo software, una nueva aplicación, una nueva manera de hacer las cosas, 417 00:20:44,319 --> 00:20:48,980 a que nuestra empresa nos dé la oportunidad de formarnos, porque lo hará tarde cuando nos forme. 418 00:20:48,980 --> 00:20:57,079 Los alumnos que entran hoy en la universidad en primero, cuando salen cuatro años después, se encuentran en una sociedad diferente a la que había en primero. 419 00:20:57,519 --> 00:21:01,720 ¿Qué hacemos? ¿Les formamos con la sociedad de primero o les formamos con la sociedad de cuarto o de quinto? 420 00:21:02,220 --> 00:21:05,940 La de cinco años después. La empresa es igual. Tiene que reaccionar uno. 421 00:21:06,680 --> 00:21:10,039 Autoformación. El trabajo con nuevas herramientas y los nuevos contextos. 422 00:21:10,579 --> 00:21:15,160 Sobre todo los contextos más interculturales, más diversos. 423 00:21:15,160 --> 00:21:30,299 Hay un profesor catedrático de la Universidad Carlos III, Antonio Rodríguez de las Heras, que dice que solamente te quedan tres oportunidades, tres opciones. Una es recluirte y decir yo de esto no quiero nada. Otra es desaparecer. Y la tercera y fundamental es transformarse. 424 00:21:30,299 --> 00:21:33,019 recordad, cuando yo os he hablado de la evolución del hombre 425 00:21:33,019 --> 00:21:37,339 es porque quiero que consideréis que el momento actual 426 00:21:37,339 --> 00:21:39,220 es un momento más en la evolución 427 00:21:39,220 --> 00:21:41,880 que esto no es la lavadora, que esto no es el coche 428 00:21:41,880 --> 00:21:44,559 cuando Ford lanzó a principios del siglo XX el coche 429 00:21:44,559 --> 00:21:46,220 el avión, que no, que esto es otra cosa 430 00:21:46,220 --> 00:21:50,099 que esto nos afecta directamente a la manera en la que 431 00:21:50,099 --> 00:21:52,519 vamos a evolucionar como personas 432 00:21:52,519 --> 00:21:55,359 y lo único que queda es transformarse 433 00:21:55,359 --> 00:21:59,339 y aquí os voy a contar lo que yo considero 434 00:21:59,339 --> 00:22:04,740 que son los diez elementos fundamentales para mostrar esa actitud digital. 435 00:22:05,240 --> 00:22:09,960 Diez elementos que debemos interiorizar y que debemos hacer nuestros en el día a día 436 00:22:09,960 --> 00:22:15,160 porque son los elementos fundamentales para poder seguir el ritmo que marca la tecnología 437 00:22:15,160 --> 00:22:17,400 o que marca la sociedad digital. 438 00:22:18,200 --> 00:22:20,119 Tenemos que hacerlo de tres formas. 439 00:22:20,619 --> 00:22:21,279 Ahora los veremos. 440 00:22:21,700 --> 00:22:26,599 Primero informándonos, después formándonos, que es lo que hacemos aquí, 441 00:22:26,599 --> 00:22:28,579 pero hay un elemento adicional 442 00:22:28,579 --> 00:22:30,019 que es transformándonos 443 00:22:30,019 --> 00:22:32,339 ya no basta con saber la información 444 00:22:32,339 --> 00:22:35,180 tenemos que pasar a ser de otra manera 445 00:22:35,180 --> 00:22:36,779 tenemos que actuar de otra manera 446 00:22:36,779 --> 00:22:38,819 el tema de las fake news 447 00:22:38,819 --> 00:22:39,440 por ejemplo 448 00:22:39,440 --> 00:22:42,460 yo he leído periódicos toda la vida 449 00:22:42,460 --> 00:22:44,019 yo hace 10 años 450 00:22:44,019 --> 00:22:46,839 yo leía un periódico y yo no me planteaba 451 00:22:46,839 --> 00:22:48,240 o me llegaba una noticia y yo no me planteaba 452 00:22:48,240 --> 00:22:49,380 si era verdad o si era mentira 453 00:22:49,380 --> 00:22:52,420 ahora tengo que hacer ese ejercicio adicional 454 00:22:52,420 --> 00:22:54,740 tengo que incorporar a mi repertorio 455 00:22:54,740 --> 00:22:55,740 de acciones 456 00:22:55,740 --> 00:23:11,640 Es decir, coño, qué raro es esto. Mira que sí es mentira. Y aplicar una serie de principios, quien lo dice, a través de qué vía, qué antigüedad tiene, con mi conocimiento personal, esto es real, no es real. 457 00:23:12,079 --> 00:23:15,819 Todo eso me obliga a transformarme a la hora de gestionar información. 458 00:23:16,819 --> 00:23:20,799 Diez habilidades. Las primeras que tienen que ver con cómo nos relacionamos con los demás. 459 00:23:21,740 --> 00:23:35,779 La primera es trabajar en la diversidad, trabajar en entornos mucho más ricos de personas, de todo tipo, diversidad intercultural, diversidad social, diversidad de género, por supuesto, y aprender de la riqueza de la diversidad. 460 00:23:36,359 --> 00:23:47,359 Yo incluyo en el libro un estudio muy curioso, que es, se hizo un análisis de los trabajos científicos publicados que habían tenido mayor repercusión y más éxito. 461 00:23:47,359 --> 00:24:05,160 Por norma general, aquellos que integran entre los autores de los trabajos científicos personas de diferentes nacionalidades, personas que son equipos más diversos, tienen mucho más éxito, llegan mucho más lejos y llegan a conclusiones mucho más valiosas que equipos más homogéneos. 462 00:24:05,160 --> 00:24:22,400 Los entornos colaborativos, ya no es el trabajo en equipo, es un poco más del trabajo en equipo. No sé si habéis oído hablar de las metodologías agile, que ahora son las ágiles. Es otra manera de gestionar el trabajo, en el cual las jerarquías se difuminan. 463 00:24:22,400 --> 00:24:24,900 ahí hay una relación mucho más estrecha 464 00:24:24,900 --> 00:24:25,740 entre las personas 465 00:24:25,740 --> 00:24:28,079 la gestión de las emociones es fundamental 466 00:24:28,079 --> 00:24:30,619 porque la condición humana no la vamos a perder nunca 467 00:24:30,619 --> 00:24:32,619 y porque vamos a seguir trabajando 468 00:24:32,619 --> 00:24:34,220 e interactuando con personas 469 00:24:34,220 --> 00:24:35,920 y tenemos que aprender a gestionar emociones 470 00:24:35,920 --> 00:24:37,680 y tenemos que aprender a gestionar emociones 471 00:24:37,680 --> 00:24:38,980 en diferentes ámbitos 472 00:24:38,980 --> 00:24:40,619 y tiene que ver también con la comunicación 473 00:24:40,619 --> 00:24:42,779 tenemos que aprender a usar emoticonos 474 00:24:42,779 --> 00:24:45,039 muchas veces 475 00:24:45,039 --> 00:24:47,960 el uso de la comunicación a través de whatsapp 476 00:24:47,960 --> 00:24:48,779 pues habrá pasado a todos 477 00:24:48,779 --> 00:24:50,380 genera malentendidos 478 00:24:50,380 --> 00:24:53,200 y luego tienes que estar disculpándote 479 00:24:53,200 --> 00:24:55,400 ¿cuándo es correcto usar un emoticón 480 00:24:55,400 --> 00:24:56,180 y elegirlo? 481 00:24:56,440 --> 00:24:57,559 ¿y cuándo no es correcto? 482 00:24:57,579 --> 00:24:59,380 ¿cómo dirigirte a otra persona y prever 483 00:24:59,380 --> 00:25:02,119 cómo va a funcionar? 484 00:25:02,359 --> 00:25:03,920 es la diferencia entre lo que 485 00:25:03,920 --> 00:25:06,079 en las redes sociales el anonimato lo hace 486 00:25:06,079 --> 00:25:07,720 entre responder 487 00:25:07,720 --> 00:25:09,660 y reaccionar 488 00:25:09,660 --> 00:25:12,420 tenemos que responder más y reaccionar menos 489 00:25:12,420 --> 00:25:15,059 y eso implica gestionar nuestras propias emociones 490 00:25:15,059 --> 00:25:16,400 y comunicar 491 00:25:16,400 --> 00:25:18,599 comunicar mejor y comunicar a través de los 492 00:25:18,599 --> 00:25:19,259 medios 493 00:25:19,259 --> 00:25:21,079 actuales. 494 00:25:23,529 --> 00:25:25,069 Habilidades que me permiten relacionarme. 495 00:25:25,210 --> 00:25:27,150 Habilidades que me ayudan a aprender. Fundamental 496 00:25:27,150 --> 00:25:29,210 la curiosidad. Tenemos que potenciar 497 00:25:29,210 --> 00:25:31,069 en los niños las curiosidades. Tienen que ser 498 00:25:31,069 --> 00:25:32,970 tienen que tener afán por 499 00:25:32,970 --> 00:25:34,930 explorar. Afán por investigar. 500 00:25:35,609 --> 00:25:36,569 ¿Conocéis lo que es Alexa? 501 00:25:37,210 --> 00:25:38,910 ¿Alguien ha dicho Siri? ¿Antes había dicho alguien lo de Siri? 502 00:25:39,470 --> 00:25:41,269 ¿Lo has dicho tú? ¿Lo de Siri? Alexa, ¿sabes? 503 00:25:41,289 --> 00:25:42,890 Es la contrapartida. Yo tengo Alexa en casa. 504 00:25:43,009 --> 00:25:43,750 Yo es que soy anti-Apple. 505 00:25:44,970 --> 00:25:47,230 Yo tengo Alexa. Yo estoy en casa y yo Alexa 506 00:25:47,230 --> 00:25:47,789 digo Alexa 507 00:25:47,789 --> 00:25:50,829 ¿Qué tiempo va a hacer mañana en Madrid? 508 00:25:50,890 --> 00:26:04,109 Y Alexa me responde. Yo le puedo preguntar a Alexa, Alexa, ¿en qué año se publicó El Quijote? Y Alexa me responde, ¿qué necesidad tiene que mis hijos aprendan en qué año se publicó El Quijote? 509 00:26:04,730 --> 00:26:17,190 Si se lo van a poder preguntar a Alexa, que ahora mismo lo tengo en casa, pero lo tengo en el reloj o lo puedo tener en el teléfono. Tenemos que aprender a preguntar, no a responder, porque ya vamos a tener equipos que nos responden. 510 00:26:17,190 --> 00:26:30,789 Nos tienen que enseñar a preguntar y eso parte de la curiosidad. El niño ese de los 5, 6, 7 años que además le penalizamos porque está siempre preguntándonos, el niño pesado. Esa curiosidad es la que tenemos que fomentar. 511 00:26:31,589 --> 00:26:39,289 ¿Sabéis cuál es la disciplina que abarca o, mejor dicho, que sustenta, soporta las preguntas? 512 00:26:40,029 --> 00:26:41,349 La filosofía. 513 00:26:42,130 --> 00:26:43,990 La filosofía te enseña a preguntar. 514 00:26:44,390 --> 00:26:49,769 Los tres elementos fundamentales de la filosofía son quienes somos, de dónde venimos y a dónde vamos. 515 00:26:50,349 --> 00:26:54,890 Las tres preguntas universales que nunca han sido posibles responderlas. 516 00:26:54,990 --> 00:26:56,789 Eso Alexa no lo va a contestar nunca. 517 00:26:57,750 --> 00:27:00,309 Por eso tenemos que aprender a preguntar, no a responder. 518 00:27:00,789 --> 00:27:15,650 Crear y compartir conocimiento. La creatividad es una creatividad social. Los que utilicéis YouTube, gente sin mayor afán, ya no hablo de los influencers, hablo realmente de vídeos útiles, con valor. 519 00:27:15,650 --> 00:27:30,210 Desde el que te hace una receta de cocina, hasta el otro día salía este fin de semana en el periódico uno que hace vídeos de física, no sé qué, Rapture, un millón y medio de visualizaciones de sus vídeos. 520 00:27:30,210 --> 00:27:53,450 Es un tipo que en su casa dedica tiempo financiándoselo él a hacer vídeos que luego ve un millón y medio de personas. Hay que crear, pero hay que compartir también. Hay que socializar el conocimiento y el pensamiento crítico que es lo que os contaba. El plantearnos por qué son las cosas así. El no ser vulnerables a las mentiras de los demás. 521 00:27:54,450 --> 00:28:02,589 Y por último, la tercera, las tres últimas habilidades necesarias para funcionar en la sociedad digital, la capacidad de prever. 522 00:28:03,069 --> 00:28:09,829 Dices, joder, pero en una sociedad que cambia tanto, ¿cómo voy a prever yo si todo esto cambia mucho? 523 00:28:09,910 --> 00:28:13,650 Precisamente por eso, porque te vas a encontrar situaciones de cambio. 524 00:28:13,750 --> 00:28:16,470 La única diferencia es que tienes que prever en más corto espacio de tiempo. 525 00:28:16,869 --> 00:28:19,450 Ya no puedes hacer planes a mucho más distancia. 526 00:28:20,089 --> 00:28:23,829 ¿Alguien se atreve a pensar, a decir cómo van a ser los coches en el año 40, en el 2040? 527 00:28:24,490 --> 00:28:25,750 ¿2040? De aquí a 20 años. 528 00:28:26,009 --> 00:28:26,930 ¿Coches eléctricos? Sí. 529 00:28:27,410 --> 00:28:27,950 ¿Pero qué más? 530 00:28:28,769 --> 00:28:30,289 ¿Qué tecnología? ¿Autónomos? 531 00:28:34,049 --> 00:28:38,269 Uber, por ejemplo, Uber, es una empresa que todos conocéis, es absolutamente deficitaria. 532 00:28:39,130 --> 00:28:43,269 Uber pierde miles de millones todos los años y aún así no hace más que captar dinero de inversores. 533 00:28:44,410 --> 00:28:44,950 ¿Sabéis por qué? 534 00:28:44,950 --> 00:28:50,849 Porque Uber tiene una red, tiene una base de datos con millones de personas que tienen coches. 535 00:28:51,269 --> 00:28:57,769 El día que esas personas cambien su coche manual por un coche autónomo, lo pondrán a disposición de Uber. 536 00:28:58,150 --> 00:29:02,910 Y tú podrás ir a trabajar en tu coche autónomo. Insisto, no es ciencia ficción. 537 00:29:03,690 --> 00:29:07,069 Fijaros hace 40 años con el Wallman, si os hablábamos, hubiéramos hablado de Spotify. 538 00:29:07,650 --> 00:29:13,170 Tú vas con tu coche autónomo a trabajar, entras a trabajar y en ese momento Uber coge el control de tu coche. 539 00:29:13,170 --> 00:29:20,990 Y el tiempo que tú estás trabajando le alquilas tu coche autónomo a Uber, que se lo va a ofrecer a sus millones de personas o sus millones de usuarios. 540 00:29:22,269 --> 00:29:28,930 Previsión, la adaptación al cambio, precisamente para no recluirnos la adaptación al cambio, 541 00:29:29,009 --> 00:29:34,289 el estar siempre dispuestos a adoptar nuevas maneras de hacer las cosas y la gestión de la incertidumbre. 542 00:29:34,890 --> 00:29:37,869 Porque no sabemos lo que va a ocurrir de aquí a 10 años o a 20 años. 543 00:29:38,950 --> 00:29:41,509 Elon Musk, ¿sabéis quién es Elon Musk? El de Tesla. 544 00:29:42,349 --> 00:29:44,970 Tesla, ¿conocéis Tesla? Los coches eléctricos. 545 00:29:44,970 --> 00:29:51,170 Elon Musk ha dicho hace poco, dice, voy a poner en la calle un millón de coches autónomos. 546 00:29:51,269 --> 00:30:07,049 Estamos en el 2019. ¿Sabéis para qué año ha dicho que los va a poner? 2020. 2020. Elon Musk. Un millón de coches autónomos. Y es un tío creíble, solvente. 547 00:30:07,049 --> 00:30:10,339 vamos a hablar 548 00:30:10,339 --> 00:30:12,579 de futuro 549 00:30:12,579 --> 00:30:15,380 vamos a hablar de lo que nos vamos a encontrar 550 00:30:15,380 --> 00:30:17,460 en el futuro, fijaros, esta es una encuesta 551 00:30:17,460 --> 00:30:19,539 que se hizo en el año 32 en España 552 00:30:19,539 --> 00:30:21,640 esto es real, en el año 32 553 00:30:21,640 --> 00:30:23,359 hizo una encuesta sobre 554 00:30:23,359 --> 00:30:25,539 personalidades de la época, hasta ahí Gregorio Marañón 555 00:30:25,539 --> 00:30:27,400 el conde de Romanones, Ricardo Zamora 556 00:30:27,400 --> 00:30:28,740 Juan Belmonte 557 00:30:28,740 --> 00:30:31,480 les cogió a todos año 32 y les preguntó 558 00:30:31,480 --> 00:30:33,859 ¿cómo será el año 2000? 559 00:30:34,779 --> 00:30:35,779 yo me lo preguntaba 560 00:30:35,779 --> 00:30:37,799 yo soy el 68 561 00:30:37,799 --> 00:30:40,460 y yo en el 68 562 00:30:40,460 --> 00:30:43,099 un poco después, con 10, 15 años 563 00:30:43,099 --> 00:30:44,900 un poco menos, yo jugaba con mis amigos 564 00:30:44,900 --> 00:30:46,079 a cómo sería el año 2000 565 00:30:46,079 --> 00:30:49,519 fallé estrepitosamente 566 00:30:49,519 --> 00:30:52,539 fijaros 567 00:30:52,539 --> 00:30:55,319 lo que dijeron los intelectuales de la época 568 00:30:55,319 --> 00:30:56,900 pensad que estamos hablando del año 32 569 00:30:56,900 --> 00:30:59,180 que es el año, estamos en plena segunda república 570 00:30:59,180 --> 00:31:01,660 y eso tiene un matiz importante 571 00:31:01,660 --> 00:31:06,420 ¿qué dijeron que habría en el año 2000? 572 00:31:06,680 --> 00:31:07,619 la gente del año 32 573 00:31:07,619 --> 00:31:11,819 existirá igualdad de derechos 574 00:31:11,819 --> 00:31:16,400 pero sí, mejoró 575 00:31:16,400 --> 00:31:17,119 bastante 576 00:31:17,119 --> 00:31:21,140 habrá aparatos que volarán a 1500 km por hora 577 00:31:21,140 --> 00:31:22,839 y permanecerán estáticos en el aire 578 00:31:22,839 --> 00:31:24,000 bien 579 00:31:24,000 --> 00:31:26,819 habrá un acceso universal 580 00:31:26,819 --> 00:31:27,799 a la universidad 581 00:31:27,799 --> 00:31:29,940 y al divorcio, año 2000 sí 582 00:31:29,940 --> 00:31:32,960 por 20 años antes, 30 años antes 583 00:31:32,960 --> 00:31:34,180 no, pero en año 2000 sí 584 00:31:34,180 --> 00:31:36,619 no habrá muertes 585 00:31:36,619 --> 00:31:38,440 por enfermedades infecciosas 586 00:31:38,440 --> 00:31:40,359 pensad que es cuando se empezaban, en aquella época 587 00:31:40,359 --> 00:31:43,319 empezaban a desarrollar los antibióticos 588 00:31:43,319 --> 00:31:44,880 en el periodo de entreguerras. 589 00:31:46,359 --> 00:31:47,980 ¿Qué más predijeron? 590 00:31:48,359 --> 00:31:49,400 Llegará el coche eléctrico. 591 00:31:50,380 --> 00:31:51,440 Año 32, ¿eh? 592 00:31:51,539 --> 00:31:54,779 Pensad que la electricidad surge a principios de siglo, 593 00:31:54,880 --> 00:31:56,059 30 años antes, ¿eh? 594 00:31:56,059 --> 00:31:57,700 Con la guerra de los Tesla, 595 00:31:58,140 --> 00:32:00,799 otra vez Tesla, Nikola Tesla y Edison, ¿no? 596 00:32:00,799 --> 00:32:02,420 La corriente alterna y la corriente continua. 597 00:32:02,759 --> 00:32:04,240 Llevaban 30 años de electricidad 598 00:32:04,240 --> 00:32:06,559 y ya hablaban del coche eléctrico en el año 32. 599 00:32:07,240 --> 00:32:08,859 La mujer se habrá emancipado. 600 00:32:08,859 --> 00:32:12,539 eso sí tenía mucho que ver con 601 00:32:12,539 --> 00:32:14,039 el espíritu de la segunda república 602 00:32:14,039 --> 00:32:16,960 hombres mecánicos realizarán tareas domésticas 603 00:32:16,960 --> 00:32:21,660 no habrá reyes 604 00:32:21,660 --> 00:32:27,009 decía 605 00:32:27,009 --> 00:32:28,329 decía Augustine Churchill 606 00:32:28,329 --> 00:32:29,769 en el año 2000 607 00:32:29,769 --> 00:32:32,690 en el mundo solo quedarán 5 reyes 608 00:32:32,690 --> 00:32:35,450 los 4 de la baraja y la reina de Inglaterra 609 00:32:35,450 --> 00:32:40,960 no habrá reyes 610 00:32:40,960 --> 00:32:43,500 la sierra de Madrid formará parte de la capital 611 00:32:43,500 --> 00:32:45,200 pensaban que se iba a expandir Madrid 612 00:32:45,200 --> 00:32:47,539 y que integraría 613 00:32:47,539 --> 00:32:49,400 la sierra dentro de la capital. 614 00:32:49,799 --> 00:32:51,880 Se habrán descubierto nuevos sistemas planetarios. 615 00:32:59,369 --> 00:33:00,890 Ah, sí, Cindea de la Tauromaquia. 616 00:33:01,289 --> 00:33:03,250 Estaba Belmonte ahí, era uno de los que contestaban. 617 00:33:04,369 --> 00:33:05,089 Cindea de la Tauromaquia. 618 00:33:05,769 --> 00:33:07,210 40 millones de habitantes en España 619 00:33:07,210 --> 00:33:09,490 y el cine acabará con el teatro, ¿no? 620 00:33:09,490 --> 00:33:11,150 Ese es uno de los mantras habituales 621 00:33:11,150 --> 00:33:13,210 de Video Kill de Radio Star. 622 00:33:13,210 --> 00:33:14,890 El cine acabará con el teatro. 623 00:33:14,890 --> 00:33:17,269 han acertado bastante 624 00:33:17,269 --> 00:33:19,549 año 32, 70 años de antelación 625 00:33:19,549 --> 00:33:21,789 año 2000, ¿os atreveríais vosotros 626 00:33:21,789 --> 00:33:23,869 año 20, vamos a coger los mismos 70 años 627 00:33:23,869 --> 00:33:25,130 decir cómo será el mundo en el año 628 00:33:25,130 --> 00:33:26,910 2090? 629 00:33:29,130 --> 00:33:29,569 nada 630 00:33:29,569 --> 00:33:31,349 es absolutamente imposible 631 00:33:31,349 --> 00:33:33,210 esa es la aceleración 632 00:33:33,210 --> 00:33:34,750 de la que os hablo 633 00:33:34,750 --> 00:33:36,589 absolutamente imposible 634 00:33:36,589 --> 00:33:39,049 ¿qué es lo que nos vamos a encontrar a partir de ahora? 635 00:33:39,150 --> 00:33:41,170 fijaros, primero la inteligencia artificial 636 00:33:41,170 --> 00:33:43,329 la inteligencia artificial ya existe, ya está ahí 637 00:33:43,329 --> 00:33:57,569 La inteligencia artificial lo que tiene es, frente a los programas clásicos habituales que hemos podido utilizar con los ordenadores, es que son sistemas que aprenden por sí mismos. Alexa es inteligencia artificial. Alexa va aprendiendo de ti. 638 00:33:57,569 --> 00:34:07,029 Hoy viene en el país, muy interesante, Luz Sánchez Mellado, ¿la conocéis? La escritora, escribe en el país, en la contraportada del país, escribe una columna, ¿la habéis leído alguno hoy? 639 00:34:08,090 --> 00:34:22,690 Que estuvo en el ginecólogo el lunes y que al salir del ginecólogo empezaron a llegarle mensajes ofreciéndole productos femeninos, desde lubricantes, al salir del ginecólogo, incluso para su edad también. 640 00:34:22,690 --> 00:34:24,570 esos son sistemas que aprenden 641 00:34:24,570 --> 00:34:27,010 poco éticos, pero detrás hay un sistema 642 00:34:27,010 --> 00:34:29,070 que va reuniendo información y concluye 643 00:34:29,070 --> 00:34:30,429 y dice, esta persona 644 00:34:30,429 --> 00:34:34,070 ubicada en un ginecólogo 645 00:34:34,070 --> 00:34:35,630 con esta edad 646 00:34:35,630 --> 00:34:37,409 otra de las cosas que comparto yo hoy 647 00:34:37,409 --> 00:34:39,449 por ejemplo es que Spotify 648 00:34:39,449 --> 00:34:41,809 ha empezado a aplicar un algoritmo 649 00:34:41,809 --> 00:34:43,789 donde en función de la música que eliges 650 00:34:43,789 --> 00:34:45,110 sabe tu estado de humor 651 00:34:45,110 --> 00:34:46,250 sabe tu estado de ánimo 652 00:34:46,250 --> 00:34:49,429 y ese estado de ánimo se lo ofrece a empresas 653 00:34:49,429 --> 00:34:51,309 que te ofrecen cosas según tu estado de ánimo 654 00:34:51,309 --> 00:35:16,230 Si estás, luego os pongo, en serio, buscadme. Si tú estás en un momento de gran excitación con música, eres un consumista vulnerable, donde cualquier cosa que te ofrezcan la vas a comprar. Eso se lo vende Spotify. Por contra, si estás en un periodo yendo a música más melancólica o a tan cabos, mucho más complejo que lo estoy diciendo, pues te manda otro tipo de música. 655 00:35:16,230 --> 00:35:30,789 La inteligencia artificial son sistemas que aprenden. Os he preguntado antes por el futuro de vuestros trabajos. El trabajo que tiene más riesgo ahora mismo es el trabajo más extendido en el país. 656 00:35:30,789 --> 00:35:51,909 Trabajo especializado, trabajo repetitivo, trabajo basado en datos y trabajo con un sueldo tipo medio. Eso es lo que hacen los ordenadores, la inteligencia artificial. La inteligencia artificial hace trabajo especializado, trabajo repetitivo, predecible, maneja muchos datos, obedece ciegamente y no cobra. Eso lo hace la inteligencia artificial. 657 00:35:51,909 --> 00:36:07,769 Todas las personas que tienen un trabajo parecido al del lado izquierdo o se reinventan o desaparecerán profesionalmente. Serán lo que se llaman inempleables. Ahora, que no esperen a que la administración les dé la oportunidad de formarse. 658 00:36:07,769 --> 00:36:10,329 tendrán la oportunidad de acceder a formación pública 659 00:36:10,329 --> 00:36:11,510 claro que sí, y empresas 660 00:36:11,510 --> 00:36:13,769 pero el empuje lo tienen que dar ellos 661 00:36:13,769 --> 00:36:15,610 el estímulo inicial lo tienen que dar ellos 662 00:36:15,610 --> 00:36:17,789 estos son ejemplos de inteligencia artificial 663 00:36:17,789 --> 00:36:19,750 el ejemplo de Siri, por ejemplo 664 00:36:19,750 --> 00:36:21,889 Netflix cuando te ofrece 665 00:36:21,889 --> 00:36:24,090 películas y te dice según tú 666 00:36:24,090 --> 00:36:26,429 lo que has estado viendo que es lo que tienes que ver 667 00:36:26,429 --> 00:36:28,570 eso de abajo 668 00:36:28,570 --> 00:36:30,050 que es un burger o un McDonald's 669 00:36:30,050 --> 00:36:31,369 eso lo hacían personas antes 670 00:36:31,369 --> 00:36:34,570 ya no lo hacen y no han cerrado los McDonald's 671 00:36:34,570 --> 00:36:36,489 es más, seguramente sean más rentables 672 00:36:36,489 --> 00:36:44,050 Y los socios estarán frotando las manos, ¿no? Estos son algunos ejemplos, o los coches autónomos, ¿no? Que van aprendiendo. 673 00:36:44,510 --> 00:36:51,429 Después de la inteligencia artificial, viene, que ya se está también desarrollando, lo que se llama la computación cognitiva. 674 00:36:51,489 --> 00:37:00,010 Es el paso siguiente. Y hay un elemento muy claro que lo define. Fijaros, yo a Alexa le digo, Alexa, ¿qué tiempo va a hacer mañana en Madrid? 675 00:37:00,010 --> 00:37:17,369 Y Alexa me dice, Madrid mañana va a hacer sol 25 grados. La computación cognitiva te dice lo mismo sin que se lo preguntes. La computación cognitiva te dice, Antonio, abrígate que ya no hace el mismo tiempo que ayer. Ponte algo. Esa es la computación cognitiva. 676 00:37:17,369 --> 00:37:31,449 La diferencia entre la inteligencia artificial y la computación cognitiva es que la computación cognitiva crea sistemas que piensan como nosotros, son sistemas neurales, que piensan originalmente como nosotros pero que llegan a un modelo de pensamiento diferente. 677 00:37:31,449 --> 00:37:49,090 Mirando de la izquierda, es el juego del Go. Es considerado el juego más difícil del mundo. Es un juego chino, oriental, muy complicado y que hace 3-4 años un sistema se llama AlphaGo, jugó contra el campeón del mundo, que era un coreano. De 5 partidas, 4 las ganó la máquina. 678 00:37:49,090 --> 00:37:50,289 cuatro las ganó la máquina 679 00:37:50,289 --> 00:37:52,050 hubo un momento en la partida 680 00:37:52,050 --> 00:37:54,130 que es lo que se llama popularmente 681 00:37:54,130 --> 00:37:55,789 el movimiento 37 682 00:37:55,789 --> 00:37:58,489 el movimiento 37 estaban jugando 683 00:37:58,489 --> 00:38:00,530 los dos, había aprendido el ordenador 684 00:38:00,530 --> 00:38:02,550 el movimiento 37 fue un movimiento absurdo 685 00:38:02,550 --> 00:38:03,309 que hizo la máquina 686 00:38:03,309 --> 00:38:05,809 y que todos dijeron, ¿qué ha hecho? 687 00:38:05,969 --> 00:38:08,489 se ha vuelto loca, ¿cómo hace ese movimiento? 688 00:38:08,929 --> 00:38:10,289 el movimiento 37 ganó 689 00:38:10,289 --> 00:38:11,730 arrasó 690 00:38:11,730 --> 00:38:13,909 ¿por qué? porque pensó de otra manera 691 00:38:13,909 --> 00:38:14,949 diferente a las personas 692 00:38:14,949 --> 00:38:17,650 todos los expertos en Go estaban viendo la partida 693 00:38:17,650 --> 00:38:33,150 Pero ¿cómo hace ese movimiento? Ganó. Porque fue más allá de cómo vamos nosotros. Hoy los sistemas que juegan, los sistemas de ajedrez, los sistemas de inteligencia de ajedrez, hay un ejemplo reciente. 694 00:38:33,150 --> 00:38:43,090 ¿Os acordáis? Kasparov, año 97, que le ganó el Deep Blue, año 97, hace 3-4 años, un sistema similar, pero que jugaba al ajedrez. 695 00:38:43,730 --> 00:38:47,710 A las 10 de la mañana le introdujeron las normas de cómo se jugaba al ajedrez. 696 00:38:48,409 --> 00:38:53,869 4 horas después era un Master Chess. Estuvo 4 horas jugando partidas contra sí mismo y aprendiendo. 697 00:38:53,949 --> 00:39:02,090 Le pusieron a jugar contra Deep Blue. Echaron 100 partidas. De las 100 partidas ganó 70, 72, y hicieron tablas en 28. 698 00:39:02,090 --> 00:39:03,630 en cuatro horas 699 00:39:03,630 --> 00:39:05,369 aprendiendo simplemente 700 00:39:05,369 --> 00:39:06,269 esto es computación 701 00:39:06,269 --> 00:39:07,269 cognitiva 702 00:39:07,269 --> 00:39:23,750 la intuición se define 703 00:39:23,750 --> 00:39:24,190 de otra manera 704 00:39:24,190 --> 00:39:24,690 la intuición 705 00:39:24,690 --> 00:39:26,090 si quieres lo vemos después 706 00:39:26,090 --> 00:39:26,809 a lo mejor no me da tiempo 707 00:39:26,809 --> 00:39:28,369 para terminar la presentación 708 00:39:28,369 --> 00:39:29,469 vale, encantado 709 00:39:29,469 --> 00:39:30,530 de que lo veamos después 710 00:39:30,530 --> 00:39:32,730 pero hay una definición 711 00:39:32,730 --> 00:39:33,269 que dice que 712 00:39:33,269 --> 00:39:33,969 donde el pensamiento 713 00:39:33,969 --> 00:39:34,929 consciente no llega 714 00:39:34,929 --> 00:39:36,489 llega la intuición 715 00:39:36,489 --> 00:39:38,969 la intuición 716 00:39:38,969 --> 00:39:40,610 es una manera 717 00:39:40,610 --> 00:39:41,289 de procesar 718 00:39:41,289 --> 00:39:42,789 la información diferente 719 00:39:42,789 --> 00:39:46,010 a la habitual, a la forma consciente. 720 00:39:46,769 --> 00:39:48,690 Se llega por otras vías, pero bueno, lo vemos. 721 00:39:49,070 --> 00:39:50,110 Eso de ahí abajo es muy curioso. 722 00:39:50,429 --> 00:39:54,130 Facebook puso a hablar a dos sistemas de inteligencia artificial 723 00:39:54,130 --> 00:39:57,570 y en un momento dado empezaron a desarrollar un lenguaje propio 724 00:39:57,570 --> 00:40:00,989 que los programadores no entendían y optaron por desconectarles. 725 00:40:01,590 --> 00:40:03,869 No es que estuvieran planificando invadir la Tierra. 726 00:40:04,530 --> 00:40:07,650 Simplemente encontraron que nuestra manera de comunicarnos no es eficiente. 727 00:40:07,809 --> 00:40:10,929 Y los robots o toda la tecnología tiene un fin último, 728 00:40:11,309 --> 00:40:12,769 que es hacer las cosas más eficientes. 729 00:40:12,789 --> 00:40:14,590 más rápidas 730 00:40:14,590 --> 00:40:15,889 y más eficientes 731 00:40:15,889 --> 00:40:17,989 y los robots encontraron y dijeron 732 00:40:17,989 --> 00:40:20,849 ¿qué es esto de hablarnos con gramática 733 00:40:20,849 --> 00:40:22,849 o con sujeto, verbo y predicado? 734 00:40:23,210 --> 00:40:24,210 podemos hacerlo de otra manera 735 00:40:24,210 --> 00:40:25,730 y empezaron a crear su propio idioma 736 00:40:25,730 --> 00:40:28,269 el tercer elemento son cuatro, lo que está por venir 737 00:40:28,269 --> 00:40:30,849 el tercer punto 738 00:40:30,849 --> 00:40:32,849 es lo que es la integración 739 00:40:32,849 --> 00:40:33,670 del hombre y la máquina 740 00:40:33,670 --> 00:40:36,329 y esto es algo también que está ya funcionando 741 00:40:36,329 --> 00:40:37,510 lo que os contaba antes de Tetris 742 00:40:37,510 --> 00:40:39,949 fijaros a la derecha, lo que tengo puesto es 743 00:40:39,949 --> 00:40:42,710 la velocidad con la que nos podemos comunicar 744 00:40:42,710 --> 00:40:44,829 en el primer cuadro es de un humano a un humano 745 00:40:44,829 --> 00:40:46,570 yo con vosotros, es la velocidad 746 00:40:46,570 --> 00:40:48,289 a la que me comunico con vosotros 747 00:40:48,289 --> 00:40:50,710 el segundo cuadro es de un humano 748 00:40:50,710 --> 00:40:52,929 con un PC, que es a través de un teclado 749 00:40:52,929 --> 00:40:54,150 ¿no? es como escribo 750 00:40:54,150 --> 00:40:55,909 con el PC un teclado que es más lento 751 00:40:55,909 --> 00:40:58,710 un humano consigo mismo, lo que se llama el discurso 752 00:40:58,710 --> 00:41:00,269 interior, la conciencia 753 00:41:00,269 --> 00:41:02,349 cuando hablo conmigo mismo es mucho más rápido 754 00:41:02,349 --> 00:41:04,690 ¿no? mucho más rápido 755 00:41:04,690 --> 00:41:06,429 el otro es 756 00:41:06,429 --> 00:41:08,050 un PC con un humano 757 00:41:08,050 --> 00:41:10,170 el PC tiene que adoptar nuestras formas 758 00:41:10,170 --> 00:41:12,010 nuestro código para poder entender al PC 759 00:41:12,010 --> 00:41:14,050 y los dos últimos que se salen 760 00:41:14,050 --> 00:41:16,289 es un PC con otro PC 761 00:41:16,289 --> 00:41:17,630 y un PC consigo mismo 762 00:41:17,630 --> 00:41:19,949 un ordenador, un PC consigo mismo 763 00:41:19,949 --> 00:41:22,550 puesto es alcanzar ese punto de efectividad 764 00:41:22,550 --> 00:41:23,570 ese punto de eficacia 765 00:41:23,570 --> 00:41:24,889 realmente 766 00:41:24,889 --> 00:41:27,769 es en la integración 767 00:41:27,769 --> 00:41:30,489 o buscando 768 00:41:30,489 --> 00:41:32,190 el soporte en las máquinas 769 00:41:32,190 --> 00:41:33,309 en este caso de inteligencia artificial 770 00:41:33,309 --> 00:41:35,570 cómo podemos llegar a ser más eficaces 771 00:41:35,570 --> 00:41:36,650 os cuento algunos casos 772 00:41:36,650 --> 00:41:40,309 cuando Deep Blue ganó en el año 97 773 00:41:40,309 --> 00:41:41,590 a Kasparov, unos años después 774 00:41:41,590 --> 00:41:43,469 Kasparov creó un modelo de ajedrez que se llama 775 00:41:43,469 --> 00:41:45,570 el Advanced Chess. El Advanced Chess 776 00:41:45,570 --> 00:41:48,190 lo que hace es que trabajan conjuntamente 777 00:41:48,190 --> 00:41:49,750 las máquinas 778 00:41:49,750 --> 00:41:51,030 y las personas. 779 00:41:51,670 --> 00:41:53,630 Y cada uno aporta, en ese elemento 780 00:41:53,630 --> 00:41:55,489 cada uno aporta una parte suya propia. 781 00:41:58,110 --> 00:41:59,570 Esto existe. Es gente impedida 782 00:41:59,570 --> 00:42:01,590 que simplemente con un robot 783 00:42:01,590 --> 00:42:03,150 está en fase experimental todavía, 784 00:42:03,329 --> 00:42:05,230 piensa en un vaso de agua 785 00:42:05,230 --> 00:42:07,429 y el robot lee la información 786 00:42:07,429 --> 00:42:09,469 que quiere y coge el vaso de agua. 787 00:42:09,989 --> 00:42:11,369 Y esto último, esta es una 788 00:42:11,369 --> 00:42:13,030 investigadora de Facebook, que está 789 00:42:13,030 --> 00:42:15,349 estar ayudando a un sistema por el cual 790 00:42:15,349 --> 00:42:17,230 los usuarios de Facebook, 791 00:42:17,289 --> 00:42:18,730 yo no lo soy, puedan 792 00:42:18,730 --> 00:42:20,349 comunicarse a través del pensamiento. 793 00:42:20,809 --> 00:42:23,110 Simplemente pienses que quieres colgar en tu muro 794 00:42:23,110 --> 00:42:25,369 de Facebook, Facebook lo recoja 795 00:42:25,369 --> 00:42:27,449 y lo comunique 796 00:42:27,449 --> 00:42:29,050 a quien tú consideres. 797 00:42:30,489 --> 00:42:31,230 Esa es una investigación 798 00:42:31,230 --> 00:42:33,190 real de Facebook. 799 00:42:33,730 --> 00:42:34,409 Y por último, 800 00:42:35,150 --> 00:42:37,050 la última parte es el nuevo homínido. 801 00:42:37,610 --> 00:42:38,929 Es la próxima evolución. 802 00:42:39,070 --> 00:42:40,349 Este fin de semana leía un artículo, 803 00:42:40,989 --> 00:42:42,949 me encantó, Juan Luis Arzuagas, 804 00:42:42,949 --> 00:42:45,429 ¿Sabéis quién es? Es el antropólogo de Atapuerca. 805 00:42:45,869 --> 00:42:51,090 Valerio Arzuaga decía que realmente el cuerpo humano no tiene ningún valor. 806 00:42:51,289 --> 00:42:53,409 El valor que tenemos es el cerebro, es la inteligencia. 807 00:42:53,750 --> 00:42:55,210 El cuerpo es un soporte que tenemos. 808 00:42:55,829 --> 00:43:00,329 Y que podríamos llegar, si somos capaces de trasladar la inteligencia a otro soporte, 809 00:43:00,530 --> 00:43:03,489 puede ser mucho más eficaz que lo que tenemos ahora. 810 00:43:03,489 --> 00:43:09,510 De hecho, lo que decía Arzuaga es que el cuerpo humano ya está tocando techo. 811 00:43:09,829 --> 00:43:12,769 Que ya hay muy poco lugar a evolucionar más físicamente. 812 00:43:12,949 --> 00:43:16,090 físicamente, que hay poco lugar 813 00:43:16,090 --> 00:43:17,710 el nuevo homínido es lo que 814 00:43:17,710 --> 00:43:20,769 un autor que se llama Yuval Noah Harari 815 00:43:20,769 --> 00:43:22,550 bastante reconocido 816 00:43:22,550 --> 00:43:23,530 llama el homo deus 817 00:43:23,530 --> 00:43:25,429 el homo deus, por ejemplo 818 00:43:25,429 --> 00:43:28,670 otros llaman el homo digitalis 819 00:43:28,670 --> 00:43:30,809 pero el caso es que es una evolución del sapiens 820 00:43:30,809 --> 00:43:32,289 que es en el que nos encontramos 821 00:43:32,289 --> 00:43:34,010 en el que nos encontramos ahora 822 00:43:34,010 --> 00:43:35,389 fijaros, estos tres ejemplos 823 00:43:35,389 --> 00:43:38,030 son tres ejemplos que nos hicieron evolucionar a lo que hoy somos 824 00:43:38,030 --> 00:43:40,329 hay un autor, un antropólogo inglés 825 00:43:40,329 --> 00:43:41,929 se llama Richard Leakey 826 00:43:41,929 --> 00:43:49,750 Descubrió en su momento unos restos humanos muy famosos de hace dos millones y medio de años, se llama el niño de Turkana. 827 00:43:50,150 --> 00:43:55,929 Licky decía, los artefactos, las máquinas, hacen al hombre y el hombre hace los artefactos. 828 00:43:56,789 --> 00:44:01,789 Nosotros construimos inteligencia artificial, pero la inteligencia artificial nos modela a nosotros también. 829 00:44:01,789 --> 00:44:09,590 El hecho de que los monos, hace diez millones de años, empezaran a utilizar herramientas dio lugar a lo que hoy somos. 830 00:44:09,590 --> 00:44:12,070 porque la herramienta les facilitó la vida 831 00:44:12,070 --> 00:44:13,409 y les hizo evolucionar 832 00:44:13,409 --> 00:44:16,289 y es de alguna manera lo que está haciendo 833 00:44:16,289 --> 00:44:17,269 ahora mismo la 834 00:44:17,269 --> 00:44:18,889 tecnología 835 00:44:18,889 --> 00:44:22,030 son sistemas y esto 836 00:44:22,030 --> 00:44:23,750 que hoy es verdad que es ciencia ficción 837 00:44:23,750 --> 00:44:26,489 esto está cogido de una serie de televisión 838 00:44:26,489 --> 00:44:27,449 lo que hace es 839 00:44:27,449 --> 00:44:30,090 la programación 840 00:44:30,090 --> 00:44:32,309 de la mente humana para conseguir 841 00:44:32,309 --> 00:44:33,969 personas mucho más eficaces 842 00:44:33,969 --> 00:44:35,110 hay un elemento ahí moral 843 00:44:35,110 --> 00:44:37,250 muy grave 844 00:44:37,250 --> 00:44:39,989 y es que aquellos que tengan 845 00:44:39,989 --> 00:44:41,909 primero que detrás de esto hay empresas privadas 846 00:44:41,909 --> 00:44:44,130 que lo único que quieren es ganar dinero 847 00:44:44,130 --> 00:44:46,190 y que aquellos que pongan más dinero 848 00:44:46,190 --> 00:44:48,389 mejorarán 849 00:44:48,389 --> 00:44:49,809 neurológicamente 850 00:44:49,809 --> 00:44:50,829 más 851 00:44:50,829 --> 00:44:54,090 y antes que los que tengan menos dinero 852 00:44:54,090 --> 00:44:55,929 lo cual creará una 853 00:44:55,929 --> 00:44:58,150 falla social importante 854 00:44:58,150 --> 00:44:59,730 de ahí la necesidad de regular 855 00:44:59,730 --> 00:45:02,110 la necesidad de regular todos los avances 856 00:45:02,110 --> 00:45:04,550 tecnológicos, lo que ocurre es que lo estamos regulando a posteriori 857 00:45:04,550 --> 00:45:06,130 lo estamos regulando cuando nos 858 00:45:06,130 --> 00:45:10,889 encontramos las sentencias 859 00:45:10,889 --> 00:45:13,309 de odio, por ejemplo en España 860 00:45:13,309 --> 00:45:17,690 el delito de odio 861 00:45:17,690 --> 00:45:19,289 es algo que surge con las redes sociales 862 00:45:19,289 --> 00:45:22,869 el otro día, de hecho están con Vox 863 00:45:22,869 --> 00:45:25,670 con la sentencia de la manada 864 00:45:25,670 --> 00:45:27,329 dijo el juez 865 00:45:27,329 --> 00:45:31,969 eso surge con las redes sociales 866 00:45:31,969 --> 00:45:34,610 nadie se plantea un delito de odio hace 20 años 867 00:45:34,610 --> 00:45:36,829 y por último 868 00:45:36,829 --> 00:45:54,469 No, simplemente, de cara al futuro, recordad, los ordenadores hacen mejor que nosotros el trabajo especializado, hacen mejor que nosotros el trabajo repetitivo y predecible, trabajan mejor con datos porque usan muchos más datos que nosotros, obedecen ciegamente y no cobran y no descansan. 869 00:45:54,590 --> 00:46:06,510 Pero nosotros somos buenos cruzando cosas. Los grandes genios de la historia, los grandes genios de la humanidad eran multidisciplinarios. Pensad en Leonardo da Vinci. No era un pintor nada más. 870 00:46:06,829 --> 00:46:07,929 Era muchas más cosas. 871 00:46:08,329 --> 00:46:09,329 Newton, por ejemplo. 872 00:46:10,809 --> 00:46:13,210 Por otra parte, se nos da bien lo impredecible. 873 00:46:13,650 --> 00:46:16,489 Y ahí tiene mucho que ver la intuición en lo impredecible. 874 00:46:17,769 --> 00:46:18,989 Necesitamos emociones. 875 00:46:20,329 --> 00:46:22,289 Sabemos aplicar el pensamiento crítico. 876 00:46:23,170 --> 00:46:29,969 Sabemos aplicar sistemas para identificar lo que no es correcto mejor que las máquinas. 877 00:46:30,429 --> 00:46:33,349 Y lo más importante es que somos complementarios a los ordenadores. 878 00:46:33,349 --> 00:46:40,489 Nos necesitan ellos a nosotros y nosotros nos han creado la necesidad también. Y ya no hay marcha atrás. 879 00:46:41,489 --> 00:46:52,309 Y yo aquí propongo volver a los valores de la ilustración. La ilustración de finales del siglo XVIII, que desgraciadamente en España pasó de largo, 880 00:46:52,309 --> 00:46:55,130 porque nos cogió en una guerra primero 881 00:46:55,130 --> 00:46:59,030 y en una monarquía absolutista 882 00:46:59,030 --> 00:47:00,710 absolutamente casposa 883 00:47:00,710 --> 00:47:03,670 los valores de la ilustración 884 00:47:03,670 --> 00:47:05,550 que son el progreso y la ciencia 885 00:47:05,550 --> 00:47:08,570 y claro que tenemos que abrazar el progreso y la ciencia 886 00:47:08,570 --> 00:47:12,389 pero nunca olvidar los otros dos elementos de la ilustración 887 00:47:12,389 --> 00:47:14,409 la razón y el humanismo 888 00:47:14,409 --> 00:47:16,010 y nada más 889 00:47:16,010 --> 00:47:17,530 muchas gracias