1 00:00:01,389 --> 00:00:07,710 Hoy, Día Internacional de la Mujer, vamos a explorar cómo se nos discrimina a través de los datos. 2 00:00:09,769 --> 00:00:20,609 Kriti Sharma apareció en 2018 en una conferencia TED para denunciar las conductas sexistas y racistas de los algoritmos existentes en la inteligencia artificial. 3 00:00:20,609 --> 00:00:24,269 But AI isn't just being used to make decisions 4 00:00:24,269 --> 00:00:26,789 about what products we want to buy 5 00:00:26,789 --> 00:00:29,449 or which show we want to binge-watch next. 6 00:00:30,710 --> 00:00:35,369 I wonder how you'd feel about someone who thought things like this. 7 00:00:36,210 --> 00:00:40,710 A black or Latino person is less likely than a white person 8 00:00:40,710 --> 00:00:42,329 to pay off their loan on time. 9 00:00:43,429 --> 00:00:46,390 A person called John makes a better programmer 10 00:00:46,390 --> 00:00:47,789 than a person called Mary. 11 00:00:47,789 --> 00:00:54,250 Un hombre negro es más probable de ser un ofendedor de batalla que un hombre blanco. 12 00:00:57,100 --> 00:01:01,740 Probablemente estéis pensando, ¡guau!, eso suena como una persona sexista y racista, ¿verdad? 13 00:01:02,840 --> 00:01:07,299 Estas son algunas decisiones reales que la AI ha hecho muy recientemente 14 00:01:07,299 --> 00:01:11,640 basadas en los biases que ha aprendido de nosotros, de los humanos. 15 00:01:12,780 --> 00:01:17,859 Aún peor, Joy Bolanwini se quedó horrorizada cuando detectó 16 00:01:17,859 --> 00:01:22,900 que los programas estándar de reconocimiento facial solo funcionaban con pieles pálidas. 17 00:01:41,230 --> 00:01:50,629 Netflix convirtió su historia a un documental. La inteligencia artificial se entrena y aprende 18 00:01:50,629 --> 00:01:56,069 con los datos que le damos. No funciona cuando le damos datos que no reflejan la realidad. 19 00:01:57,409 --> 00:02:04,650 La atención personal se está sesgando en función de la edad de la gente. Según la OE, los ensayos 20 00:02:04,650 --> 00:02:11,490 clínicos no tienen en cuenta de forma adecuada a las mujeres. Y Amazon, el gigante de la gestión 21 00:02:11,490 --> 00:02:19,210 de los datos, usaba un algoritmo de contratación que discriminaba a las mujeres. ¿Y ahora qué? 22 00:02:19,210 --> 00:02:25,729 Ahora puedes hacer muchas cosas. En primer lugar, ser consciente de que existen estas discriminaciones. 23 00:02:26,349 --> 00:02:31,550 También, no olvidar que hace falta presión social para poder poner coto a estos abusos. 24 00:02:32,129 --> 00:02:35,789 Existen múltiples iniciativas de mujeres promocionando al colectivo. 25 00:02:36,530 --> 00:02:45,229 Por ejemplo, el WIDS Women in Data Science va a ocurrir en Madrid el próximo mes de junio. 26 00:02:45,229 --> 00:02:52,669 Anímate y ve. Tú puedes hacer la diferencia. ¿Qué vas a aportar?