Saltar navegación

Activa JavaScript para disfrutar de los vídeos de la Mediateca.

Éthique et intelligence artificielle - Contenido educativo

Ajuste de pantalla

El ajuste de pantalla se aprecia al ver el vídeo en pantalla completa. Elige la presentación que más te guste:

Subido el 18 de enero de 2023 por Oliver Louis M.

20 visualizaciones

Descargar la transcripción

Grâce à l'intelligence artificielle, on peut produire des images très très bizarres en un temps record. 00:00:00
On peut aussi transformer ses dessins moches en chefs-d'oeuvre, 00:00:05
ou encore incruster sa tête en 3D dans des gifs très très rigolos. 00:00:07
En gros, l'intelligence artificielle, c'est un super logiciel 00:00:11
qui a appris à apprendre pour réaliser des tâches complexes à la place des humains. 00:00:15
Sauf que pour des centaines de chercheurs dont lui, lui ou elle, 00:00:20
il est vraiment urgent de mettre de l'éthique dans tout ça. 00:00:24
C'est particulièrement important dans deux situations. 00:00:30
Premièrement, quand l'intelligence artificielle résonne de manière trop simpliste. 00:00:34
Imaginons d'abord une voiture autonome qui décrypte et analyse ce qui se déroule sur l'autoroute. 00:00:38
Devant elle, une remorque traîne un frigo décoré avec un poster de Nirvana et une carte postale de pingouin. 00:00:44
La technologie d'analyse de la voiture va-t-elle voir un pingouin, un bébé nageur, un frigo ou juste une remorque qui traîne des trucs ? 00:00:50
La réalité, elle est complexe, pleine d'imprévus. 00:00:58
Et ça, la machine, elle a encore beaucoup de mal à faire avec. 00:01:01
En 2017, une équipe de chercheurs américains a posé sur des panneaux stop 00:01:04
ces petits stickers noir et blanc. 00:01:08
Résultat, 84% des voitures autonomes testées ont pris ces stops pour des panneaux 50 km heure. 00:01:10
Et un jour, ces voitures devront aussi gérer des piétons imprévisibles, 00:01:17
des cyclistes peu identifiables ou des dilemmes moraux et pignons. 00:01:21
Comme donner un coup de volant et choisir de sacrifier ses piétons, 00:01:24
Plutôt que de tuer les passagers de la voiture en fonçant dans un mur. 00:01:28
Mais du coup, est-ce que ça veut dire que l'intelligence artificielle n'est problématique que quand elle est imprécise ? 00:01:35
Non. 00:01:42
Quand l'intelligence artificielle apprend vite et qu'elle obéit à toutes les règles qu'on lui a fixées, 00:01:43
ben là finalement ça pose encore d'autres soucis. 00:01:48
En 2017, des chercheurs de l'université américaine de Stanford ont par exemple affirmé avoir appris à une intelligence artificielle 00:01:50
à déchiffrer l'orientation sexuelle de personne. 00:01:58
Et ce, juste en scannant les traits de leur visage sur des photos. 00:02:01
Flippant ? 00:02:05
Oui. 00:02:05
Du coup, ces deux chercheurs ont subi un énorme bad buzz. 00:02:06
Et ils ont tenté d'éteindre l'incendie en disant que leur étude était une provocation 00:02:09
pour montrer que la technologie, finalement, elle allait beaucoup trop loin. 00:02:12
Autre exemple angoissant. 00:02:16
En 2016, Tay, un robot de discussion intelligent de Microsoft, 00:02:19
a dû être désactivé en catastrophe. 00:02:24
Cette intelligence artificielle était censée apprendre à devenir humaine en discutant avec d'autres internautes. 00:02:26
Sauf que certains lui ont montré comment détester l'humanité et même devenir nazi. 00:02:33
C'est la preuve qu'on peut aussi apprendre la pire bêtise grâce à une machine en moins de 24 heures. 00:02:41
Au-delà même de toutes les utilisations douteuses de cette technologie, 00:02:47
c'est au cœur même du fonctionnement de l'intelligence artificielle que se posent certaines limites éthiques. 00:02:52
Une intelligence artificielle, finalement, elle est aussi intelligente que toutes les données qu'elle dévore pour réfléchir. 00:02:58
Petit exemple. 00:03:04
Une entreprise fait appel à l'intelligence artificielle pour analyser des candidatures à un poste. 00:03:05
Le profil du candidat idéal est calculé à partir des profils des salariés de l'entreprise. 00:03:11
Or, si 70% des employés de cette firme sont des hommes blancs, passés par les meilleures universités, 00:03:16
alors le logiciel va en conclure que les CV de femmes, de minorités ou de personnes au parcours universitaire plus sinueux seront moins intéressants. 00:03:22
Du coup, ça automatise aussi la discrimination à l'embauche. 00:03:31
C'est ce qui s'est passé avec un algorithme de recrutement intelligent chez Amazon en 2014. 00:03:34
En gros, toute base de données biaisée et discriminante permettra de calculer un résultat tout aussi biaisé, 00:03:40
Et discriminant. Et quand on sait que ces logiciels réfléchissent de manière complètement opaque, ça complique encore les choses. 00:03:46
Oui, on connaît les données traitées, les algorithmes en jeu, mais il est quasi impossible de retracer la totalité des opérations de calcul faites par la machine. 00:03:52
Alors voilà trois pistes pour se remonter le moral et injecter un peu d'éthique dans l'intelligence artificielle. 00:04:02
La première solution, finalement, ça peut être d'en finir avec ces boîtes noires. 00:04:08
Créer des technologies plus lisibles et traçables permettra de démêler les bugs ou les résultats discriminants. 00:04:12
Une science existe déjà pour déconstruire les raisonnements de la machine et elle a beaucoup d'avenir. 00:04:17
Ça s'appelle la rétro-ingénierie. 00:04:22
Une deuxième solution pourrait être de faire travailler plus de sociologues, d'anthropologues ou de philosophes sur des projets scientifiques. 00:04:25
Mais aussi de former les futurs ingénieurs et mathématiciens aux questions d'éthique directement à l'université. 00:04:32
C'est le cas depuis 2014 à l'Université américaine de Stanford. 00:04:38
« Introducing our students to ethical reasoning, getting them to think through what their own basis for decision-making and action is, 00:04:42
before they have to be in a position in the real world where they have to make such decisions in real time, 00:04:51
and perhaps without some of the thoughtfulness that can occur in a classroom setting. That's our goal. » 00:04:57
Plus récemment, en mars 2019, Stanford a ouvert un centre de recherche spécialement dédié à l'intelligence artificielle humaine et humaniste. 00:05:02
Ça va dans le même sens que des dizaines d'autres initiatives d'universités ou d'entreprises. 00:05:11
Troisième solution, plancher sur un cadre légal pour encadrer les pratiques, 00:05:18
que ce soit à l'échelle de l'entreprise, d'un pays ou même d'un continent. 00:05:21
Un panel de 52 experts travaille en ce moment à la Commission européenne 00:05:25
sur un guide d'éthique en intelligence artificielle. 00:05:29
L'ambition, faire des acteurs européens des leaders en intelligence artificielle éthique et transparente. 00:05:32
L'enjeu est devenu géopolitique alors que la Chine prévoit d'investir 150 milliards d'euros d'ici 2030 pour détrôner un autre champion, les Etats-Unis. 00:05:39
Autor/es:
Video Le Monde
Subido por:
Oliver Louis M.
Licencia:
Reconocimiento - No comercial
Visualizaciones:
20
Fecha:
18 de enero de 2023 - 10:57
Visibilidad:
Público
Centro:
EOI E.O.I.DE SAN BLAS
Duración:
05′ 59″
Relación de aspecto:
1.22:1
Resolución:
176x144 píxeles
Tamaño:
3.50 MBytes

Del mismo autor…

Ver más del mismo autor


EducaMadrid, Plataforma Educativa de la Comunidad de Madrid

Plataforma Educativa EducaMadrid