L’intelligence artificielle, raciste et sexiste ?

Capture d’écran 2017-05-13 à 16.30.55.png

Certains programmes informatiques reproduisent les stéréotypes humains, montre une nouvelle étude. Pas forcément étonnant mais potentiellement dangereux, compte tenu des responsabilités que l’on compte leur donner.

Les androïdes rêvent-ils de moutons noirs expulsés par des moutons blancs ?

Avec leurs capacités de raisonnement froides, basées sur des calculs complexes, on imagine les intelligences artificielles dénuées de tout préjugé. C’est tout le contraire selon une étude parue dans la revue Science (voir le doi). Les auteurs ont démontré que certains types de programmes informatiques d’intelligence artificielle (IA) reproduisent des stéréotypes racistes ou sexistes existant dans le langage. Des résultats qui interpellent, alors qu’on nous promet une implication croissante des machines dans les prises de décision, du classement de photos de vacances à la conduite de voitures autonomes.

Sans possibilité de comprendre le raisonnement des machines qui l’utilisent, le « deep learning » reste une boîte noire.

Aylin Caliskan et son équipe de l’université Princeton ont eu recours à un programme nommé GloVe, une intelligence artificielle effectuant le test dit d’association implicite. Mis au point en 1998 dans le cadre d’études en psychologie, celui-ci évalue le degré d’association d’idées ou de concepts en mesurant le temps mis par une personne à former des paires de mots qu’elle estime semblables. Plus il est court, plus l’association est forte. Ainsi, si une personne associe plus rapidement le mot «bon» avec une «personne jeune» plutôt qu’avec une «personne âgée», ceci trahit une tendance à avoir des attitudes plus positives envers les jeunes qu’envers les vieux.

840 milliards de mots

En lieu et place d’un cobaye humain, c’est donc GloVe qui s’est prêté au jeu d’association d’idées. Ce programme est une IA basée sur le «machine learning», c’est-à-dire capable d’apprendre, à partir de nombreux exemples, à classer des informations selon des critères exigés par un humain. C’est sur ce type d’apprentissage que reposent notamment les algorithmes de reconnaissance d’images utilisés par Facebook ou Google. Pour entraîner GloVe, Aylin Caliskan l’a donc «nourri» avec un gigantesque corpus de 840 milliards de mots issus du Web (http://commoncrawl.org/), en 40 langues différentes. Ses réponses laissent songeur. Comme un être humain, le programme a associé des noms de fleurs à des connotations positives, tandis que des noms d’insectes, par exemple, ont été catégorisés plutôt négativement.

Mais ces biais plutôt innocents ont été reproduits ailleurs, et de manière problématique. Des prénoms féminins ont ainsi été plus généralement mis de pair avec des termes liés à la famille (mère, mariage…) tandis que les prénoms masculins ont fini classés avec des mots liés à la carrière (profession, salaire…) De même, des noms à consonance européenne étaient plus volontiers classés positivement que ceux à consonance africaine. Les machines intelligentes naîtraient-elles donc sexistes et racistes?

Miroir du comportement humain

«Ces résultats ne me surprennent pas du tout, s’amuse Claude Touzet, spécialiste de l’apprentissage tant biologique qu’artificiel au Laboratoire de neurosciences intégratives et adaptatives de l’université d’Aix-Marseille. Les machines capables d’apprentissage sont un miroir du comportement humain. En les nourrissant avec un discours humain forcément biaisé, il est naturel qu’elles le reproduisent». «Si les données que l’on fournit à la méthode d’apprentissage sont biaisées, alors la machine apprend ces biais», enchérit Sébastien Konieczny, du Centre de recherche en informatique de Lens.

Capture d’écran 2017-05-13 à 16.36.07.png

Les machines capables d’apprentissage sont un miroir du comportement humain.

L’étude rappelle un épisode malheureux vécu l’an passé par Microsoft. Après avoir mis en ligne sur Twitter une IA censée s’abreuver des conversations humaines, le géant de l’informatique avait dû lui couper le sifflet en catastrophe après que celle-ci, baptisée Tay, ne proférait plus que des abominations racistes et négationnistes, au bout de seulement quelques heures.

Source : Science DOI: 10.1126/science.aal4230 via un article paru dans Le Temps

Illustrations : captures d’écran du film « Le procès » (The Trial, 1962) d’Orson Welles d’après l’oeuvre de Franz Kafka avec Antony Perkins

 

Laisser un commentaire

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l'aide de votre compte WordPress.com. Déconnexion / Changer )

Image Twitter

Vous commentez à l'aide de votre compte Twitter. Déconnexion / Changer )

Photo Facebook

Vous commentez à l'aide de votre compte Facebook. Déconnexion / Changer )

Photo Google+

Vous commentez à l'aide de votre compte Google+. Déconnexion / Changer )

Connexion à %s