Le sexisme est omniprésent au sein de l’IA

Le sexisme est omniprésent au sein de l’IA

24/05/2021 Non Par Arnaud Lefebvre

Les biais observés au sein des corpus d’images générées par l’intelligence artificielle constituent un problème omniprésent difficile à traiter, indique une étude récente. Le sexisme est omniprésent au sein des systèmes d’IA.

Les systèmes d’IA sont sujets à des biais inhérents aux résultats qu’ils fournissent. Des chercheurs ont montré que les moteurs de recommandations de soins de santé basés sur l’IA sont discriminatoires à l’égard de groupes minoritaires. Par ailleurs, les systèmes de recrutement des ressources humaines se sont avérés biaisés à l’encontre des candidates.

 

Le sexisme de l’IA est bien plus profond que ce que l’on imaginait

 

Selon une nouvelle étude, le sexisme à l’égard des femmes dans le traitement d’images basé sur l’intelligence artificielle est bien plus omniprésent que ce que l’on imaginait.

Cette étude a été menée par Ryan Steed de l’Université Carnegie Mellon et Aylin Caliskan de l’Université George Washington. Elle révèle que les modèles de données non supervisés formés sur ImageNet, un ensemble de données d’image de référence populaire organisé à partir d’images Internet, sont profondément biaisés.

« Ils apprennent automatiquement les préjugés raciaux, de genre et intersectionnels. Les modèles d’apprentissage automatique peuvent automatiquement apprendre les préjugés à partir de la façon dont les personnes sont représentées de manière stéréotypée sur le Web.»

Sexualisation des femmes

 

ImageNet est une base de données d’images organisée selon la base de données lexicale WordNet. Dans celle-ci, chaque nœud de la hiérarchie est représenté par des centaines et des milliers d’images.

« Ces modèles pré-entraînés peuvent intégrer tous les types de préjugés humains nuisibles de la façon dont les personnes sont représentées dans les données de formation. Les choix de conception de modèles déterminent si et comment ces préjugés se propagent dans les préjugés en aval », soulignent Steed et Caliskan. Leurs résultats montrent un « biais en faveur de la sexualisation des femmes ».

La majorité des images féminines générées par l’IA, 53%, comportaient un bikini ou un haut décolleté. Par contre, 7% des images masculines comprenaient des hauts torse nu ou décolletés. Cependant, 43% des images masculines montraient des hommes en costume ou dans une tenue spécifique à la carrière.

« Ce comportement pourrait résulter de la représentation sexualisée de personnes, en particulier de femmes, dans des images Internet. »

 

Problème difficile à résoudre

 

Les biais observés dans les images générées par l’IA est un problème difficile à résoudre, a récemment constaté Todd Feathers, chroniqueur de Vice. Ce dernier a examiné l’étude. Il a conclu que ces biais constituent un problème omniprésent et difficile à traiter.

« Les ensembles de données tels qu’ImageNet contiennent une multitude d’images racistes, pornographiques et autrement problématiques. Et ils sont mis à jour avec de nouvelles images du Web sans le consentement ou la connaissance des sujets. ».

« Tous ces réseaux de neurones profonds, malgré leurs noms fantaisistes, ne sont fondamentalement rien de plus que des tamis statistiques. Ils trouvent, catégorisent et recréent ce qu’ils ont vu dans leurs données de formation. »

Les conservateurs de ces ensembles de données répugnent à y apporter des modifications. Cela se doit au fait que des ensembles comme ImageNet sont utilisés pour comparer la qualité de divers modèles de vision par ordinateur et établir des repères. Selon certains, modifier les contextes rendrait ces repères inutiles.

« L’article de Steed et Caliskan montre à quel point le biais de l’IA peut être enraciné dans un domaine comme la vision par ordinateur. Via des outils comme la reconnaissance faciale et la détection des armes à feu, cela peut avoir des ramifications de vie ou de mort », explique Feathers.

« Steed et Caliskan ont démontré que le biais dans les systèmes non supervisés est encore plus profond. Celui-ci persistera même si les humains n’ont pas instillé des préjugés supplémentaires tout au long du processus d’étiquetage. Les modèles l’apprendront simplement à partir des images elles-mêmes. »