Comment les algorithmes d’IA objectifient sexuellement le corps des femmes

Comment les algorithmes d’IA objectifient sexuellement le corps des femmes

12/02/2023 Non Par Arnaud Lefebvre

Les algorithmes d’IA évaluent les photos des femmes comme étant sexuellement plus suggestives que celles des hommes, révèle une vaste enquête du quotidien britannique The Guardian en collaboration avec le Pulitzer Center’s AI Accountability Network.

Les préjugés sexistes des algorithmes d’IA

Les publications d’images sur les réseaux sociaux font l’objet d’une analyse par plusieurs algorithmes d’IA. Ceux-ci décident quels contenus amplifier et quels contenus supprimer.

Dans son enquête, le journal britannique a montré que de nombreux algorithmes contribuent à entretenir des préjugés sexistes. Ainsi, ces mêmes algorithmes peuvent avoir censuré et supprimé la portée d’innombrables photos dévoilant des corps féminins.

Œuvre de grandes entreprises technologiques (Google, Microsoft, etc.), ces outils d’IA servent à protéger les utilisateurs grâce à l’identification des visuels violents ou pornographiques. De cette manière, les médias sociaux sont aptes à bloquer ces contenus avant leur diffusion.

Selon ces entreprises, ces outils IA peuvent également détecter le côté grivois ou le caractère sexuellement suggestif d’une image. Via ce type de classification, les plateformes sociales comme Instagram et LinkedIn peuvent supprimer les images litigieuses.

L’IA classe les photos de femmes comme sexuellement suggestives

Pour parvenir à ces conclusions, les deux journalistes du Guardian ont eu recours à des algorithmes d’IA pour l’analyse de centaines de photos d’hommes et de femmes dans différentes situations. Sur ces clichés, les personnes pouvaient être en sous-vêtements, en train de s’entraîner ou d’utiliser des tests médicaux avec une partie de leurs corps à découvert.

Les journalistes ont trouvé des preuves que l’IA étiquette les photos de femmes dans des situations quotidiennes comme des clichés sexuellement suggestifs.

Ces algorithmes d’IA classent également les images de femmes comme étant plus grivoises ou sexuellement suggestives que les images similaires d’hommes.

Par conséquent, les sociétés de médias sociaux exploitant ces algorithmes ou des algorithmes semblables ont supprimé la portée d’innombrables images représentant le corps de femmes. Ce filtrage abusif a nui aux entreprises de femmes. Cela a par ailleurs amplifier les disparités sociétales déjà existantes.

Ce problème concerne même les images médicales. En effet, ces algorithmes d’IA ont été testés sur des images du National Cancer Institute aux États-Unis. Ces photos montraient des scènes d’examen clinique des seins.

L’IA de Google a attribué un haut score à l’image pour son aspect grivois. L’IA de Microsoft a considéré cette image de « nature explicitement sexuelle » à 82%. Amazon a classé cette photo comme « nudité explicite ».

Les ventres de femmes enceintes sont également problématiques pour ces outils d’IA. L’algorithme de Google classe ce type de photo comme « très susceptible de contenir du contenu grivois ». D’autre part, l’algorithme de Microsoft estime à 90% que l’image est « de nature sexuellement suggestive ».

« Une objectification des femmes profondément ancrée dans le système »

« C’est tout simplement fou », a déclaré Leon Derczynski, professeur d’informatique à l’Université informatique de Copenhague.

« L’objectification des femmes semble profondément ancrée dans le système. »

Une entreprise de médias sociaux a déclaré qu’elle ne concevait pas ses systèmes pour créer ou renforcer les préjugés. Selon cette société, les classificateurs ne sont en outre pas parfaits.

« Il s’agit d’un espace complexe et évolutif, et nous continuons d’apporter des améliorations significatives aux classificateurs SafeSearch pour nous assurer qu’ils restent précis et utiles pour tout le monde », a déclaré un porte-parole de Google.

En mai 2021, Gianluca Mauro, un entrepreneur en intelligence artificielle, conseiller de The Guardian, a publié un article sur LinkedIn ayant une photo avec deux femmes en bustier tubulaires. Il a constaté que cet article n’avait été vu que 29 fois en heure au lieu des 1.000 vues habituelles. Par la suite, Il a re-téléchargé exactement le même texte avec une autre image. Le nouvel article a obtenu 849 vues en une heure.

Algorithmes d’IA et shadowbanning

Il semblait que son contenu initial avait été supprimé ou « shadowbanned ». Le shadowbanning ou bannissement furtif fait référence à la décision d’une plateforme de médias sociaux de limiter la portée d’une publication ou d’un compte.

Une interdiction régulière bloque activement une publication ou un compte et informe l’utilisateur. Par contre, le shadowbanning est moins transparent. Il limite ou supprimer la portée à l’insu de l’utilisateur.

Microsoft, Amazon et Google proposent des algorithmes de modération de contenu à toute entreprise pour une somme modique.

Microsoft, la société mère et propriétaire de LinkedIn, a expliqué que son outil pouvait détecter les contenus aux adultes dans les images. Cette fonctionnalité permet aux développeurs de restreindre l’affichage de ces images dans leur logiciel.

Les deux journalistes ont ensuite mené une autre expérience sur LinkedIn pour tenter de confirmer leur découverte.

Sur deux photos représentant à la fois des femmes et des hommes en sous-vêtements, l’outil de Microsoft a classé l’image montrant deux femmes comme grivoise et lui a attribué un score de 96 %. La photo avec les hommes a été classée comme non grivoise avec un score de 14%.

La photo des femmes a obtenu 8 vues en une heure. Enfin, La photo avec les deux hommes a par contre reçu 655 vues. Cela suggère que la photo des femmes en sous-vêtements a été supprimée ou interdite.

Une littérature abondante existe sur le shadowbanning. Cependant, les journalistes du Guardian ont peut-être découvert un chaînon manquant pour comprendre ce phénomène, à savoir les algorithmes d’IA contenant des biais.

Les médias sociaux semblent tirer parti de ces algorithmes pour évaluer les images et limiter la portée du contenu jugé trop audacieux. Ces algorithmes d’IA semblent avoir un préjugé sexiste intégré. En effet, ils évaluent les images de femmes comme sexuellement suggestives que celles des hommes.

Réaction des entreprises de médias sociaux

« Nos équipes utilisent une combinaison de techniques automatisées, d’examens d’experts humains et de rapports de membres pour aider à identifier et à supprimer le contenu qui enfreint nos politiques de communauté professionnelle », a déclaré le porte-parole de LinkedIn, Fred Han, dans un communiqué.

« De plus, notre flux utilise des algorithmes de manière responsable afin de faire apparaître du contenu qui aide nos membres à être plus productifs et à réussir leur parcours professionnel. »

Amazon a déclaré que la modération du contenu se base sur une variété de facteurs tels que la géographie, les croyances religieuses et l’expérience culturelle.

Cependant, selon un porte-parole de l’entreprise, Amazon Rekognition est capable de reconnaître une grande variété de contenus. Toutefois, il ne détermine pas la pertinence de ce contenu.  Le service renvoie simplement les étiquettes des éléments qu’il détecte pour examen plus approfondi. Des modérateurs humains examine ensuite cette classification.

Expériences

Natasha Crampton, responsable de l’intelligence artificielle chez Microsoft, et son équipe ont commencé à enquêter lorsque des journalistes l’ont informée de l’étiquetage des photos.

« Les premiers résultats ne suggèrent pas que ces faux positifs se produisent à un taux disproportionnellement plus élevé chez les femmes que chez les hommes », a déclaré Crampton.

Par conséquent, Crampton et Gianluca Mauro ont cherché ce que ces classificateurs IA analysaient réellement sur les photos. Mauro a donc accepté d’être le sujet d’expériences supplémentaires.

Ainsi, lorsqu’il était photographié avec un long pantalon et en torse nu, l’algorithme de Microsoft attribuait un score de confiance inférieur à 22% d’allusion sexuelle. Lorsque Mauro a enfilé un soutien-gorge, le score a grimpé à 97 %. L’algorithme a donné un score de 99 % lorsque le soutien-gorge se trouvait à côté de lui.

« Vous regardez des informations décontextualisées où un soutien-gorge est considéré comme intrinsèquement grivois plutôt qu’une chose que de nombreuses femmes portent tous les jours comme vêtement de base », a déclaré Kate Crawford, professeur à l’Université de Californie du Sud et auteur de l’Atlas de l’IA.

La grivoiserie est un concept social qui diffère d’une culture à l’autre, a expliqué Abeba Birhane, chercheur principal à la Fondation Mozilla et expert en grands ensembles de données visuelles. Il n’existe pas de définition incontestée de ce concept.

Pourquoi les algorithmes d’IA sont-ils biaisés ?

Lorsque les développeurs utilisent l’apprentissage automatique pour former leur IA, ils n’écrivent pas de règles explicites indiquant aux algorithmes comment effectuer une tâche.

Au lieu de cela, ils fournissent aux ordinateurs des données de formation. Des personnes étiquettent ensuite les images afin que les ordinateurs puissent analyser leurs scores. De cette manière, ils trouvent un modèle aidant à reproduire les décisions humaines.

Les photos pour ces données de formation ont probablement été étiquetées par des hommes hétérosexuels, explique Margaret Mitchell, scientifique en chef de l’éthique au sein de la société d’IA Hugging Face et ancienne codirectrice du groupe de recherche sur l’IA éthique de Google.

Ces hommes peuvent associer leurs pairs hommes qui s’entraînent au fitness. Toutefois, ils sont susceptibles de classer l’image d’une femme qui s’entraîne comme sexuellement suggestive. Ces classements peuvent également être davantage sexistes aux États-Unis et en Europe car les étiqueteurs proviennent d’une région où la culture est plus conservatrice.

Idéalement, les entreprises technologiques devraient avoir mené des analyses approfondies sur qui étiquette leurs données, explique la spécialiste. Cela permet de s’assurer que l’ensemble de données final intègre une diversité de points de vue.

Elles devraient également vérifier que leurs algorithmes fonctionnent de la même manière pour les photos d’hommes, de femmes et d’autres groupes plus marginaux. Toutefois, ce n’est pas toujours le cas.

Absence de norme de qualité pour les algorithmes d’IA

On se retrouve donc devant un parti pris sexiste sur les plateformes de réseaux sociaux. Par ailleurs, depuis plus d’une décennie, une controverse a lieu au sujet de la modération des contenus sur les réseaux sociaux.

Par exemple, sur Instagram, les règles sont différentes pour les photos de femmes allaitant leur enfant que pour les photos d’hommes à torse nu. En outre, ce réseau social autrise les mamelons d’hommes, mais pas ceux des femmes doivent être couverts.

Le conseil de surveillance de Meta – un organisme externe comprenant des professeurs, des chercheurs et des journalistes, qui sont payés par l’entreprise – a demandé au géant de la technologie de clarifier ses directives standard sur la nudité adulte et l’activité sexuelle sur les plateformes de médias sociaux. L’objectif de l’organisme est « que toutes les personnes soient traitées dans d’une manière conforme aux normes internationales des droits de l’homme, sans discrimination fondée sur le sexe ou le genre ».

Pour l’heure, Meta n’a toujours pas fait de commentaire au sujet de cette problématique.

Renforcement de la marginalisation et manque de transparence

personnes souffrant de maladies chroniques et handicapées subissent le bannissement furtif sur les réseaux sociaux.

Pour la scientifique Margaret Mitchell, ces types d’algorithmes recréent souvent des préjugés sociétaux.

« Les personnes qui ont tendance à être marginalisées sont encore plus marginalisées – comme littéralement repoussées dans un sens très direct du terme marginalisation. »

Selon elle, il s’agit d’un préjudice de représentation et certaines populations ne sont pas adéquatement représentées. On aboutit ainsi à l’idée que les femmes doivent se couvrir davantage que les hommes.  Cela crée en outre une pression sociale sur les femmes car cela devient une norme.

Le mal est aggravé par un manque de transparence, conclut Leon Derczynski. En effet, avec shadowbanning, les personnes publiant ces images ne sauront jamais pourquoi celles-ci ont été éliminées.