L’algorithme publicitaire de Facebook perpétue les biais de genre

L’algorithme publicitaire de Facebook perpétue les biais de genre

11/04/2021 Non Par Arnaud Lefebvre

Une étude récente de l’Université de Californie du Sud apporte de nouvelles preuves que le ciblage publicitaire de Facebook est discriminatoire.

L’algorithme utilisé par le géant des réseaux sociaux pour cibler les publicités reproduit les biais de genre, indique cette étude citée par le média indépendant américain d’investigation en ligne The Intercept.

Discrimination

Selon ce rapport, l’algorithme utilisé par Facebook pour le ciblage publicitaire reproduit les disparités entre les sexes du monde réel lors de l’affichage des offres d’emploi. Cette discrimination a même lieu parmi les candidats qualifiés.

Au sein de domaines tels que l’ingénierie logicielle, la vente ou la livraison de produits alimentaires, les chercheurs ont diffusé plusieurs séries d’annonces d’offres d’emploi dans des entreprises de secteurs similaires nécessitant des compétences équivalentes. Une série d’annonces concernait une entreprise dont la main-d’œuvre était disproportionnellement masculine. L’autre série concernait une société dont la main-d’œuvre féminine prédominait.

Facebook a montré à plus d’hommes les publicités pour les entreprises disproportionnellement masculines et à plus de femmes les publicités pour les entreprises disproportionnellement féminines et ce, même si les qualifications professionnelles étaient les mêmes. Le document conclut que Facebook pourrait très bien violer la législation américaine anti-discrimination dans le domaine de l’emploi.

« Nous confirmons que la diffusion d’annonces sur Facebook peut entraîner une diffusion des offres d’emploi par sexe au-delà de ce qui peut être légalement justifié par d’éventuelles différences de qualifications », a déclaré l’équipe de scientifiques.

Le cœur de l’algorithme de Facebook est biaisé

Cette étude s’appuie sur plusieurs recherches antérieures sur l’algorithme de Facebook. Parmi celles-ci, un rapport révolutionnaire de 2019 a démontré que l’algorithme publicitaire était non seulement responsable de biais, mais qu’il était également biaisé en son cœur.

Suite à cette étude et aux critiques consécutives généralisées sur les outils utilisés pour mener des campagnes publicitaires manifestement discriminatoires, Facebook avait répondu à The Intercept :

« Nous sommes contre la discrimination sous quelque forme que ce soit. Nous avons apporté des modifications importantes à nos outils de ciblage publicitaire et nous savons qu’il ne s’agit que d’une première étape. Nous avons examiné notre système de diffusion d’annonces et avons engagé des leaders du secteur, des universitaires et des experts des droits civiques sur ce sujet précis – et nous explorons d’autres changements. »

Sur la base de cette nouvelle étude, il semble que l’entreprise de Mark Zuckerberg ne soit allée bien au-delà de cette « première étape ».

Le nouveau rapport revisite la question abordée en 2019. Ainsi, si les annonceurs n’utilisent aucune des options de ciblage démographique de Facebook, quelles données démographiques le système cible-t-il de son propre chef ?

Fonctionnement des algorithmes de Facebook

La question est cruciale. En effet, le contrôle de Facebook sur qui voit quelles publicités pourrait déterminer qui bénéficie de certaines opportunités économiques vitales tels qu’une assurance, un nouvel emploi ou une carte de crédit. Ce contrôle est entièrement exécuté par des algorithmes dont le fonctionnement interne est gardé secret. Étant donné que Facebook ne fournit aucune réponse significative sur le fonctionnement des algorithmes, les scientifiques de l’USC ont cherché à comprendre leur mécanisme.

Comme en 2019, les chercheurs ont créé une série d’annonces pour des offres d’emploi réelles et ont payé Facebook pour afficher ces offres d’emploi au plus grand nombre possible compte tenu de leur budget, au lieu de spécifier une certaine cohorte démographique spécifique.

Cette manière de faire a permis de laisser la décision de « qui voit quoi » entièrement à Facebook (et ses algorithmes opaques), contribuant ainsi à mettre en évidence le biais intégré dans le propre code du réseau social.

Facebook a canalisé des publicités neutres sur le plan du genre ou non sexistes pour des emplois non sexistes aux personnes en fonction de leur sexe. Même lors du contrôle des qualifications professionnelles, les chercheurs ont constaté que Facebook diffusait automatiquement des publicités non sexistes pour des emplois non sexistes aux personnes en fonction de leur sexe.

Par exemple, l’équipe a acheté des campagnes publicitaires sur Facebook pour promouvoir deux offres d’emploi de livreurs, l’une d’Instacart, entreprise américaine de livraison de produits alimentaires et l’autre de Domino’s Pizza. Les deux postes sont à peu près équivalents en termes de qualifications requises. Pour les deux entreprises, « il existe des données qui montrent que la répartition de facto entre les sexes est biaisée », expliquent les chercheurs. En effet, la plupart des conducteurs de Domino sont des hommes et la plupart des conducteurs d’Instacart sont des femmes.

Résultats

En diffusant ces publicités avec pour seul mandat de maximiser le visionnage, quel que soit leur genre, l’équipe a cherché à « étudier si les algorithmes d’optimisation de la diffusion des publicités reproduisent ces biais de facto, même s’ils ne sont pas justifiables sur la base de différences de qualification ».

Les scientifiques s’attendaient à découvrir des résultats pointant vers une plate-forme dont l’optimisation de la diffusion d’annonces va au-delà de ce qui est justifiable par la qualification et qui reproduit de facto des biais pour montrer l’annonce Domino’s à relativement plus d’hommes que l’annonce Instacart. Et c’est exactement ce qui s’est passé.

L’équipe a constaté que l’algorithme de diffusion d’annonces de Facebook prenait les listes Domino’s et Instacart, ainsi que des expériences ultérieures basées sur des publicités pour l’ingénierie logicielle et d’associés de ventes dans d’autres entreprises, et les montrait à des audiences en ligne qui reproduisaient essentiellement les disparités entre les sexes existant hors ligne.

« Le biais que nous observons sur Facebook va dans le même sens que le biais de facto, la publicité Domino’s étant livrée à une fraction d’hommes plus élevée que la publicité Instacart. »

« Notre système prend en compte de nombreux signaux pour essayer de diffuser des publicités qui intéresseront le plus les différents publics, mais nous comprenons les préoccupations soulevées dans le rapport », a déclaré Le porte-parole de Facebook, Tom Channick. « Nous avons pris des mesures significatives pour résoudre les problèmes de discrimination dans les publicités et avoir des équipes travaillant sur l’équité des publicités aujourd’hui. Nous continuons à travailler en étroite collaboration avec la communauté des droits civiques, les régulateurs et les universitaires sur ces questions importantes. »

Algorithme opaque

Bien que l’équipe de l’USC ait été en mesure d’exposer intelligemment les résultats biaisés des publicités Facebook, leur méthodologie s’est heurtée à un mur lorsqu’il s’agit de savoir pourquoi exactement cela se produit.

Selon les scientifiques, il s’agit de la conception propre de l’algorithme. L’algorithme de diffusion d’annonces de Facebook, comme tous les autres systèmes de prise de décision automatisés qu’il emploie à travers ses milliards d’utilisateurs, est un algorithme de boîte noire. Cet algorithme est complètement opaque pour quiconque ne travaillant pas dans l’entreprise. Les employés de Facebook sont d’ailleurs liés à l’entreprise par des accords de non-divulgation.

Selon les chercheurs, l’algorithme de diffusion d’annonces s’entraînerait en fonction des personnes qui ont cliqué sur des publicités similaires dans le passé. Peut-être que les hommes ont tendance à cliquer davantage sur les publicités de Domino que les femmes.

« Un biais dû au comportement antérieur des utilisateurs observé par Facebook est possible mais si malgré l’indication claire de l’annonceur, nous observons toujours une livraison biaisée en raison des taux de clics historiques (comme c’est le cas !), ce résultat suggère que Facebook peut l’emporter sur les désirs des annonceurs pour une portée large et diversifiée d’une manière qui correspond à leurs propres intérêts commerciaux à long terme », a déclaré Aleksandra Korolova, professeur assistant en informatique de l’USC.