Coronavirus : Facebook lutte contre la désinformation à l’aide de l’intelligence artificielle

Coronavirus : Facebook lutte contre la désinformation à l’aide de l’intelligence artificielle

12/05/2020 Non Par Arnaud Lefebvre

Facebook utilise l’intelligence artificielle pour lutter contre la désinformation au sujet de la pandémie de coronavirus. En début de semaine, le réseau social a publié un nouveau rapport dans lequel il détaille son recours à une combinaison d’intelligence artificielle et de fact-checkers humains (vérificateurs de faits) afin de faire respecter l’application de ses normes communautaires.

Ce document intitulé « Community Standards Enforcement Report » comprend généralement les données et les résultats des analyses de Facebook durant les trois mois précédant la publication. Cette fois-ci, le rapport se focalise sur le rôle de l’intelligence artificielle face à la désinformation.

On y a apprend que Facebook s’appuie davantage sur cette technologie pour la modération de sa plate-forme pendant la pandémie de COVID-19.

Des avertissements sur 50 millions de messages liés au coronavirus

Le rapport de Facebook contient de nouvelles informations sur la manière dont la société utilise l’IA pour lutter contre la désinformation liée au coronavirus et à d’autres formes d’abus.

« Au cours du mois d’avril, nous avons mis des étiquettes d’avertissement sur environ 50 millions de messages liés à COVID-19 sur Facebook. Ces avertissements se basent sur environ 7.500 articles de nos partenaires indépendants de vérification des faits », a déclaré la société dans un article rédigé par un groupe de ses chercheurs et d’ingénieurs en logiciels.

« Depuis le 1er mars, nous avons supprimé plus de 2,5 millions de contenus concernant la vente de masques, de désinfectants pour les mains, de lingettes désinfectantes pour les surfaces et de kits de test COVID-19. Mais ce sont des défis difficiles et nos outils sont loin d’être parfaits. De plus, la nature contradictoire de ces défis signifie que le travail n’est jamais totalement terminé. »

Selon Facebook, les étiquettes d’avertissement fonctionnent. Ainsi, dans 95% des cas, une personne avertie qu’un contenu comprend des informations erronées décidera de ne pas oublier ce contenu.

Toutefois, s’attaquer à ces contenus via des étiquettes d’avertissement sur une plate-forme aussi vaste que Facebook constitue un véritable défi.

Le réseau s’est rendu compte qu’une partie importante de la désinformation et des discours de haine est maintenant diffusée sous forme d’images et de vidéos et pas seulement via des liens de texte ou d’article.

« Nous avons constaté qu’un pourcentage substantiel de discours de haine sur Facebook se produit dans le monde sous forme de photos ou de vidéos », explique la société. « Comme pour tout autre contenu, le discours de haine peut également être multimodal: un mème peut utiliser une combinaison de texte et d’images pour attaquer un groupe particulier de personnes. »

Double défi pour l’intelligence artificielle

Cette caractéristique multimodale est un défi pour l’intelligence artificielle, reconnaît la société. D’une part, les modèles formés à l’IA ont plus de mal à analyser une image, un mème ou une vidéo en raison de complexités telles que les jeu de mots et les différences de langage. Ce logiciel doit également être formé pour dénicher des doublons ou uniquement des versions légèrement modifiées de ce contenu au fur et à mesure qu’il se propage.

Facebook affirme atteindre cet objectif via SimSearchNet, un système capable de former un modèle d’IA à reconnaître à la fois les copies de l’image d’origine et celles qui sont des doubles et qui peuvent avoir juste un mot de texte modifié.

« Une fois que les vérificateurs des faits indépendants ont déterminé qu’une image contient des allégations trompeuses ou fausses sur le coronavirus, SimSearchNet, dans le cadre de notre système d’indexation et de correspondance d’images de bout en bout, est capable de reconnaître les correspondances presque doubles afin que nous puissions appliquer des étiquettes d’avertissement. »

L’objectif est de contribuer à réduire la propagation des images en double tout en ne marquant pas par inadvertance les publications authentiques ou celles qui ne sont pas de la désinformation. Un modèle d’intelligence artificielle qui sait faire la différence et peut étiqueter une publication en tant que désinformation et l’autre comme authentique est un pas en avant significatif, surtout quand il peut ensuite faire de même pour tout contenu en double ou presque en double sans inclure des images non offensantes au cours du le processus.

« Il est extrêmement important que ces systèmes de similitude soient aussi précis que possible, car une erreur peut faire en sorte que l’on agit sur un contenu qui ne viole pas réellement nos politiques », explique la société.

« C’est un point particulièrement important car pour chaque élément de vérification des faits de désinformation identifié, il peut y avoir des milliers ou des millions d’exemplaires. L’utilisation de l’IA pour détecter ces correspondances permet également à nos partenaires de vérification des faits de se concentrer sur la détection de nouvelles instances de désinformation plutôt que sur des variations presque identiques de contenu qu’ils ont déjà vu. »

Discours de haine

Facebook a également amélioré sa modération des discours de haine en utilisant les mêmes techniques que pour les contenus liés aux coronavirus. L’IA de Facebook détecte désormais de manière proactive 88,8% du contenu des discours de haine, contre 80,2% au trimestre précédent. Au premier trimestre 2020, le réseau social a pris des mesures concernant 9,6 millions d’éléments de contenu ayant enfreint sa politique sur les discours de haine, soit une augmentation de 3,9 millions.

Facebook est en mesure de s’appuyer davantage sur l’IA. Cela se doit à certaines avancées dans la façon dont ses modèles d’apprentissage comprennent et analysent le texte tant dans les publications et les liens qui l’accompagnent que dans les images et les vidéos.

« Les personnes qui partagent un discours de haine essaient souvent d’échapper à la détection en modifiant leur contenu. Ce type de comportement contradictoire comprend les fautes d’orthographe intentionnelles, l’évitement de certaines phrases ainsi que la modification d’images et de vidéos », a expliqué la société. “Il est crucial de bien faire les choses. La classification erronée du contenu comme discours de haine peut signifier que nous empêchons les personnes de s’exprimer et de s’engager avec les autres. »

Réseau de neurones versus mèmes haineux

Facebook affirme que ses nouvelles avancées – en particulier, un réseau de neurones appelé XLM-R – aident ses systèmes de modération automatisés à mieux comprendre le texte dans plusieurs langues.

Toutefois, les mèmes se révèlent être un mécanisme de diffusion résilient et difficile à détecter en tant que discours de haine, même avec des outils améliorés. Le réseau social a donc construit un ensemble de données dédié aux « mèmes haineux » contenant 10.000 exemples, où la signification de l’image ne peut être pleinement comprise qu’en traitant à la fois l’image et le texte et en comprenant la relation entre les deux.

Enfin, Facebook a fourni l’ensemble de ces données à des chercheurs afin d’améliorer les techniques de détection de ce type de discours de haine en ligne. Le réseau a également lancé un défi avec un prix de 100.000 dollars pour les ingénieurs capables de créer des modèles, formés sur l’ensemble de données, qui peuvent analyser avec succès ces formes de discours plus subtiles.