Cinquième-pouvoir.fr

Pourquoi la technologie de reconnaissance d’émotions doit être régie par la loi

Unsplash/Proxyclick

La reconnaissance d’émotions est une nouvelle technologie intelligente censée détecter l’état émotionnel sous-jacent d’une personne. Récemment, l’Institut AI Now, centre de recherche étudiant les implications sociales de l’intelligence artificielle, a plaidé pour l’instauration de nouvelles lois afin de restreindre l’usage des technologies de détection des émotions.

Selon AI Now, le domaine de la reconnaissance d’émotions repose sur des fondations très fragiles.

Technologie controversée

Les systèmes de reconnaissance d’émotions disponibles sur le marché seraient capables de détecter les signes de tromperie chez les criminels, de fixer le prix des assurances ou de déterminer l’enthousiasme des candidats lors d’un entretien d’embauche. Actuellement, ce secteur connaît une période de croissance significative. Son chiffre d’affaires atteindrait jusqu’à 20 milliards de dollars.

« Ces algorithmes seraient capables de lire nos états émotionnels intérieurs en interprétant les micro-expressions sur notre visage, le ton de notre voix ou même la façon dont nous marchons », explique la cofondatrice d’AI Now, la professeure Kate Crawford. « Toutefois, un nombre important d’études montrent qu’il n’existe aucune preuve de relation cohérente entre l’émotion des personnes et l’apparence de leur visage. »

En effet, la croyance selon laquelle nous pouvons aisément déduire le ressenti des personnes en fonction de l’aspect de leur visage fait l’objet d’une controverse. Plusieurs scientifiques estiment qu’il n’y a pas de justification scientifique permettant d’affirmer que ce type de relation existe.

« Les entreprises peuvent dire ce qu’elles veulent, mais les données sont claires », avait expliqué, il y a quelques mois, à The Verge Lisa Feldman Barrett, professeur de psychologie à la Northeastern University. « Il est possible de détecter un air renfrogné, mais ce n’est pas la même chose que détecter la colère. »

Selon une étude de l’Association for Psychological Science, en moyenne, les personnes ont un air renfrogné dans seulement 30% des cas lorsqu’elles sont en colère. Les froncements de sourcils ne sont donc pas l’expression de la colère. Il s’agit d’une expression de colère parmi tant d’autres. En d’autres termes, dans plus de 70% des cas, les personnes n’ont pas un air renfrogné lorsqu’elles sont en colère.

Ample variabilité d’émotions

Une partie du problème se doit au fait que certaines entreprises proposent des logiciels de reconnaissance d’émotions dont le fonctionnement repose sur les travaux du psychologue américain Paul Eckman. Dans les années 1960, ce dernier a déterminé qu’il n’y avait que six émotions de base exprimées via les expressions faciales.

Toutefois, des études ont démontré, plus tard, que la variabilité des émotions était plus ample, à la fois en termes de nombre d’états émotions et de manières dont les personnes expriment leurs émotions. Le panel d’émotions varie d’une culture à l’autre, d’un contexte à l’autre, parfois dans une même journée.

Le contexte est essentiel

Certaines entreprises, actives dans le secteur de la reconnaissance d’émotions, vantent les mérites de cette technologie sur le plan de la prévention du crime. La détection d’émotions telles que la colère, le stress ou l’anxiété fournit aux services répressifs des données supplémentaires lors d’enquêtes.

« En fin de compte, cette technologie fait du monde un endroit plus sûr », a indiqué Lee Reiber, directeur des opérations d’Oxygen Forensics, une société qui développe un logiciel de détection d’émotions pour la police.

La reconnaissance d’émotions aide aussi les entreprises à choisir les candidats en éliminant les biais humains lors des processus de recrutement.

Cependant, avant que la détection des émotions puisse prendre des décisions automatisées, le secteur a besoin de davantage de preuves que les machines peuvent en fait détecter efficacement et constamment les émotions humaines.

« Ce qui peut être fait aujourd’hui, c’est évaluer les comportements lors de certaines émotions et fournir cette intelligence à un humain pour l’aider à prendre une décision plus éclairée. A l’avenir, tous les praticiens et leaders du domaine doivent collaborer, rechercher et développer des solutions qui offrent une compréhension commune plus profonde qui mènera éventuellement à des relations plus connectées les unes avec les autres – non pas en dépit de la technologie, mais en fonction de celle-ci », a expliqué un responsable de Cogito, société qui développe des algorithmes d’analyse vocale pour le personnel des centres d’appels.

Les systèmes d’IA actuels peuvent reconnaître différentes expressions faciales, mais il n’est pas simple de déduire l’état émotionnel sous-jacent du sujet. Le contexte dans lequel l’expression émotionnelle a lieu doit être pris en compte. Une personne peut froncer les sourcils non pas parce qu’elle est en colère mais parce qu’elle se concentre ou que le soleil brille.

« Le contexte est essentiel, et c’est ce que vous ne pouvez pas obtenir simplement en visionnant la cartographie de la vision par ordinateur du visage », a déclaré Charles Nduka, co-fondateur d’Emteq, une entreprise qui tente d’intégrer une technologie de détection d’émotions dans des casques de réalité virtuelle.

Selon Nduka, la technologie de reconnaissance d’émotions doit faire l’objet d’une réglementation.

L’intelligence artificielle et la loi

Aux Etats-Unis, l’Etat d’Illinois s’apprête à appliquer, dès le 1er janvier 2020, la Video Interview Act, une loi selon laquelle un employeur est obligé d’avertir par écrit un candidat lorsqu’il a recourt à l’intelligence artificielle lors d’un entretien d’embauche. Le demandeur d’emploi peut en outre exiger une fiche d’information sur la manière dont l’IA est utilisée. L’employeur ne peut pas utiliser l’analyse de l’IA sans le consentement du candidat.

L’Illinois souhaite également instaurer une loi en rapport avec l’utilisation de la reconnaissance d’émotions. Le représentant de l’État de l’Illinois, Jaime Andrade, qui a rédigé la loi sur l’IA, s’est dit particulièrement préoccupé par l’utilisation de cette technologie. Pour la création de cette loi, les législateurs des États américains peuvent se tourner vers l’Europe et son Règlement général sur la protection des données (RGDP), conclut le site ABC7.

Quitter la version mobile