“L’IA n’est ni intelligente ni artificielle”

“L’IA n’est ni intelligente ni artificielle”

08/06/2021 Non Par Arnaud Lefebvre

Telle est la conclusion de Kate Crawford, co-fondatrice de l’Institut AI, un centre recherche sur les implications sociales de l’intelligence artificielle (IA), lors d’une interview accordée au quotidien britannique The Guardian.

Professeure spécialisée en communication et études scientifiques et technologiques à l’Université de Californie du Sud, elle travaille également en tant que chercheuse à Microsoft.

Elle vient de publier un nouvel ouvrage intitulé en anglais « The Atlas of AI » dans lequel elle examine le champ de l’intelligence artificielle et ses enjeux.

 

Ouvrage critique

Son nouveau livre « The Atlas of AI » aborde l’intelligence artificielle de manière critique. Cela pourrait surprendre car Crawford travaille pour une entreprise qui fait partie des leaders dans le déploiement de cette technologie.

Cependant, elle explique que son travail a lieu dans l’aile de recherche de Microsoft, une organisation distincte de celle du développement des produits. Pendant ses 30 ans d’existence, la firme a engagé des experts en sciences sociales afin d’étudier de manière critique la façon dont les technologies sont mises en œuvre, précise-t-elle.

« En interne, nous pouvons souvent déterminer les problèmes avant que les systèmes ne fassent l’objet d’un déploiement plus large. Mon livre n’a pas été révisé avant la publication. Ce type de révision n’est pas une exigence de Microsoft. Et les responsables de mon labo acceptent les questions difficiles et ce, même si les réponses impliquent que l’on évalue de manière critique les pratiques technologiques actuelles. »

 

L’IA est déployée dans une multitude de secteurs sans débat démocratique

Crawford explique que l’IA est couramment présentée comme abstraite et immatérielle. Dans son ouvrage, elle a souhaité montrer comment l’IA est faite dans un sens plus large. Elle s’est donc intéressée à ses coûts en ressources naturelles, à ses processus de travail et à ses logiques de classification.

La chercheuse s’est rendue dans plusieurs endroits comme des mines afin de voir l’extraction nécessaire de la croûte terrestre pour le déploiement de l’IA. Elle est également allée dans un centre de distribution d’Amazon afin d’observer la contribution physique et psychologique des travailleurs placés sous un système de gestion algorithmique.

La chercheuse déclare qu’elle espère qu’en mettant à nu les structures de production et les réalités de l’IA, le monde pourra se rendre compte plus précisément de ses impacts. Selon elle, ces systèmes font l’objet d’un déploiement dans une kyrielle de secteurs sans pour autant bénéficier de réglementations fortes, de consentement ou de débat démocratique.

 

Fabrication des produits IA

Les systèmes d’intelligence artificielle ont des coûts environnementaux, précise la chercheuse. D’une part, selon elle, nous avons encore beaucoup de chemin à faire afin que cette technologie ne devienne verte. D’autre part, on pense souvent que tous ces systèmes sont automatisés. Mais, le dessous des cartes montre que de nombreux travailleurs mal-payés sont présents pour les activer.

Pour Crawford, l’intelligence artificielle n’est ni intelligente ni artificielle. Sa fabrication est issue de ressources naturelles. Une main-d’œuvre effectue les tâches pour que les systèmes apparaissent autonomes.

 

Problèmes de biais

Depuis un certain, la technologie de l’IA est sous le feu des critiques à cause des biais présents à sa base. Selon la chercheuse, biais est en réalité un terme trop restreint pour évoquer ce type de problèmes. Se procurer et étudier davantage de données n’est pas la solution selon elle.

Lorsque l’on observe les logiques profondes de classification de l’IA, on commence à percevoir des formes de discrimination, non seulement dans l’application de ces systèmes, mais également dans leur construction et formation pour voir le monde. Crawford estime ainsi que la politique de classification est ancrée au sein des substrats de l’IA.

Lorsqu’elle évoque la controverse suscitée par les biais présents dans ImageNet, Crawford explique que les termes de classification utilisés dans cet ensemble de données d’image de référence populaire, sont bien souvent horribles. Avec son équipe, ils découvert, lors de l’analyse d’ImageNet, des associations d’images et de mots tels que kleptomane, alcoolique, mauvaise personne, reine du placard, call-girl, salope, toxicomane et bien d’autres termes que la scientifique n’a pas voulu évoquer lors de l’interview.

Crawford précise qu’ils ont pu étudier ImageNet car cette base est publique. Toutefois, il existe d’énormes ensembles de données de formation détenus par des entreprises technologiques totalement secrets.

 

IA et reconnaissance des émotions

Lorsqu’on lui demande si l’IA doit être utilisée pour la reconnaissance des émotions, Crawford répond que l’idée selon laquelle on peut déterminer le ressenti de quelqu’un en fonction de son visage est profondément erronée.

Elle pense que ce n’est pas possible et explique que l’ensemble des systèmes de reconnaissance des émotions se base actuellement sur un courant psychologique développé dans les années 1970 par Paul Ekman. Selon cette ligne de pensée, il existe six émotions universelles pouvant être observées sur nos visages. Toutefois, des travaux plus récents ont montré qu’il n’y avait pas de corrélation fiable entre les expressions faciales et ce que nous ressentons, précise la scientifique.

 

Éthique et pouvoir de l’IA

Crawford pense qu’une réglementation éthique de l’IA est nécessaire, mais pas suffisante. Selon elle, il faut davantage se concentrer sur son pouvoir. Il faut se demander à qui un système d’IA peut profiter, mais également à qui il peut nuire.

« Ce que nous observons souvent, de la reconnaissance faciale au traçage et à la surveillance sur le lieu de travail, c’est que ces systèmes opèrent un renforcement des institutions déjà puissantes telles que la police, les militaires et les entreprises. »

Des régimes réglementaires beaucoup plus strictes sont nécessaires, ainsi qu’une rigueur et une responsabilité plus importantes dans la construction des ensembles de données de formation, conclut la chercheuse.

Dans un entretien accordé à la BBC en 2019, Crawford avait déjà plaidé pour l’instauration de règles plus stricte pour restreindre l’usage des technologies de détection des émotions.