« Le risque de discrimination de l’IA est plus grand que celui d’extinction de l’humanité »

« Le risque de discrimination de l’IA est plus grand que celui d’extinction de l’humanité »

14/06/2023 Non Par Arnaud Lefebvre

Selon Margrethe Vestager, la vice-présidente de la Commission européenne, la menace d’extinction de l’humanité liée à l’IA est peu probable. Toutefois, des garde-fous sont nécessaires pour faire face aux principaux risques de cette technologie, a-t-elle déclaré dans une interview accordée à la BBC.

Le risque existentiel de l’IA est peu probable

Lors d’une séance plénière, le Parlement européen a aujourd’hui adopté le projet d’encadrement de l’IA proposé par l’exécutif européen.

Margrethe Vestager, la Commissaire à la concurrence a profité de l’occasion pour faire quelques déclarations à la BBC. Selon elle, la discrimination est une plus grande menace posée par l’IA que le risque d’extinction probable de la race humaine.

Bien que le risque existentiel représenté par les progrès de l’IA puisse être une préoccupation, il est peu probable. Par contre, le risque de discrimination de cette technologie doit être prix au sérieux.

Pour Vestager, des garde-fous sont nécessaires pour contrer les périls majeurs de l’IA. Il est nécessaire de les implémenter y compris dans des situations où l’IA est utilisée pour des décisions affectant les moyens de subsistance telles que les demandes de prêts hypothécaires ou l’accessibilité aux services sociaux.

« Le risque d’extinction peut exister, mais je pense que la probabilité est assez faible. Je pense que les risques liés à l’IA concernent davantage la discrimination des personnes », a-t-elle déclaré.

Par exemple, les personnes devront s’assurer qu’elles ne sont pas discriminées lorsqu’elles ont recours à une banque utilisant l’IA pour décider si elles peuvent ou non obtenir un prêt hypothécaire. Il peut également s’agir de services sociaux d’une municipalité. Dans pareils contextes, il faudra veiller à ne pas être discriminé en raison de son sexe, de sa couleur de peau ou de son code postal, a expliqué la vice-présidente de la Commission européenne.

Risques de discrimination et désinformation

Les régulateurs craignent que les outils d’IA ne produisent des résultats qui désavantagent certains groupes. En effet, ceux-ci pourraient ne pas être représentés de manière précise ou équitable dans les ensembles de données sur lesquels ils sont formés et testés.

Les craintes de Vestager font écho à certains experts en technologie. Ces derniers affirment que les craintes liées aux risques existentiels posés par l’IA dissimulent des menaces plus immédiates telles que la désinformation alimentée par celle-ci.

La Commissaire à la concurrence a en outre déclaré que les appels à un moratoire sur le développement de l’IA, soutenus par Elon Musk et d’autres personnalités, étaient inapplicables.

La réglementation de l’IA devait être une « affaire mondiale », a déclaré Vestager. Toutefois, selon elle, une approche de type ONU serait difficile à appliquer. Rishi Sunak, le Premier ministre britannique, a convoqué cet automne un sommet mondial sur la sécurité de l’IA pour les « pays partageant les mêmes idées ». Par ailleurs, des dirigeants d’entreprises technologiques mondiales tels que le directeur général de Google, Sundar Pichai, et Elon Musk ont incité plusieurs des cadres mondiaux à réglementer la technologie.

« Commençons à travailler sur une approche onusienne. Mais nous ne devrions pas retenir notre souffle », a déclaré Vestager. « Nous devrions faire ce que nous pouvons ici et maintenant. »

Réglementation de l’IA

L’UE travaille élabore actuellement une législation visant à superviser le développement des systèmes d’IA. Cette législation regroupe la technologie de l’IA en quatre types de risque :

  • risque inacceptable ;
  • risque élevé;
  • risque limité;
  • et un risque minimal.

Les systèmes d’IA supervisant les cotes de crédit et les services publics essentiels entrent dans la catégorie à haut risque.

Les déclarations de Vestager ont lieu alors que la Commission irlandaise pour la protection des données (Data Protection Commission – DPC) a empêché Google de lancer son chatbot Bard dans l’UE pour des raisons de confidentialité.

Le DPC, le principal régulateur européen de Google, a déclaré qu’il n’avait pas reçu suffisamment d’informations sur la manière dont les outils seraient conformes au règlement général sur la protection des données de l’UE.

Google avait l’intention de lancer Bard en Europe cette semaine, des mois après la sortie mondiale du chatbot. Cela ne sera finalement pas le cas. Le DPC « n’a pas reçu de briefing détaillé ni d’évaluation d’impact sur la protection des données ou de documentation à l’appui à ce stade », a déclaré le sous-commissaire Graham Doyle à Politico dans une interview.

Un conflit similaire s’est produit récemment, lorsque le régulateur italien a ordonné au développeur ChatGPT, OpenAI, de suspendre ses opérations dans le pays en raison de problèmes de protection des données.

L’autorité italienne de protection des données a déclaré qu’il ne semblait y avoir aucune base légale sous-tendant la collecte et le traitement massifs de données personnelles pour la formation des algorithmes sur lesquels la plateforme s’appuie. OpenAI a finalement réussi à convaincre le régulateur italien qu’il était en règles. La société a donc relancé ses services dans le pays avec des changements limités.