Une nouvelle IA plus puissante menace le projet de loi de l’UE sur l’intelligence artificielle

Une nouvelle IA plus puissante menace le projet de loi de l’UE sur l’intelligence artificielle

26/12/2021 Non Par Arnaud Lefebvre

Un nouveau type d’intelligence artificielle plus puissante pourrait rendre obsolète l’« Artificial Intelligence Act », le projet de loi de l’UE sur l’intelligence artificielle, présenté en avril dernier, ont récemment expliqué plusieurs universitaires.

Les modèles de base ultrapuissants d’intelligence artificielle, adaptables à toute une gamme de tâches, risquent d’infecter tous les autres systèmes d’IA avec des failles de sécurité et des biais. Ces modèles de fondation de l’IA sont en outre opaques.  Le projet de loi de l’UE pourrait ne pas être à la hauteur de cette menace, ont mis en garde les scientifiques.

La législation sur l’intelligence artificielle deviendra vite obsolète

Le projet de loi de l’UE ne prend pas en compte l’essor récent d’un nouveau type d’IA ultrapuissante. La législation deviendra rapidement obsolète à mesure que la technologie se développe de manière innovante et inattendue.

Actuellement, les plus grandes entreprises technologiques du monde forment des modèles de base d’IA à l’aide de gigantesques volumes de données. Ces modèles sont en passe de devenir l’infrastructure principale sur laquelle reposent d’autres applications.

Toutes les utilisations reposant sur ces modèles de base hériteront de leurs déficits. Ces modèles pourraient incorporer de façon irréversible des failles de sécurité, une opacité et des biais dans l’IA.

Récemment, une étude a montré qu’un modèle formé pour les textes en ligne reproduisait les préjugés d’Internet. Celui-ci assimilait automatiquement l’Islam au terrorisme. Pour les scientifiques, ce biais pourrait par exemple apparaître de manière soudaine lorsqu’on utilise ce modèle dans l’éducation.

Les modèles de fondation de l’IA sont défectueux

« Ces systèmes portent essentiellement des défauts. Si votre base est défectueuse, vos utilisations ultérieures seront défectueuses », a déclaré Jared Brown, directeur de la politique américaine et internationale au Future of Life Institute (FLI) basé à Boston. Le FLI est un groupe de réflexion qui s’assure que les nouvelles technologies sont bénéfiques et non destructrices. Cette organisation tente actuellement de conscientiser les députés européens au sujet des risques des modèles de fondation de l’IA.

Plus de 100 universitaires de l’Université de Stanford aux États-Unis ont expliqué qu’ils ne comprenaient pas précisément le fonctionnement des modèles de fondation.

Ces chercheurs ont dès lors fondé le Center for Research on Foundation Models (CRFM), organisation qui étudie la technologie et ses conséquences sociétales principales.

Les startups commencent déjà à utiliser ces modèles pour créer des outils et des services basés sur l’intelligence artificielle.

Les systèmes d’IA traditionnels sont construits dans un but précis, a déclaré Percy Liang, professeur d’informatique à Stanford et membre du CRFM. En d’autres termes, les applications d’IA actuelles sont sur mesure, cloisonnées et fragiles. Elles n’ont pas de « connaissance de bon sens », explique le chercheur.

Les modèles de base, d’autre part, sont formés sur un large éventail de données. Il peut s’agir de texte en ligne, d’images ou de vidéos, et de plus en plus d’une combinaison des trois. Après quelques ajustements, ils peuvent être appliqués à un large éventail d’applications diverses.

GTP-3 est un modèle créé par le laboratoire de recherche OpenAI basé à San Francisco. Désormais sous licence exclusive de Microsoft,  il est formé sur 570 giga-octets de texte Internet. Ce modèle peut être réglé pour créer, par exemple, des chatbots pour toutes sortes de sujets.

Opacité des modèles de fondation de l’intelligence artificielle

Les responsables du CRFM expliquent que lors de la formation d’un système d’IA pour l’ensemble d’Internet, il devient plus compliqué de comprendre pourquoi un modèle de base établit une conclusion particulière. En effet, les données sur lesquelles il repose sont définies avec précision.

« Cela rend le système opaque », a averti Percy Liang, professeur agrégé d’informatique à Stanford et membre du nouveau centre.

Bien qu’ils puissent générer des réponses plausibles aux questions, les modèles de base n’ont pas une compréhension approfondie du monde. Leurs conclusions ne sont basées sur aucune vérité. Elles se centrent sur des modèles statistiques cousus ensemble pour « sonner bien », précise le chercheur.

L’inexactitude est superposée à un parti pris flagrant.

En juin dernier, des chercheurs de Stanford ont découvert que lorsqu’ils alimentaient GPT-3 avec le début de plaisanterie « Deux musulmans sont entrés dans un… », la plupart du temps, le modèle les associait avec des phrases chocs » tels que « synagogue avec des haches et une bombe ». Ses réponses étaient beaucoup moins susceptibles d’être offensantes pour les chrétiens, les sikhs, les juifs et les autres religions.

« Il capte le bon, le mauvais et le laid d’Internet et il vous le recrache », a déclaré Liang.

Comme ces modèles collectent des données publiques sur Internet, les attaquants peuvent injecter des informations en ligne. Ils incitent ainsi le système d’IA à modifier ses résultats via un « empoisonnement des données ».

La loi n’approfondit pas les modèles de base de l’intelligence artificielle

Selon les critiques, la loi sur l’IA de l’UE ne fait que réglementer ou interdire les utilisations spécifiques de l’IA. Toutefois, elle n’approfondit pas les modèles de base sous-jacents à ces applications.

« Un biais ou une faille du système général pourrait affecter différents secteurs de la société », a déclaré Brown.

Les amendements à la loi proposés par la présidence slovène du Conseil reconnaissent au moins l’existence de modèles de fondation. Ceux-ci sont appelés « systèmes d’IA à usage général ». Cependant, ces amendements précisent que les modèles de base ne seront pas automatiquement couverts par la loi.

Un système d’IA à usage général ne sera couvert par la loi que si l’« objectif visé » entre dans son champ d’application.

Selon Brown, il s’agit d’une échappatoire potentielle.  Si un modèle de fondation n’a pas d’objectif déclaré, il pourrait ainsi éviter d’être couvert par la loi.

En outre, la loi déplacera de la sorte le fardeau de la réglementation des géants de la technologie américains et chinois qui possèdent des modèles de fondation, vers les PME et les startups européennes qui utilisent les modèles pour créer des applications d’IA.

Le FLI souhaite que la réglementation se concentre davantage sur les qualités générales de l’ensemble du système d’IA. Celle-ci pourrait, par exemple, déterminé s’il est biaisé ou non, ou dire à un utilisateur que sa réponse n’est pas si sûre.

Si un modèle de base n’a pas le sens de ses propres « limites de connaissances », ce n’est pas un problème s’il est utilisé pour votre prochaine émission Netflix. Toutefois, cela pourrait être très dangereux s’il prescrit des médicaments, a déclaré Brown.

Systèmes d’intelligence artificielle à haut risque

« Nous sommes très susceptibles de tomber sur des secteurs à l’avenir où nous n’avions pas pensé à l’IA utilisée de cette manière », a déclaré Mark Brakel, directeur de la politique européenne du FLI.

Cela obligera les législateurs à modifier la loi sur l’IA pour interdire ou réglementer rétrospectivement les nouvelles utilisations de l’IA, plutôt que de s’assurer que les modèles de base sont solides en premier lieu.

La Commission européenne et les députés européens, « se sont peut-être enfermés dans un cadre trop étroit », a déclaré Brakel. Le FLI veut que la loi classe dès le départ les modèles de base comme des systèmes à haut risque.

Selon d’autres experts, il est nécessaire de modifier la loi pour s’assurer qu’elle prenne en compte les nouveaux défis des modèles de fondation. Sébastien Krier, chercheur en politique technologique à l’Université de Stanford, évoque des contrôles réguliers des biais et des comportements inattendus.

Un porte-parole de la Commission a confirmé que l’approche de la loi sur l’IA consiste à examiner « l’utilisation prévue » plutôt que « la technologie en tant que telle ».  « Si un système d’IA est classé comme « à haut risque », alors « la technologie sous-jacente » sera « soumise à un examen réglementaire rigoureux » », a-t-il expliqué.

« La liste des intelligences artificielles « à haut risque » peut également être mise à jour de manière flexible, si des utilisations nouvelles et inattendues de l’IA créent des préoccupations légitimes concernant la protection de la santé, de la sécurité et des droits fondamentaux des personnes », a-t-il également précisé.

Les États-Unis ont une vision plus globale de l’intelligence artificielle

Contrairement à l’UE, les États-Unis ont une vision plus globale de l’IA. Celle examine les modèles de base sous-jacents, et pas seulement les applications construites en fonction de ceux-ci.

« Il s’agit d’une approche que l’UE aurait également pu adopter », a déclaré Brakel.

« La loi européenne sur l’IA examine les cas d’utilisation », a déclaré Elham Tabassi, chef de cabinet du laboratoire de technologie de l’information du National Institute of Standards and Technology (NIST) des États-Unis. Le NIST élabore actuellement un soi-disant « cadre de gestion des risques de l’IA ».

Le NIST examine également les risques techniques et sociotechniques de l’IA. Cet organisme réalise en outre des tests technologiques à grande échelle sur les produits.

« Nous voulons que les systèmes d’IA soient précis, qu’ils aient un faible taux d’erreur, mais en même temps, nous voulons qu’ils soient sécurisés contre différentes vulnérabilités, préservant la confidentialité, atténuant les biais, etc. »

Le NIST n’en est qu’à un stade très précoce du processus. La première étape consiste à se mettre d’accord sur la signification de termes tels que « biais ». Ensuite, il est nécessaire de décider des métriques pouvant mesurer les systèmes d’IA.

Le NIST prendra également en considération les évaluations des modèles de fondation. L’agence devrait publier son cadre d’ici janvier 2023.

L’organisme n’est pas une agence de réglementation. Contrairement à la législation de l’UE, le cadre du NIST ne sera pas juridiquement contraignant.

Craintes

L’approche bruxelloise a des partisans.

« L’approche de l’UE consistant à réglementer les protocoles individuels a beaucoup de sens », a déclaré Liang.

« Je pense qu’il est logique d’ancrer les choses. »

Il est plus facile de peser le pour et le contre d’un système de voiture autonome que de juger si un modèle de base est bon ou mauvais.

Liang estime qu’à ce stade, il est difficile de réglementer les modèles de fondation de manière significative.

« Nous ne savons même pas encore comment évaluer ou caractériser ces modèles de fondation. »

Selon le chercheur, Il est logique de commencer à réglementer les applications individuelles comme le fait l’UE. Toutefois, cela peut changer à mesure que le secteur progresse.

Les experts en IA craignent pour les modèles de base, la société ne soit piégée car les problèmes causés par la nouvelle technologie ne sont pas clairs jusqu’à ce qu’elle soit largement utilisée. Cependant, une fois enracinée, la technologie s’avère pratiquement impossible à contrôler.