L’IA a besoin d’un cadre règlementaire semblable au traité nucléaire

L’IA a besoin d’un cadre règlementaire semblable au traité nucléaire

20/04/2023 Non Par Arnaud Lefebvre

Sundar Pichai, le CEO de Google, a récemment plaidé pour l’instauration d’un cadre réglementaire mondial entourant l’IA similaire au traité nucléaire dans un contexte de sécurité. Selon lui, l’IA pourrait être nocive si elle est mal déployée.

L’IA a le potentiel de devenir très nocive

Le directeur de Google a fait part de ses inquiétudes en ce qui concerne l’intelligence artificielle, rapporte The Guardian. Des craintes qui le maintiennent éveillé la nuit, a-t-il expliqué. Sundar Pichai a en outre précisé que l’intelligence artificielle avait le potentiel de devenir très nocive si elle était mal déployée.

Pichai a plaidé pour l’introduction d’un cadre réglementaire mondial similaire aux traités utilisés pour réglementer l’emploi d’armes nucléaires. Il a par ailleurs déclaré que la concurrence pour produire des avancées dans cette technologie pourrait conduire à mettre de côté les préoccupations concernant la sécurité.

Dans une interview accordée à l’émission 60 Minutes de CBS, Pichai a déclaré que le côté négatif de l’IA lui faisait vivre des nuits agitées.

« Cela peut être très dangereux si l’IA est mal déployée. Nous n’avons pas encore toutes les réponses et la technologie évolue rapidement. Alors est-ce que cela m’empêche de dormir la nuit ? Absolument. »

La société mère de Google, Alphabet, détient DeepMind, une société d’IA ayant son siège au Royaume-Uni. Celle-ci a récemment lancé, en réponse à ChatGPT, son propre chatbot IA baptisé « Bard ».

Le CEO de Google a expliqué que les gouvernements devraient instaurer des cadres réglementaires pour l’IA au fur et à mesure de son développement.

Suchai a ajouté que cadres réglementaires semblables à ceux entourant les armes nucléaires pourraient être nécessaires.

La technologie d’IA derrière ChatGPT et Bard se base sur les grands modèles de langage (LLN). Ceux-ci sont formés sur une mine de données extraites d’Internet. Cette technologie est ainsi capable de produire des réponses plausibles aux invites des utilisateurs dans une vaste gamme de formats.

Désinformation

Sundar Pichai a ajouté que l’IA pourrait causer des dommages à cause de sa capacité à produire de la désinformation.

« Avec l’A, il sera possible de facilement créer une vidéo de moi ou de Scott (Scott Pelley, l’intervieweur de CBS) disant quelque chose alors que nous n’avons jamais dit cela. Mais cela pourra sembler exact. Et vous savez à l’échelle de la société, cela peut causer énormément de tort. »

D’autre part, le dirigeant de Google a affirmé que sa version d’IA via son chatbot Bard, désormais accessible au public, était sûre. En outre, Google prévoit des tests pour les versions plus avancées de sa technologie IA.

Google développe également un nouveau moteur de recherche alimenté par IA en réponse à son concurrent Microsoft dont le service Bing a intégré la technologie d’intelligence artificielle.

Enfin, Pichai a reconnu que Google ne comprenait pas totalement comment sa technologie produisait certaines réponses. Il n’est pas possible de tout comprendre et d’expliquer pourquoi elle a dit cela ou pourquoi elle s’est trompée, a-t-il précisé.