« Les entreprises IA sont engagées dans une course vers le bas »

« Les entreprises IA sont engagées dans une course vers le bas »

25/09/2023 Non Par Arnaud Lefebvre

Max Tegmark, physicien, professeur du MIT, a récemment déclaré dans le quotidien britannique The Guardian, que les entreprises technologiques IA étaient engagées dans une course vers le bas.

Le développement de l’IA est imparable

Selon Tegmark, la concurrence est trop importante entre ces entreprises. Par conséquent, leurs dirigeants ne peuvent interrompre leurs développements afin de prendre en compte les risques de l’IA.

Tegmark est l’instigateur d’une lettre plaidant pour une pause dans le développement de systèmes d’IA puissants. Selon l’expert, les dirigeants technologiques n’ont pas fait une pause dans leur travail en raison du fait qu’ils sont bloqués dans une course vers le bas.

Co-fondateur du Future of Life Institute, Tegmark a rendu publique sa lettre au début de cette année. Ce document demandait de faire une pause de six mois dans le développement et la conception de systèmes massifs d’IA. Ayant reçu le soutien de plus de 30.000 signataires, dont Elon Musk et le co-fondateur d’Apple Steve Wozniak, cette lettre n’a pas abouti à une pause.

Tegmark ne s’attend pas à ce que cette lettre conjointe ait un effet sur le travail des entreprises technologiques sur des modèles d’IA plus performant que GPT-4, le modèle de langage approvisionnant ChatGPT. Selon lui, la concurrence est trop rude.

« J’avais l’impression qu’en privé, de nombreux dirigeants d’entreprise avec qui j’avais parlé voulaient [une pause], mais ils étaient piégés dans cette course vers le bas les uns contre les autres. Aucune entreprise ne peut donc faire une pause seule », a-t-il déclaré.

La lettre met en garde contre une course effrénée dans le développement d’esprits ne pouvant être compris, prédits ou contrôlés. Elle incite également les gouvernements à intervenir si un moratoire sur le développement de systèmes plus performants que GPT-4 ne peut faire l’objet d’un consensus entre les sociétés d’IA telles que Google, OpenAI, propriétaire de ChatGPT, et Microsoft.

Ce document se demande en outre si nous devrions laisser se développer des esprits non humains pouvant être plus nombreux et plus intelligents et susceptibles de nous remplacer.

Critique de l’intelligence artificielle

Tegmark considère que sa lettre a été un succès. Celle-ci a suscité une certain réveil politique concernant l’IA. Elle a notamment permis la tenue d’auditions au Sénat américain de dirigeants technologiques ainsi qu’à l’organisation d’un Sommet mondial sur la sécurité de l’IA dans deux mois.

Depuis sa publication, l’expression de craintes au sujet de l’IA a cessé d’etre un tabou. Par la suite, cette lettre a été suivi d’une déclaration du Center for AI Safety affirmant que l’IA devait être considéré comme une menace sociétale tout comme les pandémies et les conflits nucléaires.

Dans The Guardian, Tegmark explique que la lettre de son groupe de réflexion a rendu la critique de l’IA et l’expression de craintes à ce sujet socialement acceptables. Cela a également permis que certains politiciens posent des questions difficiles.

Parmi les craintes au sujet de l’IA, on trouve la capacité de générer des videos deepfakes et de la désinformation de masse. Les spécialistes s’inquiètent également que les supers IA n’échappent au contrôle humain et ne prennent des décisions irréversibles lourdes de conséquences.

Tegmark a également mis en garde contre la possibilité de développement d’une IA divine numérique. Certains experts estiment que cela pourrait etre réalité d’ici quelques années.

En novembre se tiendra un sommet britannique sur la sécurité de l’IA. Cette rencontre a trois objectifs :

–       établir une compréhension commune de la gravité des risques posés par l’IA ;

–       définir une réponse mondiale unifiée est nécessaire ;

–       accepter la nécessité d’une intervention urgente des gouvernements.

Une pause dans le développement de l’IA est toujours nécessaire

Selon Tegmark, une pause dans le développement est toujours nécessaire jusqu’au respect des normes de sécurité décidées au niveau mondial. L’expert estime qu’il faut suspendre le développement de modèles plus puissants jusqu’à ce que ces derniers répondent aux normes de sécurité convenues au niveau mondial.

Selon lui, établir un accord sur les normes de sécurité de l’AI entrainera une pause naturelle de son développement.

« Se mettre d’accord sur les normes de sécurité entraînera naturellement une pause. »

Tegmark incite également les gouvernements à décider de mesures pour les modèles d’intelligence artificielle Open Source. Ceux-ci doivent être accessibles et adaptés au public.

La société technologique Meta, propriétaire de Facebook, a récemment mis à disposition du public un modèle de langage nommé Llama2. Selon un expert britannique, cela revient à fournir aux personnes un modèle pour développer une bombe nucléaire.

Tegmark a finalement ajouté que les technologies risquées ne devraient pas être Open Source, qu’il s’agisse d’armes biologiques ou de logiciels informatiques.