L’intelligence artificielle suit déjà le même chemin que les armes nucléaires

L’intelligence artificielle suit déjà le même chemin que les armes nucléaires

21/10/2022 Non Par Arnaud Lefebvre

L’évolution de l’intelligence artificielle est aussi dangereuse que la manière dont les Etats-Unis ont développé les armes nucléaires. Telle est la conclusion de certains chercheurs en IA réunis lors du World Summit AI ayant eu lieu à Amsterdam récemment.  

L’IA pourrait entraîner l’humanité vers un inconnu dangereux

Plusieurs chercheurs seniors de Meta, Google, IBM et de l’Université du Sussex ont récemment participé au Wolrd Summit dans la capitale des Pays-Bas. Alex Kantrowitz, fondateur de Big Technology et contributeur pour CNBC, leur a demandé s’ils ne souhaitaient pas que l’IA soit le reflet de l’intelligence humaine.

« Après quelques instants de silence, aucune main ne se leva », explique le modérateur de cet événement dans The Observer.

Selon Kantrowitz, le silence face à cette question reflète l’ambition de l’industrie de l’IA d’atteindre le niveau de cognition humaine, et ce, même si ce secteur risque de perdre le contrôle de l’intelligence artificielle.

Actuellement, l’IA n’est pas encore sensible. Par ailleurs, elle ne le sera pas encore avant un certain temps, voire jamais, explique le chroniqueur. Toutefois, tout un pan de l’industrie de l’IA publie déjà des programmes d’IA capables de discuter, voir et dessiner comme les humains.

Et à mesure que l’intelligence artificielle avance, on risque de voir sa progression s’enfoncer dans un inconnu dangereux, estiment les experts.

Intelligence artificielle et armes nucléaires

Durant cette rencontre, les inquiétudes quant à la perte de contrôle de l’IA ont ainsi été évoquées. Grady Booch, scientifique en chef chez IBM, a donné son avis à propos d’une éventuelle IA de type humain.

« Je ne pense pas que vous puissiez fermer la boîte de Pandore. Tout comme les armes nucléaires, le chat est sorti du sac », a déclaré l’expert.

Selon Kantrowitz, la comparaison entre les progrès de l’IA et les armes nucléaires est pertinente, mais incomplète.

Les chercheurs en IA peuvent imiter le désir des scientifiques nucléaires de réaliser des progrès techniques malgré les conséquences, même si le danger se situe à différents niveaux. Cependant, davantage de personnes auront accès à l’IA que les quelques gouvernements détenteurs d’armes nucléaires. Il y a donc peu de chances que la retenue soit similaire, estime Kantrowitz. Ce dernier souligne en outre que l’industrie montre déjà une incapacité à suivre  la frénésie des percées de l’intelligence artificielle.

Difficultés de contrôle de l’IA

On a récemment assisté à des difficultés évidentes de contenir l’IA. Cette année, OpenAI a présenté son programme d’intelligence artificielle capable de créer des images artistiques.

Dès le départ, OpenAI a exécuté Dall-E avec des règles réfléchies pour atténuer ses inconvénients et un déploiement lent pour évaluer son impact. Mais alors que Dall-E gagnait du terrain, même OpenAI a admis qu’il ne pouvait pas faire grand-chose contre les imitateurs.

Plusieurs copieurs de Dall-E ont débarqué peu de temps après tout en imposant moins de restrictions.

Des concurrents tels que Stable Diffusion et Midjourney ont démocratisé une technologie puissante sans les barrières, explique Kantrowitz. Tout le monde s’est alors mis à réaliser des images IA. Dall-E n’intégrait au départ que 1.000 nouveaux utilisateurs par mois. Toutefois, le programme d’IA artistique d’OpenAI vient récemment d’être ouvert à tout le monde.

Par ailleurs, le logiciel d’intelligence artificielle Dall-E a réussi à créer son propre langage secret que personne d’autre n’est en mesure de comprendre.

Beaucoup de spécialistes refusent de discuter de l’impact de l’IA sur le long terme

On assistera certainement à l’émergence de modèles similaires au fur et à mesure que la technologie de l’IA progresse. Et ce peu importe les garde-corps employés par les développeurs d’origine, avance Kantrowitz.

Des choses étranges auront lieu en cours de route car une grande partie de ce que fait l’IA aujourd’hui est élémentaire.

Les lacunes et les défis des systèmes actuels sont faciles à souligner. Cependant, beaucoup de spécialistes IA préfèrent ne pas s’engager dans des questions à plus long terme telles que la capacité de l’IA à devenir sensible. Ils pensent qu’il vaut mieux concentrer leur énergie sur des problèmes immédiats.

Pourtant, la progression de l’IA est rapide. Les progrès des grands modèles de langage ont permis de rendre les chatbots plus intelligents. Nous discutons maintenant de leur sensibilité ou de leur absence de sensibilité. Il y a peu, l’art de l’IA n’était pas dans l’imagination du public. L’IA artistique est maintenant partout.

« Même si vous êtes un spécialiste du court terme, le long terme peut arriver plus tôt que prévu. J’ai été surpris par le nombre de scientifiques de l’IA qui ont déclaré qu’ils ne pouvaient pas et ne voulaient pas définir la conscience », souligne Kantrowitz.

Bien entendu, une autre option existe afin de ne pas commettre les mêmes erreurs que les scientifiques de l’arme nucléaire.

Selon Kantrowitz, il faudrait pour cela éviter le raisonnement de J. Robert Oppenheimer, physicien directeur du Projet Manhattan, le « père de la bombe atomique ». Oppenheimer pensait que lorsque quelque chose était techniquement agréable, il fallait aller de l’avant et ne se disputer sur ce qu’il faut faire à ce sujet qu’une fois le premier succès technique remporté.

« Peut-être que cette fois, plus de réflexion conduirait à un meilleur résultat », conclut Kantrowitz.