Le parrain de l’IA met en garde contre les dangers de la désinformation liée à cette technologie

Le parrain de l’IA met en garde contre les dangers de la désinformation liée à cette technologie

05/05/2023 Non Par Arnaud Lefebvre

Geoffrey Hinton, professeur de l’Université de Toronto, pionner canadien des réseaux de neurones artificiels, a déclaré dans le quotidien britannique The Guardian, que les risques représentés par les chatbots IA étaient assez effrayants. Ayant récemment quitté Google, Hinton a également averti que ces outils pourraient faire l’objet d’une exploitation par des acteurs malveillants. 

Les risques de l’IA

Souvent dépeint comme le parrain de l’IA, Hinton a fait part de ses craintes en rapport avec l’IA. Parmi les risques des chatbots IA, il évoque la possibilité d’un flot significatif de désinformation, le bouleversement potentiel du marché du travail et le risque existentiel posé par la création d’une véritable intelligence numérique.

Concepteur d’un réseau de neurones en 2012 avec deux de ses étudiants, Geoffrey Hinton, âgé de 75 ans, vient de quitter Google. Dans The Guardian, il explique avoir démissionné afin de pouvoir parler librement des dangers. Le scientifique a également expliqué qu’il regrettait sa contribution dans le domaine de l’IA.

Geoffrey Hinton a été recruté par Google il y a dix ans. Une de ses missions dans l’entreprise a consisté à permettre le développement de la technologie d’IA de la société. Son approche a d’ailleurs permis le développement des systèmes actuels tels que ChatGPT.

Le scientifique a expliqué que certains des risques représentés par les chatbots IA était assez effrayants. Selon lui, ceux-ci pourraient être plus intelligents que les êtres humains. Ils pourraient en outre être exploités par des personnes malveillantes.

Hinton a expliqué que ces chatbots sont capables de générer automatiquement un important volume de texte. Cela permet d’obtenir de nombreux spambots très efficaces. Des dirigeants autoritaires pourraient, à l’aide de ceux-ci, manipuler leurs électeurs ou des choses du genre, a-t-il précisé.

Risque existentiel

Hinton se dit en outre expliqué inquiet du risque existentiel existant lorsque ces choses deviennent plus intelligentes que nous.

« Imaginez 10.000 personnes et chaque fois que l’une d’entre-elles apprend quelque chose, tout le monde l’apprend  automatiquement. Les chatbots peuvent ainsi en savoir bien plus sur n’importe qui. »

D’autres pontes de la recherche sur l’IA ont récemment exprimé leurs craintes concernant les risques de  l’IA pour l’humanité. Par ailleurs, Elon Musk a expliqué être fâché avec le cofondateur de Google, Larry Page. Selon Musk, Page n’attache pas assez d’importance à la sécurité de l’IA. Il a en outre expliqué que ce dernier souhaitait dès que possible l’avènement d’une super intelligence numérique, en quelque sorte un dieu numérique.

Selon Valérie Pisano, la directrice générale de Mila, l’Institut québécois d’IA, l’approche bâclée de la sécurité des systèmes d’IA ne serait tolérée dans aucun autre domaine.

Elle a expliqué que ses développeurs attendaient ce qui se passe à mesure de l’interaction de l’IA avec l’humanité. En fonction de cela, ils procèdent ensuite à des ajustements. Pisano a déclaré que ce genre de mentalité ne serait jamais acceptée dans un autre secteur industriel.

« Mais lorsqu’il s’agit de la technologie et des médias sociaux, nous disons : « Oui, bien sûr, nous le découvrirons plus tard ». »

Impossibilité de discernement

Les craintes de Hinton à court terme deviennent déjà une réalité. Les utilisateurs ne pourront plus capables de discerner le vrai du faux à cause de la diffusion de photos, de séquences vidéos et de textes générés par l’IA pullulant sur Internet.

En effet, les récents développements des générateurs d’images tels que Midjourney permettent de générer des images photoréalistes.

Selon Hinton, l’IA pourrait également éventuellement remplacer de nombreux métiers pénibles.

Google apprécie les contributions de Hinton au cours de la dernière décennie, a déclaré Jeff Dean, le scientifique en chef de Google.

Dean a expliqué avoir apprécié leurs nombreuses conversations au fil des ans. Il a en outre précisé que Google restait attaché à une approche responsable de l’IA. L’entreprise apprend constamment  à comprendre les risques émergents tout en innovant de manière audacieuse, a-t-il déclaré.

Le public doit maintenant remettre en question tous les médias en ligne, conclut Toby Walsh, scientifique en chef de l’Institut d’IA de l’Université de Nouvelle-Galles du Sud. Selon lui, lorsqu’il s’agit de données numériques audio ou vidéo, il faut d’entretenir l’idée que celles-ci ont fait l’objet d’une usurpation.