Les dangers existentiels en lien avec l’intelligence artificielle sont-ils exagérés ?

Les dangers existentiels en lien avec l’intelligence artificielle sont-ils exagérés ?

30/06/2023 Non Par Guillaume Pruvost

Le spécialiste de l’intelligence artificielle (IA) Gary Marcus a récemment mis en garde contre les dangers potentiels associés au développement et à l’adoption rapide des nouveaux outils d’IA. Cependant, lors d’un entretien à San Francisco, il a déclaré à l’AFP que les craintes concernant l’extinction de l’humanité étaient exagérées.

Le professeur émérite de l’université de New York, qui était présent en Californie pour une conférence, a expliqué qu’il n’était pas actuellement très préoccupé par cette question, car les scénarios spécifiques étaient peu concrets.

Une IA incontrôlable ?

Cependant, il a exprimé son inquiétude quant à la construction de systèmes d’IA mal contrôlés. Gary Marcus a lui-même développé son premier programme d’IA au lycée, un logiciel de traduction du latin vers l’anglais, et a ensuite fondé Geometric Intelligence, une entreprise spécialisée dans l’apprentissage automatisé des machines, qui a été rachetée par Uber.

En mars, il a co-signé une lettre avec des centaines d’experts appelant à une pause de six mois dans le développement des systèmes d’IA ultra-puissants, comme ceux d’OpenAI, afin de garantir la fiabilité, la sécurité, la transparence et l’alignement de ces programmes avec les valeurs humaines.

Cependant, il n’a pas signé une déclaration récente de chefs d’entreprise et de spécialistes qui ont mis en évidence les risques d’extinction de l’humanité liés à l’IA. Cette déclaration a été signée par des personnalités telles que Sam Altman, le PDG d’OpenAI, Geoffrey Hinton, un ancien ingénieur de Google, Demis Hassabis, le responsable de DeepMind (Google) et Kevin Scott, le directeur technologique de Microsoft.

« Risque existentiel » et appel à la régulation de l’IA générative

Le succès retentissant de ChatGPT, le robot conversationnel d’OpenAI capable de générer une variété de textes sur demande, a déclenché une compétition entre les géants technologiques pour développer cette intelligence artificielle dite « générative ». Cependant, de nombreuses voix se sont élevées pour mettre en garde contre les dangers potentiels et appeler à réguler ce domaine.

Ces avertissements proviennent même de ceux qui sont impliqués dans la construction de ces systèmes informatiques dans le but d’atteindre une IA « générale » avec des capacités cognitives similaires à celles des humains.

Gary Marcus soulève une question légitime en demandant : « Si vous pensez vraiment que cela représente un risque existentiel, pourquoi travaillez-vous dessus ? »

Il tempère les craintes d’extinction de l’espèce humaine en soulignant que la situation est en réalité assez complexe et qu’il est possible d’imaginer différentes catastrophes, mais que des individus pourraient survivre.

Cependant, il reconnaît qu’il existe des scénarios réalistes où l’utilisation de l’IA pourrait causer des dommages massifs. Il donne l’exemple de la manipulation des marchés, où des personnes pourraient réussir à influencer les cours. Cela pourrait entraîner des accusations erronées contre les Russes et déclencher involontairement une guerre potentiellement nucléaire.

Préoccupation pour la démocratie et appel à la régulation de l’IA générative

Gary Marcus exprime davantage de préoccupations à court terme concernant la démocratie. Les logiciels d’IA générative produisent des fausses photographies de plus en plus convaincantes, et bientôt des vidéos, à moindre coût. Selon lui, cela risque de conduire à des élections remportées par des individus talentueux dans la diffusion de la désinformation. Une fois élus, ils pourraient modifier les lois et imposer un autoritarisme.

Il souligne en particulier que la démocratie repose sur l’accès à des informations nécessaires pour prendre des décisions éclairées. Si personne ne sait plus ce qui est vrai ou faux, cela signifierait la fin de la démocratie.

Toutefois, l’auteur du livre « Rebooting AI » estime qu’il n’est pas nécessaire de tout rejeter dans cette technologie. Il croit en la possibilité d’utiliser un jour une IA encore inexistante qui permettra des avancées scientifiques, médicales et dans les soins aux personnes âgées. Cependant, il estime que nous ne sommes pas prêts pour cela à l’heure actuelle. Il souligne le besoin de réglementation et d’amélioration de la fiabilité des programmes.

Lors d’une audition devant une commission parlementaire américaine en mai, Gary Marcus a plaidé en faveur de la création d’une agence nationale ou internationale chargée de la gouvernance de l’intelligence artificielle. Cette idée est également soutenue par Sam Altman, qui a récemment effectué une tournée européenne pour exhorter les dirigeants politiques à trouver un équilibre juste entre protection et innovation.

Cependant, Gary Marcus met en garde contre le risque de laisser le pouvoir aux entreprises. Il rappelle que ces derniers mois ont mis en évidence le fait que ce sont elles qui prennent les décisions importantes, sans toujours tenir compte des effets secondaires.