« Le danger n’est pas que l’IA nous détruise mais bien qu’elle nous rende fous »

« Le danger n’est pas que l’IA nous détruise mais bien qu’elle nous rende fous »

24/03/2023 Non Par Arnaud Lefebvre

Récemment, l’actualité concernant l’intelligence artificielle est quelque peu apocalyptique. De nombreux médias et experts estiment que nous avons laissé passer notre chance avec l’IA et qu’à cause de notre orgueil, les robots sont en passe d’envahir le monde et de semer le chaos. Cependant, dans The Guardian, Jaron Lanier, un des pionniers de la réalité virtuelle et de l’Internet, critique virulent des réseaux sociaux, considère qu’affirmer que l’intelligence artificielle va conquérir la planète n’a aucun sens.

L’intelligence artificielle est composée de capacités humaines

Jaron Lanier n’apprécie pas le terme d’intelligence artificielle. Le gourou de la technologie s’oppose à l’idée que l’IA est réellement intelligente et que nous pourrions être en concurrence avec celle-ci.

« Cette idée de surpasser les capacités humaines est stupide car l’intelligence artificielle est faite de capacités humaines », dit-il. « C’est comme dire qu’une voiture peut aller plus vite qu’un coureur humain. C’est évidemment possible. Pourtant, nous n’affirmons pas que la voiture soit devenue plus performante. »

Lanier est un « insider » et un « outsider ». D’une part, il travaille chez Microsoft en tant que scientifique interdisciplinaire. D’autre part, il expose depuis longtemps les dangers que présente le Web.

En effet, bien qu’il soit un gourou tech, sa mission est davantage de défendre l’humain plutôt que le numérique. Dans plusieurs de ses ouvrages, il estime ansi qu’Internet étouffe l’interaction personnelle et l’inventivité et pervertit la politique.

L’intelligence artificielle peut nous rendre fous

Lanier a souvent eu recours à la musique pour exemplifier le génie et les limites de la technologie. Selon lui, dans sa forme la plus simple, la technologie fonctionne avec un bouton marche/arrêt, comme les touches d’un clavier. Lanier insiste sur le fait que l’IA n’a pas la variété infinie d’un saxophone ou d’une voix humaine.

« De mon point de vue, le risque n’est pas qu’une nouvelle entité extraterrestre parle à travers la technologie, prenne le contrôle et nous détruise. Pour moi, le danger est que nous utilisions notre technologie pour devenir mutuellement inintelligibles ou pour devenir fous si vous voulez. Le risque est que nous utilisions la technologie sans suffisamment de compréhension et d’intérêt personnel. Que nous mourions à cause de la folie, essentiellement. »

Lanier exemplifie son propos. Il évoque ainsi la possibilité que des dirigeants ou des terroristes ne prenant pas au sérieux la sécurité globale relative à l’IA ne deviennent fous à cause de la désinformation ou de la bile sur Twitter.

Selon l’expert, plus la technologie devient sophistiquée, plus nous pouvons engendrer des dégâts avec elle. Selon lui, nous avons en outre une responsabilité à l’égard de la santé mentale de la population. En d’autres termes, une responsabilité d’agir moralement et humainement.

« Internet nous bousille »

Contrairement à de nombreux gourous idéalistes du numérique, Lanier estime qu’Internet nous bousille. A l’aube du Web, les utilisateurs voulaient des choses gratuites sur le plan de l’information, des amitiés et de la musique.

Toutefois, le capitalisme ne fonctionne pas de la sorte. Les utilisateurs d’Internet sont devenus des produits et leurs données ont été vendues à des tiers.

Néanmoins, Lanier estime que des bots tels que ChatGPT d’OpenAI et Bard de Google pourraient redonner de l’espoir au monde numérique. Lanier a toujours été consterné par le fait qu’Internet donnait l’impression d’offrir des options infinies tout en fournissant en fait un choix réduit.

Jusqu’à présent, l’utilisation principale des algorithmes d’IA consistait à choisir des vidéos sur YouTube ou des publications sur les plateformes de médias sociaux.

Selon Lanier, cela nous a rendus paresseux et incurieux. Auparavant, nous passions au crible les piles dans un magasin de disques ou parcourons les librairies.

« Nous étions directement connectés à une base de choix en fait plus large au lieu d’être alimentés par cet entonnoir que quelqu’un d’autre contrôle. »

Il prend l’exemple des plateformes de streaming.

« Netflix a déjà organisé un concours d’un million de dollars pour améliorer son algorithme. Cela afin d’aider les personnes à trier ce gigantesque espace d’options de streaming. Mais il n’y a jamais eu autant de choix. La vérité est que vous pouvez mettre tout le contenu en streaming de Netflix sur une seule page déroulante. C’est un autre domaine où nous avons la responsabilité de rester sain d’esprit, de ne pas restreindre nos options ou de rester piégés dans des chambres d’écho, esclaves de l’algorithme. »

Wikipédia

Pour Lanier, l’exemple classique de choix restreint est Wikipédia, l’encyclopédie mondiale.

« « Wikipédia est géré par des personnes super sympas qui sont mes amis. Mais le fait est que c’est comme une encyclopédie. Certains d’entre nous se souviendront peut-être de l’époque où, sur papier, il y avait à la fois une Encyclopedia Britannica et une Encyclopedia Americana offrant des perspectives différentes. L’idée d’avoir l’encyclopédie parfaite est tout simplement bizarre. »

Lanier se demande si les nouveaux chatbots pourraient contester cette structure.

En effet, si l’on se rend sur un chatbot et que l’on lui demande l’état du métro londonien, on obtiendra des réponses chaque fois différentes parmi lesquelles il faudra choisir.

Selon Lanier, ce hasard programmé est un progrès.

« Tout d’un coup, cette idée d’essayer de donner à l’ordinateur une apparence humaine est allée assez loin dans cette itération pour que nous ayons pu naturellement dépasser cette illusion de la vérité monolithique d’Internet ou de l’IA. Cela signifie qu’il y a un peu plus de choix, de discernement et d’humanité avec la personne qui interagit avec la chose. »

Intelligence artificielle et disparition d’emplois

En ce qui concerne la possibilité que l’IA provoque la disparition de nombreux emplois, Lanier estime que ce n’est pas la technologie qui nous remplace, mais bien la manière dont nous l’utilisons.

Il imagine deux scénarios.

Le premier scénario est que nous prétendions que le bot est une entité réelle comme une personne. Afin de maintenir ce fantasme, nous aurions tendance à oublier les textes sources utilisés pour la fonctionnalité de bot. Par conséquent, le journalisme en souffrirait.

Dans le deuxième scénario, nous gardons une trace de l’origine des sources. Un monde très différent pourrait alors voir le jour. Dans ce cas de fiure, si un bot s’appuie sur vos rapports, vous recevez un paiement. Cela crée un sens partagé de la responsabilité où tout fonctionne mieux. Le terme pour cela est dignité des données, explique Lanier.

Selon Lanier, la dignité des données est un concept désormais obsolète.

« Vous pouvez utiliser l’IA pour créer de fausses nouvelles plus rapidement, moins cher et à plus grande échelle. Cette combinaison est l’endroit où nous pourrions voir notre extinction. »

Dans un de ses ouvrages, Lanier écrivait que le but de la technologie numérique était de rendre le monde plus « créatif, expressif, empathique et intéressant ».

« Il en est ainsi dans certains cas. Il y a beaucoup de choses sympas sur Internet. Je pense que TikTok est dangereux et devrait être interdit, mais j’aime la culture de la danse sur TikTok et elle devrait être chérie. »

Toutefois, Lanier estime que TikTok devrait être supprimé parce qu’il est contrôlé par les Chinois.  Cette application pourrait être utilisée à de nombreuses fins tactiques horribles dans des contextes extrêmes. Selon lui, il s’agit d’un risque qui n’est pas acceptable.

Le cas de Twitter

Selon Lanier, Twitter fait ressortir le pire de l’être humain.

Pour lui, les utilisateurs commencent à utiliser Twitter avec une personnalité distincte. Toutefois, la plateforme les fait converger vers la même personnalité optimisée pour l’engagement.

Il s’agit d’une personnalité anxieuse et nerveuse qui se concentre sur les affronts personnels. Cet état d’esprit est offensé par les revendications et droits des autres s’il s’agit de personnes différentes.

Lanier prend l’exemple de Trump et Elon Musk.

« Il y a dix ans, ils avaient des personnalités distinctes. Mais ils ont convergé pour avoir une remarquable similitude de personnalité. Je pense que c’est la personnalité que vous obtenez si vous passez trop de temps sur Twitter. Cela vous transforme en un petit enfant dans une cour d’école qui a désespérément besoin d’attention et qui a peur d’être celui qui se fait battre. Vous finissez par être ce faux qui est préoccupé par lui-même mais perd de l’empathie pour les autres. »

L’état actuel d’Internet

Lanier reste fier de nombreux aspects d’Internet tels que les casques virtuels dont il a significativement participé au développement.

Cependant, il évoque également le pire de l’Internet et de l’IA.

« Je connais des personnes dont les enfants se sont suicidés à cause d’une très forte contribution de l’algorithme en ligne. Donc, dans ces cas, la vie a été prise. Je suis certain que nous aurions pu faire mieux, et je suis sûr que nous pouvons et devons faire mieux à l’avenir. »

La façon de s’assurer que nous sommes suffisamment sains d’esprit pour survivre est de nous rappeler que c’est notre humanité qui nous rend uniques, explique Lanier.

« Beaucoup de penseurs des Lumières modernes et de techniciens pensent qu’il y a quelque chose de démodé à croire que les personnes sont spéciales – par exemple que la conscience est une chose. Ils ont tendance à penser qu’il y a une équivalence entre ce que pourrait être un ordinateur et ce que pourrait être un cerveau humain.

Lanier est en désaccord avec cette idée.

« Nous devons affirmer que la conscience est une chose réelle et qu’il y a une intériorité mystique chez les personnes différente des autres choses parce que si nous ne disons pas que les personnes sont spéciales, comment pouvons-nous créer une société ou créer des technologies qui les servent ? »