Des chercheurs avertissent que l’intelligence artificielle pourrait devenir un feu de forêt incontrôlable

Des chercheurs avertissent que l’intelligence artificielle pourrait devenir un feu de forêt incontrôlable

01/08/2022 Non Par Arnaud Lefebvre

Ben Buchanan et Andrew Imbrie sont tous deux chercheurs au Centre pour la sécurité et les technologies émergentes (CSET) de l’Université de Georgetown aux Etats-Unis. Récemment, les deux spécialistes en IA ont livré 5 idées au sujet de l’intelligence artificielle tirées de leur nouvel ouvrage « The New Fire: War, Peace, and Democracy in the Age of AI ». Les voici.

L’intelligence artificielle s’apparente au feu de deux manières

On compare couramment l’intelligence artificielle à l’électricité. Tout comme cette dernière, l’IA est omniprésente, bénéfique et sûre. Toutefois, pour les deux chercheurs, cette assimilation est éloignée de la réalité. Ceux-ci expliquent que nous découvrons aujourd’hui l’IA comme nos ancêtres lointains ont découvert le feu. Si nous procédons à une gestion optimale de l’IA, cette technologie deviendra une force extraordinaire pour le bien mondial, débouchant sur des inventions transformatrices.

Mais les deux chercheurs avertissent que si son déploiement est trop rapide et sans prévoyance adéquate, l’IA brûlera d’une manière incontrôlable. Si son exploitation est utilisée pour la destruction, l’intelligence artificielle permettra aux gouvernements les plus puissants d’avoir recours aux armes les plus performantes tout en s’engageant dans une concurrence géopolitique explosive.

« L’analogie courante avec l’électricité nie ce large éventail de résultats possibles et nous rend moins préparés », expliquent les deux auteurs.

L’IA s’apparente au feu d’une autre manière. Tout comme celui-ci, sa puissance provient de sa force d’accélération, expliquent Ben Buchanan et Andrew Imbrie. Tel un feu non maîtrisé brûlant davantage chaque seconde, l’accélération de la croissance des composants sous-jacents de l’IA permet une augmentation rapide de ses capacités. De nos jours, des ensembles de données toujours plus volumineux représentant de vastes corpus de savoirs humains alimentent les systèmes d’IA. Par ailleurs, les machines atteignent de nouveaux sommets grâce à des algorithmes de plus en plus performants et efficaces. Des puces informatiques de plus en plus puissantes fonctionnent ensemble en grand nombre pour procéder à des calculs permettant de concrétiser ces nouvelles capacités de l’IA.

Une nouvelle ère de l’épanouissement humain grâce à l’IA

L’IA est susceptible d’inaugurer une nouvelle ère de l’épanouissement humain. Si l’on observe les dernières avancées technologiques, aucun doute ne subsiste quant au fait que l’IA est capable d’améliorer nos vies. L’IA est meilleure que les humains dans des jeux extrêmement complexes tels que Go, StarCraft et au poker. Mais elle dépasse également les humains dans les combats aériens de pilotes de chasse, dans la gestion des réactions nucléaires et dans certaines des tâches les plus fondamentales de la science elle-même.

Les chercheurs illustrent leur propos en se référant au problème de repliement des protéines. Chaque protéine est constituée d’une séquence d’acides aminés qui, lorsque la protéine se « plie », s’organisent en une forme 3D complexe. Pendant des décennies, la prédiction de la forme d’une protéine via sa séquence était l’un des ordres les plus élevés de la science.  Un doctorant pouvait consacrer des années de recherche à déterminer la structure d’une seule protéine.

Des scientifiques de DeepMind de Google ont alors pensé qu’il devait y avoir une meilleure solution. En 2016, DeepMind a commencé à travailler sur AlphaFold, un système d’IA qui prédit la forme d’une protéine lorsqu’on lui donne sa séquence. En 2018, AlphaFold était le meilleur système automatisé au monde pour cette tâche. Quatre ans plus tard, le système était capable de parvenir à une résolution totale du problème du repliement des protéines. D’ici fin 2022, DeepMind aura déterminé et rendu publique la structure de plus de 130 millions de protéines. Il s’agit d’un volume des centaines de fois plus important que ce que toute l’humanité avait collectivement déterminé lors de recherches antérieures à AlphaFold.

« La médecine va changer. Cela va changer la recherche et la bio-ingénierie. Cela va tout changer », avait déclaré en 2020 Andrei Lupas, un biologiste de l’Institut Max Planck en Allemagne.

L’intelligence artificielle peut provoquer d’énormes dommages

L’IA n’est pas parfaite. Des biais se faufilent dans les systèmes d’IA, en particulier lors de l’apprentissage à partir d’ensembles de données de décisions humaines.

Les conséquences dans le monde réel peuvent être graves. Amazon a dû supprimer un outil de sélection de CV après que ce dernier ait appris à discriminer systématiquement les femmes. Un autre algorithme a refusé les soins de santé aux personnes de couleur. Les technologies de reconnaissance faciale fonctionnent moins bien pour divers groupes. Aux États-Unis, la police a arrêté des Afro-descendants innocents uniquement sur la base d’une correspondance incorrecte de reconnaissance faciale.

L’IA ne peut pas non plus expliquer ses conclusions et montre rarement son travail.

Cette opacité peut masquer les cas où les systèmes d’IA optimisent pour un objectif qui n’est pas tout à fait celui de leurs créateurs humains. Par exemple, un système conçu pour détecter la pneumonie dans les radiographies pulmonaires a découvert que les radiographies d’un hôpital étaient plus susceptibles que les autres de présenter une pneumonie car cet hôpital avait généralement des patients plus malades. La machine a appris à rechercher l’hôpital d’origine de la radiographie plutôt que la radiographie elle-même.

Un autre système conçu pour identifier les lésions cutanées cancéreuses s’est entraîné sur un ensemble d’images de dermatologues qui utilisaient souvent une règle pour mesurer les lésions potentiellement cancéreuses. Le système d’IA a alors corrélé la présence d’une règle avec la présence d’un cancer. Il a donc commencé à vérifier si une règle était présente plutôt que de se concentrer sur les caractéristiques de la lésion.

Dans ces deux cas, des opérateurs humains alertes ont remarqué les défaillances avant le déploiement des systèmes. Toutefois, il est impossible de savoir combien de cas comme ceux-ci n’ont pas été détectés et combien d’autres ne seront pas détectés à l’avenir.

L’IA est au cœur de la concurrence géopolitique

L’IA bouleverse déjà la géopolitique. Les militaires et les agences de renseignement inaugurent une ère d’armes autonomes mortelles. Parmi les dernières innovations guerrières, citons les drones qui rôdent au-dessus du champ de bataille ou encore les missiles capables de sélectionner leurs propres cibles.

Les meilleurs penseurs militaires cherchent à concevoir une guerre pilotée par des machines plus rapide que jamais. Certains stratèges proposent même de donner à l’IA la capacité de lancer des armes nucléaires.

Mais l’IA transformera plus que la guerre. Bon nombre des cyberattaques les plus puissantes de l’histoire, dont certaines ont causé des dizaines de milliards de dollars de dégâts, ont été largement automatisées. De nouvelles techniques d’IA pourraient approfondir cette tendance, précisent les deux chercheurs. Les pirates russes ont construit un code malveillant qui cible de manière autonome les systèmes électriques, tandis que le Pentagone a effectué des tests gigantesques dans lesquels les systèmes d’IA se piratent et se défendent à une vitesse rapide.

En outre, l’IA est en mesure de produire de la désinformation. Un test en 2021 a montré que les systèmes d’IA pouvaient écrire des messages de propagande ciblés qui exploitaient les différences raciales, religieuses et politiques aux États-Unis pour réussir à changer les opinions de leurs cibles. Peut-être pire encore, les théoriciens craignent que de vidéos deepfake soient sur le point de saper la notion de vérité elle-même.

Les démocraties peuvent sortir gagnantes à l’ère de l’intelligence artificielle

Dans ce contexte de guerre automatisée, de préjugés rampants et de campagnes de désinformation généralisées, une proposition inquiétante et commune émerge : l’IA profitera aux autocraties aux dépens des démocraties. À une époque où les dictateurs semblent avoir le pouvoir partout dans le monde, il est facile de supposer que cette nouvelle technologie favorisera la tyrannie. Sans être encombrés par l’éthique, les autocrates écraseront la dissidence avec des systèmes de surveillance automatisés chez eux et feront la course avec une guerre basée sur l’IA à l’étranger.

Toutefois, il s’agit d’une vision trop fataliste, estiment Ben Buchanan et Andrew Imbrie.

« L’ère de l’IA est encore jeune et son issue est loin d’être prédestinée. Les démocraties ont la possibilité de développer des normes partagées pour l’utilisation de la technologie dans leur pays et à l’étranger, libérant son potentiel extraordinaire tout en se prémunissant contre les préjugés et en préservant les libertés civiles. Elles ont la capacité de l’intégrer dans les armées et les agences de renseignement de manière à préserver et à renforcer les valeurs démocratiques tout en mettant les autocraties sur la défensive. Plus important encore, les démocraties offrent un écosystème innovant qui peut déterminer où la technologie va ensuite. L’IA façonnera l’art de gouverner, mais l’art de gouverner façonnera également l’IA. Si l’IA est le nouveau feu, ce qui compte le plus, c’est la façon dont nous l’entretenons », concluent les deux experts.