Pourquoi l’intelligence artificielle généralisée n’est pas pour demain

Pourquoi l’intelligence artificielle généralisée n’est pas pour demain

22/06/2022 0 Par Arnaud Lefebvre

« L’intelligence artificielle généralisée n’est pas aussi imminente qu’on pourrait le penser », écrit dans Scientific American, Gary Marcus, professeur au département de psychologie de l’Université de New York et et PDG de Geometric Intelligence, une société d’apprentissage automatique acquise plus tard par Uber.

Selon le spécialiste, un examen attentif montre que les systèmes les plus récents d’intelligence artificielle tels que le très médiatisé Gato de Deepmind, une division d’Alphabet, sont toujours bloqués par les mêmes vieux problèmes.

La course à l’intelligence artificielle est loin d’être terminée

On pourrait penser que le secteur de l’intelligence artificielle a bien évolué et réalisé des progrès importants.

Divers communiqués de presse enthousiastes affirment que DALL-E 2 d’Open AI, un nouveau système d’IA, peut, à partir de n’importe quel texte, créer des images réalistes. Un autre système d’IA, GPT-3, pourrait parler d’à peu près n’importe quel sujet.  Gato, un système récent développé par DeepMind aurait bien fonctionné sur toutes les tâches lui ayant été assignées. DeepMind a affirmé qu’avec l’intelligence artificielle généralisée (AGI), une IA possédant la flexibilité et l’ingéniosité humaine, la partie était finie. Enfin, Elon Musk a récemment déclaré que nous atteindrions l’AGI en 2029.

Toutefois, selon Marcus, il ne faut pas être dupe. Il se peut qu’un jour les machines soient aussi intelligentes et même plus intelligentes que les humains. Mais nous sommes encore loin de la fin de la partie, avertit le scientifique. Il reste encore beaucoup de travail pour aboutir à la conception de machines capables de compréhension et de raisonnement sur le monde. Pour l’expert, nous avons besoin de plus de recherche fondamentale et de moins de déclarations médiatisées.

Certes, l’intelligence artificielle a fait d’énormes progrès dans certains domaines. Les images de synthèse ont davantage de réalisme et la reconnaissance vocale est désormais capable de fonctionner au sein de milieux bruyants. Cependant, nous nous trouvons encore à des années-lumière d’une intelligence artificielle généralisée. En d’autres termes, il reste encore beaucoup à faire pour atteindre une IA capable de compréhension réelle des articles et vidéos ou de la gestion d’obstacles ou d’interruptions inattendus.

Gary Marcus estime que nous sommes confrontés aux même blocages que les scientifiques universitaires depuis des années. Selon lui, il faut encore améliorer la fiabilité de l’intelligence artificielle.

Les obstacles de l’intelligence artificielle

Dans son article d’opinion, Marcus illustre certaines limites auxquelles est confrontée l’intelligence artificielle. Par exemple, Gato de DeepMind a dû fournir un sous-titrage d’une image d’un lanceur qui lance une balle de baseball. Le système a fourni trois réponses distinctes.

L’image peut dans un premier temps montrer un joueur de baseball qui lance une balle sur un terrain de baseball. Ensuite, l’image peut également représenter une personne qui lance une balle de baseball à un lanceur sur un terrain de baseball. Enfin, l’image peut également montrer un joueur de baseball muni d’une batte et un receveur au sol durant une partie de baseball.

La première réponse est correcte. Toutefois, les deux autres sous-titrages mettent en scène d’autres joueurs qui n’apparaissent pas sur l’image initiale. Le système ne sait pas ce qui est vraiment sur l’image. Cependant, il connaît les éléments typiques d’images à peu près identiques. N’importe quel amateur de baseball saurait que le lanceur est celui qui vient de lancer la balle et non le contraire. Enfin, bien que cette image laisse supposer qu’un receveur et un frappeur soient proches, ces derniers ne sont pas présents sur le cliché.

Pour sa part, DALL-E 2 n’a pas été capable de différencier un cube rouge au-dessus d’un cube bleu d’un cube bleu au-dessus d’un cube rouge. Récemment, une version plus actualisée de ce système n’a pas pu faire la distinction entre un astronaute siégeant sur un cheval et un cheval sur un astronaute.

Les erreurs de l’IA peuvent être plus graves

Les erreurs de systèmes tels que DALL-E sont divertissantes. Toutefois, d’autres erreurs de l’intelligence artificielle peuvent provoquer des situations davantage problématiques et graves. Marcus cite l’exemple d’un problème rencontré par une Tesla en pilote automatique. Récemment, un des modèles de Tesla a éprouvé des difficultés à identifier un travailleur au milieu de la route avec un panneau d’arrêt. La Tesla n’a ralenti que lors de l’intervention de son conducteur.

Le système est capable de reconnaître les humains, les panneaux d’arrêt et leurs emplacements comme présentés dans les données de formation. Toutefois, il n’est pas capable de ralentir lorsqu’il fait face à une combinaison inhabituelle de ces deux éléments.

Le manque de fiabilité et les complications de ces systèmes dans de nouveaux environnements ne sont pas toujours explicites.

Le système de DeepMind Gato a donné de bons résultats pour toutes les tâches assignées par l’entreprise. Toutefois, il a moins bien fonctionné que d’autres systèmes contemporains. La prose de GPT-3 est fluide. Mais le système éprouve toujours des difficultés avec l’arithmétique de base. Par ailleurs, son manque de contact avec la réalité fait en sorte qu’il crée des phrases du genre :

« Certains experts estiment que manger une chaussette permet d’aider le cerveau à sortir de son état altéré suite à une méditation. »

Bien entendu, aucun expert n’a jamais proclamé une telle chose.

Les entreprises d’intelligence artificielle ne jouent pas franc jeu

Dorénavant, les plus grands chercheurs en IA ne se trouvent plus dans les académies où on soumet leur travail à l’examen de pairs, explique Gary Marcus. Les plus grandes équipes de spécialistes en intelligence artificielle sont maintenant dans les entreprises.

Contrairement aux universités, les entreprises n’ont aucune incitation à jouer franc jeu. Leurs nouveaux articles ne sont pas soumis à un examen académique attentif. Ces entreprises ont opté pour la publication de communiqués de presse attractifs pour les journalistes qui omettent l’examen des pairs.

Dans l’industrie du logiciel, ce type de stratégie a un nom : demoware. Un demoware est un logiciel dont la conception est bonne pour une démo, mais pas pour le monde réel. La plupart du temps, ces démowares se convertissent en vaporwares, des produits informatiques qui servent à décourager les concurrents mais dont la date de sortie est chaque fois repoussée.

Les investissements consacrés à l’IA pourraient se tarir

Trop de produits automatisés ont fait l’objet de démos, de publicités et n’ont finalement jamais été commercialisés. Pour le moment, les investissements continuent. Toutefois, si on ne résout pas ces problèmes fondamentaux de fiabilité, les investissements dans des produits d’IA pourraient se tarir.

Marcus précise que nous nous retrouverons alors avec de puissantes deepfakes, avec d’amples réseaux émettant des volumes importants de carbone et avec de solides évolutions en matière de traduction automatique, de reconnaissance vocale et de reconnaissance d’objets mais avec peu de choses à montrer dans ce contexte de battage médiatique prématuré.

Les trois défauts majeurs de l’apprentissage automatique

L’apprentissage en profondeur a pu améliorer les performances des machines en ce qui concerne la reconnaissance des modèles dans les données. Toutefois, l’apprentissage automatique présente trois défauts majeurs :

  • Les schémas appris sont superficiels et non conceptuels
  • L’interprétation des résultats créés est difficile
  • L’utilisation des résultats est compliquée dans le contexte d’autres processus comme la mémoire et le raisonnement

Pour le moment, nous nous trouvons piégés dans une phase de « minimum local ». Dans cette phase, les entreprises sont à la recherche de repères plutôt que d’idées fondamentales.  Elles apportent des solutions minimes au moyen des technologies dont elles sont déjà en possession, au lieu de se poser des questions plus fondamentales.

Gary Marcus estime qu’au lieu de s’intéresser aux démonstrations spectaculaires d’IA publiées dans les médias, davantage de personnes soivent se poser les questions essentielles sur la manière de concevoir des systèmes d’intelligence artificielle capables d’apprentissage et de raisonnement simultanés. C’est la raison pour laquelle la recherche fondamentale en IA reste cruciale, conclut-il.