Non, l’intelligence artificielle n’est pas (encore) une source d’informations

Non, l’intelligence artificielle n’est pas (encore) une source d’informations

25/05/2025 0 Par La rédaction

De plus en plus d’utilisateurs ont tendance à remplacer les moteurs de recherche ou les encyclopédies par des outils d’intelligence artificielle générative, avec le risque d’être induits en erreur.

Depuis son avènement, l’intelligence artificielle (IA) se présente comme pleine de promesses. Elle devient omniprésente dans la vie quotidienne, certains n’hésitant pas à s’en servir comme d’une source d’informations, à l’instar d’un moteur de recherche comme Google ou même d’un livre d’histoire.

La tendance sur le réseau social X, particulièrement, consiste à mentionner Grok, l’outil d’IA générative propriété de la plateforme, pour vérifier l’exactitude d’une publication. À coups de « Grok, est-ce vrai ? », le robot conversationnel devient pour certains presque une forme de Bible, l’instrument de validation ou de rejet ultime.

ChatGPT, Gemini, Claude et les autres outils d’intelligence artificielle disponibles sur le marché suscitent la même confiance. Au risque que les utilisateurs prennent des vessies pour des lanternes.

Quelques retours d’expérience recensés dans un article récent de CheckNews, la branche de vérification des informations du quotidien Libération, témoignent en effet d’une réalité que la majorité semble ignorer : les outils d’intelligence artificielle tels que ChatGPT ne constituent pas des références factuelles.

Des machines propices aux « hallucinations »

Les dérives de l’IA évoqués par Checknews vont du négationnisme – concernant le chiffre exact de la Shoah par exemple – à l’invention pure de données, comme lorsqu’on l’interroge sur le nombre d’entrées réalisées par le film d’animation chinois « Ne Zha 2« .

ChatGPT, en l’occurrence, a même créé de toutes pièces une affaire de harcèlement sexuel impliquant un professeur de droit californien parfaitement innocent, allant jusqu’à citer un article du Washington Post qui n’a jamais existé pour étayer ses propos.

C’est ce que l’on désigne dans le vocabulaire consacré par les « hallucinations » : des cas de génération par un modèle d’intelligence artificielle d’informations non factuelles.

Il s’agit, selon les spécialistes, d’un phénomène inhérent à la conception même de ces technologies. Contrairement à ce que l’on pourrait penser, les grands modèles de langage n’ont pas la moindre idée des données qu’ils génèrent.

Des outils plus indiqués certaines tâches…

« Les phrases qu’ils produisent semblent correctes – ils utilisent les bons types de mots dans le bon ordre. Mais l’IA ne sait pas ce que cela signifie. Ces modèles n’ont pas la moindre idée de ce qui est correct ou faux », explique Melissa Heikkilä, journaliste spécialisée dans l’intelligence artificielle pour le Financial Times.

David Chavalarias, directeur de recherche au CNRS, abonde dans le même sens auprès de CheckNews : « ChatGPT est une machine probabiliste, c’est-à-dire qu’elle a appris à partir de grandes quantités de textes comment s’enchaînent, de la manière la plus probable, différents mots, différentes chaînes de caractères. Mais elle ne comprend pas ce qu’elle manipule ».

Ces limites font de ces robots de bons outils pour certaines tâches spécifiques, comme traduire, écrire, reformuler ou programmer, entre autres. Mais jamais pour évoquer un fait ou pour recherche une information.