Deloitte pris au piège de l’intelligence artificielle

Deloitte pris au piège de l’intelligence artificielle

08/10/2025 0 Par La rédaction

Le géant du conseil va rembourser une partie des fonds reçus dans le cadre de la production d’un document qui s’est révélé truffé d’erreurs générées par l’IA.

Scandale pour Deloitte. Le célèbre cabinet de conseil est contraint de rembourser une partie de la somme reçue pour un travail défaillant.

Commandé en décembre 2024 par le Département de l’Emploi et des Relations de Travail australien, le rapport de 237 pages visait à auditer le système de paiement des prestations sociales, notamment pour les bénéficiaires du dispositif « Jobseeker ».

Coût de la facture : 440 000 dollars australiens (environ 290 000 dollars américains), pour un document finalement livré cette année avec de graves insuffisances. Le texte contenait en effet des références juridiques inexistantes, des citations attribuées à des juges qui n’ont jamais été prononcées, et même des personnes fictives utilisées comme sources.

Des erreurs directement imputables à l’utilisation d’une intelligence artificielle générative, selon le journaliste économique Daniel Ziffer, qui a enquêté sur l’affaire après la révélation de l’imposture par Chris Rudge, chercheur à l’Université de Sydney.

Quand l’IA invente pour combler ses lacunes

« L’intelligence artificielle veut vous satisfaire, alors elle fait ce qu’on appelle une hallucination, ce qui revient essentiellement à inventer des informations pour combler les lacunes. Elle fournit un produit qui ressemble beaucoup à quelque chose de réel, avec des références juridiques et tous les éléments appropriés, mais certains de ces éléments peuvent être complètement inventés« , explique Daniel Ziffer.

Face au scandale, Deloitte a procédé en plus du remboursement partiel des frais perçus, à une mise à jour du rapport, en modifiant les références erronées et y ajoutant des notes de bas de page pour signaler les erreurs précédemment commises.

L’incident n’est malheureusement pas isolé. Des situations similaires ont déjà été observées dans le domaine juridique, où des avocats ont soumis aux tribunaux des précédents juridiques entièrement fabriqués par l’IA, avant d’être démasqués par des juges vigilants.

L’affaire met en lumière les limites actuelles de l’intelligence artificielle dans des domaines où la rigueur méthodologique et la vérification des sources sont indispensables.

Le régulateur britannique avait mis en garde

En juin, le Financial Reporting Council (FRC), le régulateur britannique de la comptabilité, a adressé une mise en garde aux cabinets du “Big Four” (Deloitte, EY, KPMG et PwC) concernant l’expansion rapide des outils d’intelligence artificielle dans les missions d’audit et de conseil.

Le FRC constatait que si les cabinets surveillaient l’usage de ces technologies — notamment pour leur acquisition ou leur implémentation — seuls, à l’exception d’un cabinet non cité, n’avaient pas instauré d’indicateurs clés de performance (KPI) permettant de suivre l’impact de l’IA sur la qualité des audits réalisés.

L’organisme soulignait en particulier le risque de déléguer l’analyse des risques, la vérification des éléments probants et la rédaction des rapports à des modèles génératifs, capables de produire des contenus crédibles, mais non systématiquement vérifiés.