Deloitte pris la main dans le sac : l’IA invente des références dans un rapport à 290 000$ pour le gouvernement australien »

Quand un chercheur de Sydney démasque un rapport gouvernemental de 290 000$ truffé de fausses références générées par ChatGPT

Chris Rudge ne s’attendait certainement pas à déclencher un scandale international ce jour d’août 2025 quand il a ouvert le rapport de Deloitte sur son écran. Ce chercheur en droit de la santé et des affaires sociales à l’Université de Sydney parcourait distraitement ce document de 237 pages publié par le gouvernement australien, quand son regard s’est arrêté net sur une référence troublante.

Selon le rapport, sa collègue Lisa Burton Crawford, professeure de droit constitutionnel à Sydney, aurait écrit un livre dont le titre sortait complètement de son domaine d’expertise. Rudge fronça les sourcils. Quelque chose clochait.

Une erreur qui était loin d’être isolée

Ce qui devait être une simple vérification de routine s’est transformé en véritable enquête. Plus Rudge creusait, plus les anomalies s’accumulaient. Des citations de juges fédéraux qui n’existaient pas. Des références académiques à des études fantômes. Des attributions d’articles à des experts qui n’avaient jamais écrit sur ces sujets.

« Le rapport était rempli de références fabriquées », déclarera plus tard Rudge aux médias, révélant l’étendue du problème.

L’ironie de la situation était saisissante : ce rapport, commandé par le Département de l’Emploi et des Relations de Travail australien pour 440 000 dollars australiens (290 000 $ US), était censé évaluer les systèmes automatisés de pénalisation du système d’aide sociale. Un système d’IA était chargé d’auditer… d’autres systèmes d’IA.

Une affaire qui fait le buzz

Quand Rudge a alerté les médias, l’affaire a explosé. Le Australian Financial Review a été le premier à révéler le scandale fin août, suivi rapidement par une avalanche de couverture médiatique internationale.

La réaction initiale de Deloitte révèle à quel point l’entreprise était prise au dépourvu. Dans un premier temps, le géant du conseil a fermement défendu son travail : « Deloitte maintient son travail et les conclusions du rapport » et « le contenu de chaque article référencé est exact ».

Mais cette défense s’est rapidement effondrée face à l’évidence. Quand les journalistes ont demandé à Deloitte de fournir les références correctes, l’entreprise a fourni une nouvelle liste qui… ne supportait toujours pas les affirmations du rapport original.

Deloitte finit par reconnaître son erreur

C’est en septembre 2025, plus d’un mois après le scandale, que Deloitte a finalement capitulé. Dans une version révisée discrètement publiée un vendredi, l’entreprise a fait un aveu qui a envoyé des ondes de choc dans l’industrie du conseil : le rapport avait été produit en partie avec Azure OpenAI GPT-4o.

Cette révélation tardive a transformé un embarras professionnel en crise de confiance majeure. Pourquoi cette information n’avait-elle pas été divulguée dès le départ ? Combien d’autres rapports Deloitte avaient été produits de la même manière sans que les clients le sachent ?

Une affaire qui tourne au scandale politique en Australie

Les politiciens australiens n’ont pas mâché leurs mots. La sénatrice Deborah O’Neill du Parti travailliste a lancé une attaque particulièrement mordante : « Deloitte a un problème d’intelligence humaine. Peut-être qu’au lieu d’un grand cabinet de conseil, les acheteurs feraient mieux de s’abonner à ChatGPT. »

La sénatrice des Verts Barbara Pocock a enfoncé le clou : « Deloitte a mal utilisé l’IA et l’a utilisée de manière très inappropriée : il a mal cité un juge, utilisé des références qui n’existent pas. » Elle a exigé un remboursement intégral des 290 000 dollars, et pas seulement le remboursement partiel proposé par Deloitte.

Un « fail » qui tombe au pire moment pour Deloitte

Le timing de cette affaire ajoute une dimension tragico-comique à l’histoire. Deloitte venait tout juste d’annoncer un investissement colossal de 3 milliards de dollars dans l’IA générative d’ici 2030. Quelques semaines seulement avant l’éclatement du scandale, l’entreprise avait conclu un partenariat avec Anthropic pour donner accès à Claude à ses 470 000 employés dans le monde.

Voici une entreprise qui se positionne comme leader de la transformation numérique, conseil les plus grandes organisations mondiales sur l’adoption de l’IA… et qui se fait prendre la main dans le sac pour avoir utilisé cette même technologie de manière irresponsable.

Des correctifs apportés à nouveau à l’aide d’une IA

Face à la tempête médiatique, Deloitte a tenté de minimiser l’impact. Dans sa version corrigée, l’entreprise a insisté sur le fait que « les mises à jour effectuées n’affectent en rien le contenu substantiel, les conclusions et les recommandations du rapport ».

Mais cette ligne de défense a été rapidement démolie par Rudge lui-même. Le chercheur a révélé que dans la version « corrigée », Deloitte avait remplacé chaque fausse référence par cinq, six, voire huit nouvelles références. « Ce que cela suggère, c’est que l’affirmation originale faite dans le corps du rapport n’était basée sur aucune source probante particulière », a-t-il déclaré.

En d’autres termes, Deloitte semblait avoir demandé à l’IA de justifier rétroactivement des affirmations faites sans fondement.

Un nouveau cas qui rappelle le danger de faire une confiance aveugle aux IA génératives

Cette affaire s’inscrit dans une série troublante d’incidents similaires à travers le monde. Des avocats new-yorkais sanctionnés pour avoir cité des affaires judiciaires inventées par ChatGPT. Air Canada tenu responsable des mensonges de son chatbot. Des journaux comme Sports Illustrated et CNET contraints de publier des corrections massives après avoir utilisé l’IA sans supervision.

Mais l’affaire Deloitte frappe différemment. Il ne s’agit pas d’une startup inexpérimentée ou d’un média en difficulté. C’est l’un des Big Four, une entreprise qui conseille les gouvernements et les plus grandes corporations mondiales, qui vient de démontrer publiquement qu’elle ne maîtrise pas les outils qu’elle vend à ses clients.

Les Leçons d’une Débâcle

Cette affaire révèle trois failles critiques dans l’adoption corporate de l’IA :

La tentation de la facilité : Utiliser l’IA pour accélérer la production sans mettre en place les garde-fous nécessaires.

Le manque de transparence : Ne pas divulguer l’usage de l’IA aux clients, créant une bombe à retardement réputationnelle.

L’illusion de la perfection : Faire confiance aveuglément aux outputs de l’IA sans vérification humaine rigoureuse.

Pour Deloitte, cette affaire représente bien plus qu’un remboursement de 290 000 dollars. C’est un rappel brutal que dans l’ère de l’IA, la confiance se gagne en décennies et se perd en une publication de blog.ch, diverses publications gouvernementales. Analyse basée sur les informations publiques disponibles au 15 octobre 2025.

Pour en savoir plus sur le pourquoi des hallucinations chez les IA

Ce contenu vous a plu ?

Inscrivez-vous gratuitement à notre newsletter et recevez chaque semaine l’actualité du SEO directement dans votre boîte email. Vous pouvez vous désabonner à tout moment !

    Laisser un commentaire

    Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.

    Neper AI - Cabinet de Conseil en IA
    Résumé de la politique de confidentialité

    Ce site utilise des cookies afin que nous puissions vous fournir la meilleure expérience utilisateur possible. Les informations sur les cookies sont stockées dans votre navigateur et remplissent des fonctions telles que vous reconnaître lorsque vous revenez sur notre site Web et aider notre équipe à comprendre les sections du site que vous trouvez les plus intéressantes et utiles.