Deloitte Australia sotto accusa: un rapporto da 440.000 dollari infarcito di citazioni inventate da GPT-4o scuote il governo federale
Il governo australiano si trova al centro di uno scandalo clamoroso che mette in discussione l’uso dell’intelligenza artificiale nelle decisioni pubbliche. Un rapporto commissionato a Deloitte Australia, costato quasi 440.000 dollari, destinato a guidare l’automazione delle sanzioni nel welfare nazionale, è stato consegnato con un difetto gravissimo: numerose citazioni e riferimenti sono stati inventati da GPT-4o, il potente modello linguistico di ultima generazione. Il documento, pubblicato ad agosto dal Department of Employment and Workplace Relations e successivamente ritirato, ha scatenato un terremoto nel mondo accademico e politico australiano quando sono emerse le cosiddette “allucinazioni” nelle fonti bibliografiche.
La scoperta di un ricercatore: fonti inesistenti e false attribuzioni nel rapporto da centinaia di migliaia di dollari
La falla gigantesca è stata smascherata da Chris Rudge, un ricercatore della Sydney University, che ha individuato un numero impressionante di riferimenti a pubblicazioni mai esistite. Tra queste, spiccano lavori attribuiti alla docente Lisa Burton Crawford, che in realtà non ha mai scritto nulla del genere. Su 141 fonti originali, ben 14 sono sparite nella versione revisionata del rapporto, mentre una citazione completamente inventata è stata attribuita addirittura a una sentenza della giudice federale Jennifer Davies, anch’essa inesistente. Solo venerdì scorso, in una versione aggiornata di 273 pagine, Deloitte ha ammesso – nascosta a pagina 58 – di aver utilizzato una “catena di strumenti” basata su GPT-4o attraverso Azure OpenAI per generare tali riferimenti. La comunicazione ufficiale, però, ha tentato di minimizzare l’accaduto, definendolo un semplice aggiustamento di note e riferimenti, mentre il Dipartimento ha confermato che la sostanza del rapporto non è cambiata. Una tesi difficile da sostenere, considerata la portata delle falsificazioni.
Il meccanismo nascosto dietro l’inganno: come GPT-4o ha generato un falso bibliografico senza controlli
L’incidente esplode da una combinazione di errori prevedibili ma gravi. I modelli generativi come GPT-4o sono noti per “allucinare”, cioè inventare contenuti plausibili ma falsi, e in questo caso non era stato implementato alcun sistema automatico di verifica delle fonti. La governance editoriale di Deloitte, prima della consegna al cliente, si è rivelata insufficiente per intercettare queste anomalie. L’uso di una “catena di strumenti” suggerisce un processo in cui GPT-4o ha generato o completato bibliografie e riferimenti senza alcun meccanismo di ricerca verificata, senza controlli incrociati con database ufficiali come DOI, archivi giuridici o repository accademici. In un contesto delicatissimo che coinvolge diritto amministrativo, automazione sanzionatoria e politiche pubbliche, l’accuratezza delle fonti non è un dettaglio secondario: è il cuore stesso del mandato professionale.
Una lezione amara per il futuro: trasparenza, responsabilità e verifiche obbligatorie per i contenuti critici
Il nodo cruciale non è la presenza di modelli come GPT in sé, ma la modalità con cui vengono utilizzati. Non si può scaricare sul cliente o sull’utente finale la responsabilità di verificare l’accuratezza di analisi che influenzano decisioni sanzionatorie. In Australia, un colosso come Deloitte ha inciampato in un errore che non può essere sottovalutato: non si tratta di un semplice refuso in una nota, ma di un difetto strutturale nel processo di produzione del rapporto. Questo episodio lancia un monito urgente: servono trasparenza metodologica, sistemi automatizzati di controllo e una responsabilità esplicita da parte di chi gestisce contenuti sensibili. Chi opera in settori critici deve aggiornare subito le proprie procedure, prima che si arrivi a rimborsi forzati o rettifiche pubbliche imposte. La posta in gioco è altissima: la fiducia nelle istituzioni e nelle tecnologie che le supportano è un patrimonio da difendere con ogni mezzo.