Fabrizio Degni smonta l’idea che le IA ragionino: secondo lui sono modelli statistici, non menti consapevoli.
In un’intervista recente, Fabrizio Degni affronta un tema centrale del dibattito contemporaneo sull’intelligenza artificiale: l’equivoco che l’IA “pensi” o abbia coscienza. Secondo lui, i modelli moderni, per potenti che siano, restano sofisticati pattern statistici. Non comprendono, non progettano, non hanno volontà: generano risposte plausibili in base ai dati su cui sono stati addestrati. Definirli “intelligenti” rischia di alimentare illusioni e aspettative irragionevoli.
IA come “pappagallo stocastico”, non come mente pensante
Degni utilizza l’espressione “pappagallo stocastico” per sottolineare un concetto chiave: l’intelligenza artificiale non “pensa” né “comprende” il mondo che descrive, ma si limita a riprodurre, attraverso algoritmi statistici, risposte plausibili basate sulla probabilità. In altre parole, quando un modello genera una frase coerente, non lo fa perché possiede una coscienza o un’intenzione comunicativa, ma perché è stato addestrato a prevedere quale parola o sequenza di parole è più probabile dopo un certo input. Questo significa che dietro l’apparente fluidità linguistica e la capacità di risolvere problemi non vi è un vero processo di ragionamento. L’IA non conosce il contesto nel senso umano, non ha memoria esperienziale, non sa distinguere tra verità e falsità. I suoi output sono prodotti da calcoli matematici su grandi quantità di dati passati, senza alcuna consapevolezza del loro significato reale. Un esempio pratico chiarisce il concetto: se chiediamo a un modello di scrivere un testo sulla rivoluzione francese, l’IA non “sa” cosa sia stata la rivoluzione francese; piuttosto, ha memorizzato e appreso schemi linguistici da testi che la descrivono e, calcolando probabilità, compone una risposta che appare sensata. È proprio questa mancanza di consapevolezza a rendere il paragone con un pappagallo efficace: come l’animale ripete suoni senza comprenderli, così l’IA riproduce linguaggio senza coscienza.
I rischi della personificazione dell’IA
Attribuire all’IA qualità umane come pensiero, volontà o creatività può diventare pericoloso. Quando i sistemi vengono presentati al pubblico come “esseri pensanti”, si rischia di alimentare illusioni che portano a usi impropri. Una persona che crede che l’IA possa davvero prendere decisioni autonome potrebbe delegare compiti critici a un sistema che, in realtà, non ha alcuna capacità di giudizio. Le conseguenze possono essere gravi. Affidare scelte mediche, legali o finanziarie a un algoritmo senza la supervisione di un esperto umano significa rischiare errori irreparabili. L’IA non distingue il giusto dallo sbagliato, non valuta implicazioni morali, non comprende il concetto di responsabilità. Eppure, la sua capacità di generare testi fluidi o risposte convincenti può indurre a credere il contrario. Degni mette in guardia proprio da questo rischio: se si continua a raccontare l’IA come un “cervello elettronico” capace di ragionare, si finirà per attribuirle ruoli che non può svolgere. Già si sono registrati casi in cui utenti hanno seguito ciecamente indicazioni sbagliate prodotte da sistemi automatici, con danni reali. Per questo è fondamentale mantenere una narrativa critica, che riconosca i limiti strutturali di questi strumenti. Un altro pericolo della personificazione è la tendenza a scaricare sull’IA la responsabilità degli errori. Se un algoritmo prende una decisione discriminatoria o produce un risultato falso, non possiamo dire che sia “colpa dell’IA”. La responsabilità resta di chi ha progettato, addestrato e implementato il sistema, non di un software che non ha coscienza.
Cosa resta dell’IA: strumento avanzato ma con confini precisi
Nonostante i limiti, l’IA resta uno strumento potentissimo. Può analizzare grandi quantità di dati, individuare schemi che un essere umano non vedrebbe a colpo d’occhio, automatizzare attività ripetitive e suggerire soluzioni in tempi rapidissimi. Nella medicina, per esempio, l’IA è già in grado di leggere migliaia di immagini radiologiche e segnalare possibili anomalie, accelerando il lavoro dei medici. Nel mondo della finanza, supporta analisi di mercato e previsioni. Nel customer service, fornisce risposte rapide e personalizzate agli utenti. Tuttavia, Degni ribadisce che tutto ciò deve avvenire entro confini chiari. L’IA non sostituisce il pensiero umano, ma lo supporta. È una tecnologia che funziona solo in presenza di dati su cui è stata addestrata, e quando esce da quel perimetro può generare errori anche grossolani. Se le si chiede di inventare soluzioni oltre i dati che conosce, produce allucinazioni: risposte convincenti ma completamente false. Ecco perché la sua adozione deve essere sempre accompagnata da figure umane in grado di interpretare e validare i risultati. Non un oracolo da seguire ciecamente, ma uno strumento avanzato che, nelle mani giuste, può diventare un alleato formidabile. In questo senso, l’intervento di Degni si inserisce in un dibattito necessario: riportare equilibrio nel discorso pubblico sull’intelligenza artificiale. L’IA non è un essere pensante, e riconoscerlo è l’unico modo per utilizzarla al meglio, senza farsi ingannare dalle apparenze di una “conversazione naturale” che, in realtà, non è altro che statistica travestita da linguaggio.