Negli ultimi anni l’AI ha smesso di essere soltanto un oggetto di ricerca e si è trasformata in un’infrastruttura tecnologica pervasiva, capace di incidere in profondità nei processi produttivi, comunicativi e decisionali delle società contemporanee. Tra i protagonisti di questa rivoluzione vi sono i modelli linguistici di grandi dimensioni, i cosiddetti Large Language Models (LLM), come GPT-4, GPT-5 e i loro equivalenti sviluppati da aziende concorrenti.
Le allucinazioni algoritmiche
Questi sistemi hanno dimostrato una straordinaria capacità di generare testi fluenti e rispondere a domande complesse. Sanno tradurre da lingue diverse, sintetizzare documenti, scrivere codice, comporre poesie e persino simulare conversazioni umane realistiche. Tuttavia, insieme a tali potenzialità, è emerso con forza un problema tanto insidioso quanto strutturale: quello delle allucinazioni algoritmiche.
Per allucinazione si intende la produzione di un contenuto che appare plausibile, coerente e ben formulato, ma che è in realtà falso, inesatto o del tutto inventato. OpenAI, in una delle sue più recenti pubblicazioni, descrive le allucinazioni come «affermazioni plausibili ma false prodotte con sicurezza». È questa la loro caratteristica più subdola: non solo l’errore, ma l’errore espresso con convinzione, in modo da indurre facilmente l’utente a prenderlo per vero. Gli esempi abbondano. Si pensi a un chatbot che, interpellato sul titolo di una tesi di dottorato di un noto ricercatore, fornisce con sicurezza un titolo inesistente; oppure a un sistema che, alla richiesta di una data di nascita, restituisce più risposte diverse, tutte sbagliate, senza alcun segnale di incertezza.
Il problema non si limita a casi aneddotici. Anche i modelli più avanzati, come GPT-5, che pure hanno significativamente ridotto la frequenza delle allucinazioni algoritmiche rispetto ai predecessori, non sono riusciti ad eliminarle del tutto. Ciò accade perché l’allucinazione non è un “bug” che si possa correggere con una patch o un aggiornamento, ma è il riflesso inevitabile del modo in cui i modelli apprendono e producono linguaggio: predizione statistica della parola successiva, basata su enormi quantità di testi, senza una reale comprensione del significato o della verità.
I pericoli a cui scoprono
Le risposte dei modelli, proprio grazie alla loro fluidità e coerenza, risultano spesso indistinguibili da quelle di un esperto umano. Questo dato rende il fenomeno preoccupante da un punto di vista sociale. Un avvocato che riceve da un modello una sintesi giuridica, un medico che legge un parere diagnostico generato automaticamente, un giornalista che utilizza l’IA per raccogliere informazioni: tutti costoro possono cadere nella trappola di accettare come veri contenuti che, pur apparendo perfettamente credibili, sono inventati. Le conseguenze possono andare dal banale inconveniente (una citazione bibliografica errata) fino al rischio grave (una diagnosi sbagliata, un atto giudiziario fuorviante, una decisione politica basata su informazioni false).
Non è un caso che il dibattito pubblico, scientifico e regolatorio si sia concentrato con crescente attenzione su questo fenomeno. La questione non riguarda soltanto la qualità tecnica dei sistemi, ma tocca aspetti più profondi: la fiducia nelle tecnologie, la responsabilità degli operatori, la trasparenza delle procedure, la tutela dei diritti fondamentali. Il rischio è che le allucinazioni algoritmiche, proprio perché convincenti, si insinuino in maniera invisibile nei processi decisionali, contaminando la catena dell’affidamento sociale senza che gli attori coinvolti se ne rendano conto.
Potete continuare la lettura cliccando su questo link.