Ci siamo abituati a immaginare l’intelligenza artificiale come un sistema infallibile. Ma il vero problema oggi non è quando l’AI “inventa” qualcosa. È quando non ci dice che l’ha inventato. È qui che si rompe il patto di fiducia. Ed è qui che ogni decisione, ogni comunicazione, ogni contenuto rischia di perdere credibilità.
I numeri, non sempre aiutano a capire
Il nuovo modello GPT-5 è stato progettato per essere molto più affidabile e preciso rispetto alle versioni precedenti.
- In condizioni ottimali (cioè, quando riceve domande chiare, con buoni dati di partenza e in contesti controllati), il rischio che inventi informazioni, le cosiddette allucinazioni, si riduce tantissimo, arrivando solo all’1–2%;
- In situazioni reali e meno strutturate, invece (per esempio quando le richieste sono ambigue, confuse, incomplete o riguardano argomenti molto complessi), il modello può “riempire i vuoti” inventando contenuti. In questi casi, la probabilità di errore può crescere molto, addirittura fino al 70–80%.
In pratica: GPT-5 funziona meglio quando lavora in ambienti ben definiti, mentre in contesti caotici o poco chiari la sua affidabilità può calare drasticamente.
Che cosa influisce sulla precisione?
Il livello di precisione di GPT-5 non dipende solo dall’algoritmo, ma anche da:
- Fattore umano
- La qualità delle domande: una richiesta chiara, specifica e ben formulata riduce le allucinazioni dell’IA;
- La capacità di interpretare e validare le risposte: un esperto umano sa distinguere un contenuto plausibile da uno inventato, correggendo il modello quando serve;
- L’uso di prompting consapevole (prompt engineering): chiedere in modo mirato, con contesto e vincoli, aumenta la precisione.
- Predisposizione tecnologica dell’ambiente
- Dati e fonti affidabili a disposizione del modello (integrazione con database, knowledge base interne, API);
- Contesto strutturato: sistemi che filtrano e guidano l’uso dell’AI, riducendo l’ambiguità;
- Infrastruttura di controllo: monitoraggio, verifiche automatiche, pipeline di validazione.
In altre parole: se l’umano sa fare le domande giuste e l’ambiente tecnologico è ben progettato, GPT-5 diventa un assistente estremamente preciso. Se invece manca struttura (ambiente caotico) e l’utente non filtra o non guida bene, le performance possono crollare.
Un esempio concreto: studio genomico sui biomarcatori
In una situazione ottimale un gruppo di ricerca sul cancro al polmone fornisce a GPT-5:
- dataset genomici validati (es. TCGA, GDC);
- articoli peer-review recenti con metadati completi;
- annotazioni cliniche con provenienza chiara (ospedali, trial clinici).
Dopo aver “letto” tutto questo, GPT-5 suggerisce correlazioni tra mutazioni e risposta farmacologica basate su dati esistenti, citando precisamente gli studi (con DOI, autori, anno). Cosa ci protegge dagli errori? La tracciabilità del dato (posso vedere da dove proviene ogni correlazione), la qualità del dataset (filtrato, controllato), e il fatto che le fonti sono riconosciute nella comunità scientifica. Nel caso di una situazione “caotica”, invece, il ricercatore chiede: “Trova biomarcatori per un tumore raro X”, ma fornisce solo qualche abstract generico (non completo), qualche articolo obsoleto, accesso parziale ai dataset grezzi, verifica delle fonti non definitiva.
Allora GPT-5 può:
- inventare biomarcatori che non esistono;
- citare articoli che sembrano plausibili ma che non sono reali;
- creare correlazioni spurie (cioè, basate su coincidenze, non causali).
L’intelligenza artificiale in questo caso sta operando su fonti ambigue o non verificate, e quindi produce qualcosa di teoricamente coerente ma privo di fondamento scientifico.
Perché le fonti contano così tanto. I punti chiave
- Tracciabilità e auditabilità: se qualcuno vuole controllare, deve poter risalire al dato originale (dataset, pubblicazione);
- Qualità e controllo dei dati: dataset grezzi ben curati, senza errori, bias o duplicazioni, fanno la differenza;
- Diversità e rappresentatività: se i dati provengono solo da alcune popolazioni o centri, l’AI imparerà un quadro distorto (bias);
- Aggiornamento e revisioni: nella scienza i dati cambiano, le evidenze evolvono: le fonti devono essere aggiornate;
- Mitigazione delle “hallucinations”: se l’AI sa che ogni affermazione deve basarsi su fonti con certe credenziali, è più difficile che “inventi”.
Questo problema riguarda tutti, non solo i tecnici
La fiducia non si costruisce solo con modelli più evoluti. Si costruisce con regole chiare, metriche condivise, trasparenza nei limiti. Se oggi stai costruendo un brand, una comunicazione, una cultura aziendale, devi chiederti quanto margine di errore sei disposto ad accettare in ciò che pubblichi. Un dato sbagliato, se non dichiarato, può compromettere la tua reputazione.
Quali sono le scelte da intraprendere?
Ecco perché l’AI non può essere lasciata “correre da sola”. Servono processi di verifica, supervisione umana, responsabilità editoriale. Serve una cultura della qualità e dell’affidabilità dei contenuti. Ed è qui che si gioca la partita delle aziende che vogliono distinguersi. Non nella corsa a chi genera più contenuti. Ma nel ricavarsi il ruolo di chi genera contenuti credibili.
La necessità di porsi le domande giuste
Stai costruendo una strategia di innovazione o trasformazione basata su sistema AI? Sei davvero in grado di comprendere quando ti stanno rappresentando la verità e quando no? Perché oggi l’errore è tollerabile, l’ambiguità molto meno.
Diego De Renzis è CEO & Co-Founder della piattaforma picTЯUE, progetto italiano di Cyber Security nato con l’obiettivo di ripristinare la credibilità della relazione tra il mondo e la sua rappresentazione digitale e informativa.
