L’intelligenza artificiale è sempre più presente nel mondo della salute. Strumenti come chatbot e assistenti virtuali vengono usati per provare ad interpretare sintomi, cercare informazioni o orientarsi tra possibili diagnosi. Ma quando l’uso avviene in autonomia, senza supervisione clinica e con dati incompleti, il margine di errore può diventare molto elevato. Questo il messaggio che arriva da un nuovo studio pubblicato su JAMA Network Open e rilanciato dal Financial Times.
Oltre l’80% di errori nelle fasi iniziali
La ricerca ha analizzato il comportamento di diversi modelli linguistici applicati a casi clinici simulati. I sistemi sono stati testati nella fase iniziale del ragionamento medico, cioè quando il quadro è ancora aperto e le informazioni disponibili sono poche: età del paziente, sintomi generici, alcuni elementi di contesto. Proprio in questo passaggio, i chatbot hanno formulato diagnosi errate o inadeguate in oltre l’80% dei casi.
Il problema principale non è solo la risposta sbagliata, ma il fatto che molti modelli tendano a restringere troppo presto il campo delle ipotesi, concentrandosi su una sola possibilità invece di proporre una diagnosi differenziale, cioè una serie di alternative da verificare, che è invece uno dei passaggi centrali del lavoro clinico umano.
Performance migliori con dati più precisi
Il quadro cambia quando l’intelligenza artificiale riceve più informazioni: esami di laboratorio, imaging, dettagli clinici aggiuntivi e anamnesi completa. In questi scenari l’accuratezza cresce sensibilmente. Secondo lo studio, i tassi di errore scendono sotto il 40% e i modelli migliori superano il 90% di accuratezza nella diagnosi finale.
Questo significa che l’AI può essere molto utile, ma soprattutto quando viene inserita in un percorso strutturato, con dati di qualità e all’interno di un contesto professionale.
Il rischio dell’autodiagnosi digitale
Il punto critico riguarda quindi l’utilizzo “fai da te”. Un utente che inserisce pochi sintomi in modo frettoloso, magari senza conoscere elementi importanti della propria storia clinica, può ricevere indicazioni parziali, fuorvianti o rassicuranti quando non dovrebbero esserlo. O, al contrario, può allarmarsi inutilmente.
L’intelligenza artificiale, infatti, non visita il paziente, non osserva segnali non verbali, non esegue esami e non interpreta il contesto con la sensibilità di un professionista sanitario. Per questo una risposta automatica non può sostituire una valutazione medica.
Uno strumento utile che non sostituisce il medico
Il messaggio che emerge dallo studio non è, sottolineano i ricercatori, contro l’innovazione. L’intelligenza artificiale ha già dimostrato potenzialità importanti nel supporto alla diagnosi, nell’analisi di immagini, nella gestione dei dati e nell’organizzazione dei percorsi di cura. Ma l’efficacia dipende da come viene utilizzata.
In sanità, la tecnologia rende di più quando affianca il professionista e non quando prende il suo posto. L’uso consapevole, supervisionato e integrato nei processi clinici resta la strada più sicura.
La sfida dell’educazione digitale
Con la diffusione sempre maggiore degli strumenti generativi, il tema non è solo tecnico ma culturale. Serve aiutare cittadini e pazienti a capire cosa può fare davvero l’AI e quali sono i suoi limiti. Un chatbot può offrire informazioni generali, suggerire domande da porre al medico o aiutare a orientarsi. Non può però trasformarsi in un ambulatorio virtuale improvvisato.
