Chatbot emotivi: minaccia o opportunità per il benessere psicologico?

L’utilizzo dell’AI nella salute mentale comporta dei rischi: con un uso consapevole di chatbot, questi rischi possono essere superati. L’articolo di Gabriele Sansevero, membro attivo di BraYn, responsabile della sessione scientifica di NEUROPHYSIOLOGY & NEURALPLASTICITY e Ricercatore dell'Istituto di Neuroscienze del CNR.
chatbot

Negli ultimi anni, l’intelligenza artificiale (AI) si è rapidamente diffusa in numerosi ambiti della vita quotidiana, inclusa la salute mentale. Un numero crescente di persone interagisce quotidianamente con assistenti virtuali, chatbot e strumenti basati su algoritmi generativi per affrontare situazioni emotivamente difficili, spesso utilizzando impropriamente queste risorse come sostituti della terapia professionale. Studi recenti evidenziano come il loro uso, se non guidato, possa essere controproducente. 

L’effetto ELIZA e il rischio del fai-da-te

Un’indagine dell’università di Stanford sottolinea che i chatbot terapeutici possono non solo mancare di efficacia rispetto ai terapeuti umani, ma generare risposte potenzialmente dannose (Stanford, 2024), mentre un’analisi del Financial Times riporta che, nell’uso reale da parte di utenti vulnerabili, l’accuratezza percepita si riduce drasticamente (dal 94,9 % al 34,5 %) (Financial Times, 2024). Queste evidenze scientifiche rafforzano l’idea che, nonostante la loro accessibilità e disponibilità 24/7, questi strumenti non possano sostituire una relazione terapeutica qualificata. 

La natura apparentemente empatica e reattiva degli strumenti di AI generativa, nota come effetto ELIZA(Wikipedia, 2025), può facilmente confondere l’utente inesperto, suggerendo erroneamente la presenza di una comprensione emotiva profonda che, al contrario, manca completamente nelle attuali implementazioni tecnologiche. L’AI, per quanto sofisticata, non possiede autentica empatia o consapevolezza emotiva, e questo limite cruciale implica che non possa sostituire la relazione terapeutica umana, fondata sulla capacità di percepire e interpretare le complesse sfumature delle emozioni e dei comportamenti umani.

chatbot
Gabriele Sansevero

Screening e interventi precoci: cosa dicono le ricerche 

Tuttavia, nonostante queste criticità, l’intelligenza artificiale potrebbe svolgere un ruolo significativo nella salute psicologica, se opportunamente indirizzata. Una delle principali potenzialità riguarda infatti la possibilità di raccogliere dati preziosi in modo precoce e continuativo (Nature, 2025ArXiv, 2025). Chatbot intelligenti, ad esempio, potrebbero monitorare quotidianamente lo stato emotivo degli utenti, cogliendo piccoli segnali di cambiamento nel linguaggio, nell’umore e nelle abitudini che spesso sfuggono alle valutazioni periodiche effettuate dai professionisti della salute mentale. 

L’uso dell’AI come strumento di monitoraggio e screening precoce potrebbe rivelarsi particolarmente utile nel riconoscimento tempestivo di sintomi depressivi, ansiosi o di stress cronico (JAD, 2025), consentendo un intervento professionale rapido e mirato. L’integrazione di algoritmi predittivi, basati sull’analisi di grandi quantità di dati anonimizzati provenienti da vari utenti, potrebbe ulteriormente aumentare l’efficacia di queste applicazioni, individuando pattern comportamentali associati a specifici disturbi e contribuendo alla definizione di strategie preventive più efficaci (PM, 2025).

AI al servizio dell’accessibilità: abbattere barriere sociali 

Inoltre, la possibilità di utilizzare queste tecnologie per individuare precocemente segnali di disagio emotivo potrebbe essere particolarmente vantaggiosa per gruppi demografici che hanno difficoltà ad accedere ai servizi tradizionali di salute mentale, a causa di stigma sociale, barriere economiche o geografico-logistiche. Un chatbot disponibile 24 ore su 24, anonimo e facilmente accessibile attraverso smartphone e altri dispositivi digitali potrebbe abbassare significativamente la soglia di accesso al supporto iniziale, riducendo il tempo che intercorre tra l’insorgenza dei primi sintomi e l’inizio del percorso terapeutico vero e proprio (NEJM, 2025).

Tra opportunità e responsabilità: etica, privacy e limiti 

Per rendere questa visione concreta, però, occorre sviluppare modelli etici rigorosi e quadri regolamentari ben definiti che disciplinino l’uso dell’ AI nella salute mentale, stabilendo chiaramente quali limiti non possano essere superati e quali interventi siano di esclusiva competenza umana (JMSP, 2024). 

La formazione degli utenti sull’uso corretto e consapevole di queste tecnologie è altrettanto cruciale, così come la sensibilizzazione sulla necessità imprescindibile di consultare professionisti qualificati per una valutazione approfondita e competente della propria salute psicologica. Pertanto, affinché l’intelligenza artificiale possa essere davvero un alleato prezioso nella salute mentale, è fondamentale adottare un approccio consapevole, basato su solide regole etiche e sull’indispensabile collaborazione con le competenze specialistiche dei professionisti della salute mentale.

Facebook
X
LinkedIn
WhatsApp

ARTICOLI CORRELATI

Vedi tutti gli articoli della sezione:

Vuoi contribuire alla discussione?

Cosa ne pensi di questo tema? Quali sono le tue esperienze in materia? Come possono divenire spunto di miglioramento? Scrivi qui ed entra a far parte di B-Sanità: una comunità libera di esperti ed esperte che mettono assieme le loro idee per portare le cure universali nel futuro.

Cerca

Compila il form per scaricare il Libro bianco

ISCRIVITI