C’è una cronicità che attraversa la sanità più di molte diagnosi: la scarsità di risorse umane. Non è solo un problema di turni o organici, questa cronicità rischia di modificare il tempo della cura, lo spazio della relazione rendendo più sottile ciò che ha sempre caratterizzato «l’ad-sistere» e cioè la presenza. L’empatia artificiale in sanità può contribuire a risolvere il problema? L’Organizzazione Mondiale della Sanità stima una carenza globale di circa 11 milioni di operatori sanitari entro il 2030. Questa stima non è solo un numero. È un vero e proprio indicatore di futuro, un futuro che prevede meno “presenze” quindi meno ascolto, meno attenzione, meno umanità.
Abbiamo fatto passi enormi in ambiti fondamentali quali linguaggi standardizzati e disciplinari, tecniche assistenziali di cura e monitoraggio, refertazione, riabilitazione, telemedicina, robotica di supporto. Passaggi necessari ma mentre ottimizzavamo i processi, qualcosa restava sullo sfondo. Il «come della cura», il modo in cui il gesto, la parola e lo sguardo si riempiono di intenzione diventando cura. È qui che la tecnologia oggi tenta un salto entrando nella relazione, non soltanto come canale digitale (televisita, app, chat), ma come presenza che prova a imitare alcune qualità dell’incontro.
Considerando lo studio di Jia e colleghi che parlano di empatia artificiale, dal suo prezioso punto di vista, l’empatia è delegabile?
«C’è una differenza tra utilizzare e delegare ad un ausilio. Utilizzare un ausilio sostiene una funzione senza spostare la responsabilità. Una delega trasferisce altrove ciò che richiederebbe presenza, reciprocità e discernimento. E l’empatia artificiale è seducente perché è “perfetta” per un mondo stanco poiché è sempre disponibile. Non giudica, non si irrita, non si distrae, non chiede il costo della relazione».
«La delega empatica è una tentazione sociale prima ancora che clinica. Viviamo meno interazioni, spesso meno desiderio di interazioni complesse; il contatto umano costa, espone, chiede tempo e disponibilità emotiva. La relazione autentica non è on demand. Essa richiede reciprocità, tolleranza dell’imprevisto, capacità di restare in ciò che non si risolve subito. Un agente artificiale, invece, è sempre presente, non giudica, risponde con tono stabile, non si stanca. Proprio per questo può diventare seducente. Non perché cura meglio, ma perché non chiede il prezzo della relazione».
Cosa si perde se togliessimo la relazione umana, lasciando spazio esclusivamente alla tecnologia?
«La relazione umana è inevitabilmente, ma meravigliosamente, imperfetta poiché fatta di tempo che non basta, di parole a volte improvvisate, di emozioni che escono spontanee. Ed è proprio questa imperfezione a renderla vera. Una risposta artificiale può essere fluida e gentile ma alla cura e alla relazione non basta solo fluidità. Esse necessitano di responsabilità e consapevolezza dell’incontro con l’altro».
La domanda allora diventa scomoda: cosa succede se la simulazione empatica diventa lo standard atteso, e la relazione umana viene percepita come un difetto?
«L’empatia artificiale in sanità può essere immaginata come un cloud relazionale. Una memoria che ricorda preferenze, routine, stile comunicativo e restituisce continuità in mezzo alle assenze. Questo può aiutare davvero per sostenere percorsi ripetitivi, alleggerire micro fatiche, offrire rinforzi di base, intercettare segnali di disagio come allerta. Ma lo stesso cloud può portare a rischio di attaccamento, dipendenza fino alla progressiva sostituzione della socialità autentica con una presenza più semplice, più liscia, più comoda. “E quando la relazione si fa comoda, spesso smette di farci crescere” (Han 2016)».

«C’è un rischio clinico che oggi non possiamo ignorare: la persuasività. Un sistema generativo può produrre risposte convincenti ma inesatte. E quando l’errore è confezionato bene, con tono empatico e rassicurante, la fiducia cresce proprio dove dovrebbe attivarsi la cautela. In sanità un’informazione incompleta ma corretta può essere etica, rispettando i principi di beneficenza e non maleficenza. Ad esempio: un’informazione sbagliata ma comunicata con grande empatia può diventare pericolosa perché credibile, perché dà risposte a chi le chiede in un momento di fragilità».
«Per questo l’empatia artificiale non può mai essere priva di cornice etica e fatta di trasparenza, supervisione, tracciabilità, limiti chiari e responsabilità umana. Byung Chul Han (2025) descrive una deriva del nostro tempo: “l’erosione dell’alterità a favore di un mondo levigato, senza attrito“. Dove tutto è accessibile, immediato, ottimizzato. In un mondo così, l’altro rischia di essere tollerato solo se non disturba, se non eccede, se non chiede troppo. In un mondo in cui ciò che è levigato e liscio non ferisce e non oppone resistenza una bellezza senza increspature diventa facilmente consumabile, è la promessa del comfort digitale: relazione senza attrito, ma anche senza alterità».
Dove possiamo collocare l’empatia artificiale in sanità?
«L’empatia artificiale si inserisce perfettamente in questa dinamica offrendo una relazione che non scalfisce, non contraddice, non mette in crisi creando, viceversa, un comfort digitale. Ma la cura, quella vera, non è sempre confortevole. La cura autentica è anche frizione, restare quando l’altro è difficile e la sofferenza fa si fa sentire e non c’è una soluzione pronta. Se abituiamo le persone che assistiamo e i professionisti a una relazione “liscia”, rischiamo di perdere il vero dell’incontro, cioè la capacità di reggere l’ambivalenza, la lentezza, la vulnerabilità. E allora la tecnologia non ci aiuta a curare ma ci aiuta a evitare, evitare la fatica dell’umano».
Quando l’empatia artificiale in sanità aiuta e quando impoverisce?
«Aiuta se resta un ausilio controllato con pazienti isolati, percorsi ripetitivi e lunghi. Diviene. Sostegno motivazionale dentro protocolli sicuri, training comunicativo, supporto educativo a caregiver, monitoraggio del tono emotivo come allerta per attivare l’umano. Impoverisce se diventa delega in sostituzione della presenza professionale umana. Se usata senza personalizzazione con persone fragili, se ci si affida senza supervisione a sistemi generativi non governati trasformando la tecnologia in principale luogo di fiducia e relazione.
«Qui voglio inserire due concetti che, per me, tengono insieme il senso della cura e il limite della tecnologia: la compassione e la coscienza. La compassione è empatia in azione, non è solo sentire con l’altro, comprendere come l’altro si percepisce nella situazione di malattia. E’ assumere intenzionalmente la responsabilità di un pezzo del suo peso e cercare una risposta buona, proporzionata, concreta. La compassione impedisce all’empatia di diventare semplicemente uno stile comunicativo trasformandola in responsabilità non delegabile a un algoritmo. Nasce da una scelta morale che esprime che cosa è giusto fare adesso per questa persona e in questo contesto.
«La coscienza è il luogo dell’incontro tra la mia morale e il dovere di assistere, tra il dialogo interiore e la relazione di cura, tra rispetto per me e accoglienza dell’altro. Non è un tribunale interiore, ma una stanza dove l’agire viene interrogato con onestà, e incontra le fragilità, le paure e le speranze di tutti. È lo spazio in cui la cura smette di essere soltanto prestazione e torna a essere fedeltà al volto che ho davanti, alla vulnerabilità che mi è affidata, alla verità possibile che posso sostenere senza tradire.
«Se l’empatia artificiale ci aiuta a liberare tempo e risorse per la relazione umana, allora è alleata. Se invece diventa la scorciatoia con cui evitiamo l’umano proprio quando pesa di più, allora non potenzia la cura: la impoverisce. In fondo, la domanda non è «può una macchina sembrare empatica», ma «noi vogliamo ancora esercitare compassione e custodire coscienza, cioè restare pienamente umani mentre curiamo?».
