La digitalizzazione, sempre più pervasiva, del settore sanitario solleva un tema molto importante che interessa da un lato l’importanza del ruolo del medico e dall’altra, in maniera più generale, la riduzione del ruolo decisionale dell’essere umano.
Queste preoccupazioni sono basate principalmente sulle possibili conseguenze negative che, già oggi, possono essere facilmente intuibili:
- Disumanizzazione della cura: L’impiego incrollato dei sistemi basati sull’AI può ridurre il rapporto umano tra medico e paziente, compromettendo la fiducia nel sistema sanitario.
- Eccessiva dipendenza dagli algoritmi: I medici potrebbero sviluppare una fiducia incondizionata verso i sistemi AI, riducendo il pensiero critico e la capacità di prendere decisioni in modo indipendente.
- Rischio di malfunzionamenti tecnologici: Un’interruzione o un bug nel sistema potrebbe avere conseguenze gravi, specialmente in contesti critici come il pronto soccorso o le sale operatorie.
Sicurezza informatica e minacce alla cybersecurity
A questo si aggiunga che le infrastrutture sanitarie sono, spesso, vulnerabili agli attacchi informatici, e l’uso diffuso dell’AI potrebbe aumentare i rischi:
- Hackeraggio dei dati sanitari: I sistemi basati su AI trattano e gestiscono enormi quantità di dati sensibili che possono diventare bersagli di attacchi informatici.
- Manipolazione dei modelli AI: Un cyber-attacco può alterare gli algoritmi, portando a diagnosi errate o suggerimenti terapeutici dannosi che hanno alla base un intento doloso.
- Interruzioni nei sistemi ospedalieri: Se un’intelligenza artificiale gestisce sistemi critici (come la distribuzione dei farmaci o la gestione delle emergenze), un malfunzionamento o un attacco informatico può compromettere una parte rilevante dell’intera infrastruttura sanitaria.
Come costruire un rapporto uomo-macchina in Sanità equilibrato e basato sulla fiducia?
Per mitigare i rischi associati all’uso dell’AI in sanità, è essenziale adottare un approccio equilibrato e regolamentato:
- Miglioramento della qualità dei dati: è fondamentale raccogliere e utilizzare dati di alta qualità, rappresentativi di tutte le fasce di popolazione e che siano soggetti a un modello rigoroso di certificazione sia della fonte che dei parametri impiegati.
- Trasparenza e rappresentatività: gli algoritmi dovrebbero essere più comprensibili e verificabili, consentendo ai medici di interpretare e validare in via esclusiva le decisioni suggerite dell’AI.
- Regolamentazione e standard etici: sono necessarie leggi e normative specifiche per garantire un uso etico e sicuro dell’AI in sanità.
- Sicurezza informatica avanzata: le istituzioni sanitarie devono adottare misure di protezione robuste per difendere i dati sensibili da attacchi esterni.
- Integrazione equilibrata tra AI e intervento umano: l’AI deve essere intesa come uno strumento di supporto ai medici, non come un sostituto, garantendo sempre un controllo umano sulle decisioni critiche.[TV1]