Sanità Digitale: come difenderla dai rischi dell’AI

Automazione, sicurezza informatica e regole etiche: il futuro dell’intelligenza artificiale in medicina dipende dall’equilibrio tra tecnologia e umanità. Una riflessione di Diego De Renzis, esperto di Cybersecurity e AI, CEO & Co-Founder del progetto picTRUE.
sanità digitale ai

Nel mondo digitale, chi può alterare le immagini può condizionare la realtà. Una delle potenzialità offerte dell’AI è la capacità, oggi pienamente matura, di manipolare i dati, lacerando la membrana tra ciò che è vero e falso. Questo assume un particolarmente significato nella sanità, sia per i rischi collegati alla salute delle persone, sia per la possibilità concreta di compromettere la fiducia nel sistema della sanità digitale. 

La proliferazione di contenuti manipolati può minare la fiducia generale nel sistema sanitario, nelle informazioni mediche e nei confornti dei professionisti della salute, rendendo più difficile la comunicazione e l’adesione alle terapie.

Se vogliamo adottare un paragone con il sistema finanziario, basti pensare che è sufficiente operare un attacco informatico che vada a buon fine per minare definitivamente la fiducia verso l’intero modello di gestione delle transizioni digitali; elemento del quale le istituzioni finanziarie sono così consapevoli da destinare ogni anno 32mld/€ ai soli investimenti in cybersecurity a livello mondiale.

Tecnologia e sicurezza: misure per mitigare i rischi

Per affrontare questi rischi, è fondamentale adottare un approccio multidisciplinare che includa:

  • Regolamentazione e standard etici

L’AI potrebbe amplificare le disuguaglianze già presenti nel settore sanitario, stigmatizzando le disparità tra le diverse fasce della popolazione:

  • Esclusione di pazienti non rappresentati nei dataset

Se gli algoritmi sono addestrati su dati che non includono adeguatamente minoranze o persone con condizioni specifiche, i modelli potrebbero non essere accurati per tutti.

  • Costo elevato delle tecnologie AI

L’implementazione di soluzioni AI avanzate è costosa e potrebbe essere accessibile solo a strutture sanitarie ben finanziate, lasciando indietro quelle con risorse limitate.

  • Decisioni basate su criteri discriminatori

Alcuni algoritmi potrebbero favorire alcuni gruppi di pazienti rispetto ad altri, basandosi su dati storici che contengono pregiudizi sociali o economici.

  • Trasparenza e interpretabilità

Promuovere lo sviluppo di sistemi di AI più trasparenti e interpretabili, che consentano ai medici di comprendere il ragionamento alla base delle decisioni dell’algoritmo.

  • Audit e validazione

Sottoporre i sistemi di AI a rigorosi processi di test, audit e validazione con dati diversificati e reali prima della loro implementazione metodologica e clinica definitiva, monitorando costantemente le loro prestazioni.

  • Formazione e consapevolezza

Educare i professionisti sanitari e il pubblico sui rischi dell’AI e della manipolazione delle immagini, fornendo strumenti per identificare contenuti falsi e promuovendo il pensiero critico.

  • Tecnologie di rilevamento

Sviluppare e implementare strumenti avanzati per rilevare deepfake e immagini manipolate, integrando queste tecnologie nei sistemi di gestione delle informazioni sanitarie.

  • Rafforzamento della sicurezza informatica

Migliorare la sicurezza delle infrastrutture IT sanitarie per prevenire attacchi che potrebbero sfruttare i deepfake per accedere o manipolare dati sensibili.

In sintesi, l’AI e la manipolazione delle immagini offrono un potenziale enorme per migliorare l’assistenza sanitaria, ma è essenziale affrontare proattivamente i rischi associati per garantire che queste tecnologie siano utilizzate in modo sicuro, etico e responsabile.

L’uso dell’intelligenza artificiale in medicina comporta l’elaborazione di immagini diagnostiche (come radiografie, TAC, risonanze magnetiche) e dati sanitari sensibili. Tuttavia, ciò presenta diversi rischi di sicurezza, che possono avere conseguenze gravi per la privacy dei pazienti e per l’integrità delle informazioni mediche.

Ad oggi le linee guida di contrasto alla falsificazione o l’utilizzo improprio dell’AI e dei suoi prodotti prevedono:

  • Consenso informato

Qualsiasi uso dell’immagine, della voce o dei dati gestiti da un medico o appartenenti a un paziente dev’essere autorizzato in modo esplicito. Dove per esplicito si intende la chiara rappresentazione e tracciabilità circa l’utilizzo dei dati stessi, sia nel presente che per il futuro.

  • Trasparenza

I contenuti generati dall’AI devono essere dichiarati come tali (es. con etichette tipo: “video generato da intelligenza artificiale”) e rappresentare in maniera inequivocabile solamente un modello di simulazione 

  • Responsabilità

Chi crea, diffonde o sponsorizza un deepfake medico è responsabile penalmente e civilmente delle conseguenze.

  • Verificabilità scientifica

Le affermazioni sanitarie devono basarsi su evidenze cliniche verificate e non su strumenti generativi non controllati.

Facebook
X
LinkedIn
WhatsApp

ARTICOLI CORRELATI

Vedi tutti gli articoli della sezione:

Vuoi contribuire alla discussione?

Cosa ne pensi di questo tema? Quali sono le tue esperienze in materia? Come possono divenire spunto di miglioramento? Scrivi qui ed entra a far parte di B-Sanità: una comunità libera di esperti ed esperte che mettono assieme le loro idee per portare le cure universali nel futuro.

Cerca

Compila il form per scaricare il Libro bianco

ISCRIVITI