I rischi dell’AI applicata al settore della Sanità

L’intelligenza artificiale sta rivoluzionando la medicina, ma solleva interrogativi critici in termini di accuratezza, trasparenza e giustizia sociale. Una riflessione di Diego De Renzis, esperto di Cybersecurity e AI, CEO & Co-Founder del progetto picTRUE.
AI sanità

L’accelerazione che negli ultimi anni ha visto lo sviluppo dell’intelligenza artificiale (AI) e più in generale l’evoluzione delle nuove soluzioni digitali destinate alla gestione, l’elaborazione e il trattamento dei dati, siano questi di natura testuale oppure di tipo immagine, sta segnando in maniera determinante anche la trasformazione del settore della Sanità, offrendo grandi opportunità sul piano scientifico, industriale e di applicazione metodologica.

Altresì, questa importante fase di cambiamento ha portato all’attenzione degli addetti ai lavori, e più recentemente anche del grande pubblico, il dibattito relativo ai rischi significativi così come i temi di natura etica che devono essere attentamente compresi e gestiti.

Rischi dell’AI nella Sanità

Oggi, l’AI è sempre più utilizzata nell’analisi e il trattamento delle immagini mediche (e.g. radiografie, risonanze magnetiche, TC) per supportare la diagnosi e il trattamento sanitario. Tuttavia, sono diverse le preoccupazioni che stanno emergendo, alcune delle quali interessano i seguenti aspetti:

Errori diagnostici, falsi positivi e falsi negativi

Gli algoritmi di AI possono generare diagnosi inesatte (identificando una patologia inesistente oppure non rilevandone una presente) qualora i dati di addestramento siano insufficienti, di scarsa qualità o non rappresentativi di uno specifico campione della popolazione effettiva. Questo può portare a trattamenti inappropriati o a ritardi nelle diagnosi di patologie ritenute critiche.

Allucinazioni dell’AI

Come già verificatosi per altri sistemi basati sull’AI, anche quelli impiegati per l’analisi delle immagini possono generare risultati che non corrispondono alla realtà, rendendo complessa per i medici la fase di analisi e distinzione dei risultati autentici rispetto a quelli “concepiti” dai sistemi basati su AI.

AI sanità
Al centro, Diego De Renzis

Mancanza di trasparenza (Black Box)

Molti algoritmi di AI sviluppati per il mercato, in particolare quelli basati sulle reti neurali profonde (Deep Learning), cioè ispirati concettualmente al funzionamento del cervello umano, diversi strati di trattamento “logico” del dato che infine restituiscono una specifica informazione, funzionano come delle “scatole nere“, e questo rende più complessa, talvolta problematica, la comprensione del “percorso” seguito del sistema per l’elaborazione e l’attribuzione di una determinata diagnosi. 

Questa opacità può compromettere la fiducia dei medici nell’adozione delle nuove tecnologie, nel momento in cui la verifica e la correzione dei possibili errori, in ogni caso, rimane comunque all’interno della logica di elaborazione del sistema, limitando di fatto l’operato di chi invece deve gestire, governare e “guidare” la tecnologia, cioè il professionista medico-sanitario.

Addestramento: Bias cognitivi e discriminazione 

Nel momento in cui i dataset (una raccolta organizzata di informazioni impiegata per addestrare, testare o valutare un modello di AI) impiegati per allenare l’intelligenza artificiale, non sono sufficientemente diversificati oppure tengono in considerazione dati provenienti solamente da specifici gruppi demografici o sociali (es. età, genere, etnia), si potrebbe generare una analisi meno accurata da parte di un sistema di AI o addirittura discriminatoria nei confronti dei gruppi sociali non ritenuti rilevanti e quindi esclusi dal dataset iniziale di analisi. 
Ad esempio, un algoritmo allenato prevalentemente su immagini o dati riferiti a pazienti caucasici potrebbe restituire un dato diagnostico poco consistente o limitato, rispetto a patologie che interessano pazienti di altre o diverse etnie.

Disuguaglianze nell’accesso alle cure mediche

Una adozione non regolamentata delle soluzioni basate su AI, può stigmatizzare le disuguaglianze nell’accesso ai servizi di assistenza, qualora la disponibilità dei servizi digitali sia disponibile oppure resa disponibile solamente ai contesti sociali che hanno possibilità di fruire in modo privilegiato delle nuove tecnologie digitali.

Responsabilità e Ambiti legali

In caso di errore diagnostico o terapeutico causato da un sistema di AI non addestrato correttamente o deficitario di un dataset inziale sufficientemente ampio e consistente, la definizione della responsabilità (medico, specialista, sviluppatore del software, struttura sanitaria, ospedale) necessita di una gestione specifica, dedicata e profonda, all’interno di un quadro normativo di riferimento completamente nuovo.

Facebook
X
LinkedIn
WhatsApp

ARTICOLI CORRELATI

Vedi tutti gli articoli della sezione:

Vuoi contribuire alla discussione?

Cosa ne pensi di questo tema? Quali sono le tue esperienze in materia? Come possono divenire spunto di miglioramento? Scrivi qui ed entra a far parte di B-Sanità: una comunità libera di esperti ed esperte che mettono assieme le loro idee per portare le cure universali nel futuro.

Cerca

Compila il form per scaricare il Libro bianco

ISCRIVITI