È sempre più diffusa la prassi di caricare analisi cliniche, radiografie e altri referti medici sulle piattaforme di intelligenza artificiale generativa chiedendo interpretazioni e diagnosi. Si tratta di un fenomeno allarmante per due motivi, in primis il rischio di perdita di controllo sui dati sanitari che sono di straordinaria importanza. In aggiunta, c’è il rischio che soluzioni di intelligenza artificiale non specificamente progettate allo scopo di fornire le indicazioni richieste forniscano indicazioni errate.
Perciò, il Garante della privacy lancia un duplice allarme. Innanzitutto, invita gli utenti a valutare attentamente se procedere alla condivisione di dati di carattere sanitario con i fornitori di servizi di intelligenza artificiale generativa. Inoltre, ammonisce sul fare affidamento sulle risposte generate automaticamente da tali servizi, che dovrebbero sempre essere verificate con un professionista medico.
Prestare attenzione all’informativa sulla privacy
Sotto il primo profilo, in particolare, l’Autorità richiama l’attenzione sul leggere le informative sulla privacy che i gestori delle piattaforme hanno l’obbligo di pubblicare. L’obbligo è finalizzato a verificare se i dati sanitari contenuti negli esami clinici caricati online ai fini della richiesta di interpretazione e/o diagnosi siano destinati a essere cancellati a seguito della richiesta medesima, in un momento successivo o a essere conservati dal gestore del servizio ai fini dell’addestramento dei propri algoritmi.
Molti dei più noti servizi di intelligenza artificiale generativa, infatti, consentono agli utenti di decidere la sorte dei dati e documenti caricati online. Il Garante della Privacy consiglia quindi di garantire sempre un’intermediazione umana qualificata nell’elaborazione dei dati sanitari tramite sistemi di AI. L’importanza di questo punto è riconosciuta sia dal Regolamento europeo sull’AI sia dal Consiglio Superiore di Sanità.
L’importanza della supervisione umana
L’intervento umano è essenziale per prevenire rischi che potrebbero incidere direttamente sulla salute della persona (cfr. art. 14 Regolamento AI e parere “I sistemi di AI come strumento di supporto alla diagnostica”, Consiglio Superiore di Sanità, Sez. V, 9 novembre 2021). La supervisione umana qualificata, tra l’altro, deve essere garantita in tutte le fasi del ciclo di vita del sistema di AI: dallo sviluppo all’addestramento, fino ai test e alla convalida, prima della sua immissione sul mercato o nel suo utilizzo.
Il tema era stato già anticipato dall’Autorità nel decalogo per la realizzazione di servizi sanitari nazionali attraverso sistemi di AI adottato nel mese di ottobre del 2023 (doc. web n. 9938038). Nel suo ambito erano stati evidenziati anche ulteriori aspetti di protezione dei dati personali che devono essere assicurati anche nella realizzazione di tali sistemi a supporto della comprensione di referti diagnostici: come la presenza di un idoneo presupposto di liceità; la necessaria e preventiva valutazione d’impatto; gli obblighi di trasparenza e sicurezza.
Il Garante della Privacy richiama, infine, gli sviluppatori dei sistemi di AI e gli operatori del settore sanitario sui rischi che comporta il fenomeno della raccolta massiva di dati personali dal web per finalità di addestramento dei modelli di intelligenza artificiale generativa. Il garante ha evidenziato tali pericoli nel documento pubblicato a maggio 2024 sul web scraping (doc. web n.10020334).