Articolo a cura di Rosa Sciatta, Avvocato del foro di Roma, esperta di responsabilità sanitaria, docente a contratto di diritto pubblico e costituzionale Università Telematica Pegaso
La diffusione dei sistemi di intelligenza artificiale nel settore sanitario sta determinando una trasformazione profonda della relazione di cura, incidendo sulle modalità decisionali, sui processi clinico-assistenziali e sulla distribuzione delle responsabilità. Come evidenziato dal Comitato Nazionale per la Bioetica nel parere del febbraio 2026, l’ingresso dell’AI rappresenta una discontinuità epistemica e organizzativa che impone una revisione dei paradigmi tradizionali, in particolare in materia di consenso informato e tutela della persona.
Il quadro normativo europeo, con il AI Act, rafforza questa prospettiva, introducendo un approccio basato sul rischio che impone obblighi stringenti per i sistemi di AI ad alto impatto, tra cui quelli sanitari. In tale contesto, la governance aziendale assume un ruolo centrale e non delegabile: non è sufficiente garantire la conformità tecnologica dei sistemi, ma è necessario presidiare l’intero ciclo di vita dell’AI, dalla selezione all’implementazione, fino al monitoraggio continuo.
Al centro di questa trasformazione deve rimanere la persona, intesa non solo come paziente ma come titolare di diritti fondamentali. L’utilizzo dell’AI non può tradursi in una riduzione della relazione di cura a processo automatizzato, né in una opacizzazione delle decisioni cliniche. Al contrario, deve rafforzare l’autodeterminazione, la dignità e la consapevolezza del paziente.
Una governance etica dell’AI
In questa prospettiva, la tutela dei dati sanitari emerge come asse portante della governance dell’AI. I dati non rappresentano soltanto un input tecnico, ma costituiscono una dimensione essenziale della persona, strettamente connessa alla sua identità e vulnerabilità. La loro raccolta, gestione e utilizzo devono essere improntati a criteri di qualità, sicurezza, integrità e proporzionalità, in coerenza con i principi europei di protezione dei dati e con le nuove esigenze poste dall’AI.
Il tavolo si propone di affrontare queste sfide in modo integrato, evidenziando come centralità della persona, protezione dei dati e governance aziendale non siano ambiti distinti, ma elementi inscindibili di un unico modello organizzativo capace di garantire un’innovazione eticamente e giuridicamente sostenibile.
Un ulteriore ambito di particolare rilevanza è quello della sperimentazione clinica, in cui l’AI viene sempre più utilizzata per la selezione dei pazienti, l’analisi dei dati e il supporto alle decisioni. In questo contesto, emergono criticità specifiche relative alla validazione scientifica degli algoritmi, alla trasparenza dei criteri di inclusione ed esclusione, nonché alla qualità e rappresentatività dei dati utilizzati. Particolare attenzione deve essere posta al rischio di lesione della riservatezza dei partecipanti, poiché l’utilizzo massivo e l’interconnessione dei dati sanitari possono aumentare il rischio di re-identificazione, utilizzi impropri o trattamenti eccedenti rispetto alle finalità originarie della ricerca.
Ricerca clinica e sua regolazione
Tali rischi devono essere valutati alla luce dei principi fondamentali del Regolamento generale sulla protezione dei dati, in particolare minimizzazione dei dati, limitazione della finalità, integrità e riservatezza, nonché accountability del titolare del trattamento. L’impiego dell’AI nella ricerca clinica richiede pertanto un rafforzamento delle misure tecniche e organizzative, inclusi meccanismi di pseudonimizzazione, valutazioni d’impatto (DPIA) e controlli sull’intero ciclo di vita dei dati.
L’intelligenza artificiale non può essere governata esclusivamente come tecnologia: richiede un ripensamento complessivo dei modelli organizzativi e decisionali. Solo una governance aziendale consapevole, fondata sulla centralità della persona e sulla tutela rigorosa dei dati sanitari, potrà garantire un uso dell’AI realmente conforme ai valori europei.
