Il volto che non esiste ma ha un impatto reale

La formazione informata del pensiero è una pietra fondante della vita democratica, ma è sotto attacco da un utilizzo malizioso dell’intelligenza artificiale
La formazione informata del pensiero è una pietra fondante della vita democratica, ma è sotto attacco da un utilizzo malizioso dell’intelligenza artificiale

Nel 2025 abbiamo preso definitivamente coscienza del fatto che è sempre più difficile comprendere cosa corrisponde alla realtà. Le innovazioni tecnologiche, come l’Intelligenza Artificiale Generativa, hanno reso possibile creare immagini, video e voci di sorprendente naturalezza; tuttavia, questa potenza ha dissolto i confini tra ciò che è reale e ciò che soltanto lo appare.

Le conseguenze sono ormai evidenti:

  • Politiche: la manipolazione visiva incide sulle decisioni pubbliche e sui processi democratici, erodendo la stabilità delle istituzioni;
  • Sociali: la fiducia nelle immagini e nelle testimonianze digitali è continuamente messa in discussione;
  • Economiche: disinformazione e contenuti sintetici compromettono la reputazione delle imprese e la sicurezza dei mercati.

Lo sviluppo tecnologico sta cercando di offrire nuove soluzioni (watermarking, blockchain, protocolli di tracciabilità e progetti come AI for Trust) ma queste, ancora lontane da regole condivise e certezza dei risultati, non rappresentano una risposta definitiva al problema.

Si confida che il mercato individui una soluzione, ma tale aspettativa evidenzia l’assenza di un progetto strategico e condiviso capace di affrontare la vera criticità con cui oggi istituzioni, mercati e società devono confrontarsi, esplicitata dall’On. Isabella De Monte: «È necessario costruire un nuovo modello di fiducia digitale», un modello che garantisca autenticità e verificabilità universale dei contenuti e della loro origine.

La sfida che ci attende non consiste tanto nel distinguere il vero dal falso, quanto nel riconoscere la realtà rispetto alla sua rappresentazione digitale. Non si tratta semplicemente di etichettare ciò che è stato generato mediante l’AI generativa, ma di certificare ciò che è reale rispetto a tutto il resto. Questo è l’obiettivo del progetto picTЯUE, di cui Diego De Renzis è CEO & Co-Founder

L’importanza del tema

«La rappresentazione digitale oggi consente una manipolazione che ha insita in sé un enorme rischio» ha introdotto Alessia Valentini, Giornalista di Network Digital360 del Sole 24 Ore che ha moderato l’evento. «La questione è veramente di grandissima attualità» ha quindi proseguito De Monte. «Nato da quello sul copyright e l’esigenza di tutelare la produzione della notizia e la sua divulgazione, oggi questa esigenza è molto molto superiore. In questo scenario la tutela principale è quella dell’aderenza alla realtà e ciò ricade su tutte le scelte conseguenti che noi possiamo fare come cittadini». La ricaduta sulle nostre istituzioni democratiche è reale e diretta perché «la mia scelta di cittadino dipende dall’elaborazione di un pensiero che nasce da un’informazione». Di conseguenza, un’informazione o un dato non veritiero hanno il potenziale catastrofico di falsificare la nostra percezione della realtà.

Questa tematica, ha dichiarato Carlo Maria Medaglia, Protettore Terza Missione, «ha un volto che non esiste che dà un impatto reale. Non è solo un problema tecnico: quando non abbiamo possiamo più distinguere l’autorità diventa problematico il nostro rapporto con l’autorità stessa e con le istituzioni. Quindi, un problema tecnologico diventa un problema di responsabilità sociale. Un documento che non è stato prodotto dalla Camera dei deputati ma ne reca il simbolo può creare in pochi secondi ripercussioni trasversali». In conclusione del suo intervento, ha ricostruito il percorso virtuoso che si basa sull’autenticità delle informazioni di cui nutriamo ogni giorno: «L’autenticità genera fiducia e senza la fiducia non si generano le decisioni. Il framework politico-organizzativo, se privato delle decisioni, implode».

Le azioni del legislatore europeo

«L’Unione Europea si è mossa negli anni, come sappiamo, con Digital Service Act, AI Act e European Media Freedom Act, ma questi sono solamente dei passaggi intermedi rispetto ad un’evoluzione normativa che deve essere ancora in atto» ha avvertito l’On. De Monte. Per quanto ardimentosa, l’azione dell’UE va nel senso giusto visto: quello dell’interoperabilità: «Non possiamo più avere le barriere tra stato membro e stato membro che riguardano tecnologie. È un questo muro di confine che non può esistere».

La sensibilità sul tema è bipartisan, infatti l’On. Ettore Rosato ha dichiarato: «Abbiamo bisogno sicuramente di una normazione molto puntuale, ma anche di una non normazione sotto il profilo tecnico per impedire che troppe norme impediscano di sviluppare le tecnologie di cui abbiamo bisogno. Dobbiamo imparare a produrre testi semplici ma efficaci».

Lo scenario internazionale

Il Segretario del COPASIR, il Comitato Parlamentare per la Sicurezza della Repubblica, ha avvertito che «è in atto un conflitto fra noi, che normiamo tutto e giochiamo sempre in difesa, e chi invece non norma nulla e utilizza queste tecnologie contro di noi. Paesi come Russia, Corea del Nord e Iran hanno delle fabbriche di fake news che lavorano a pieno regime e noi dobbiamo certamente normare, tutelare i nostri cittadini e dobbiamo avere gli strumenti per impedire che la loro tecnologia entri nelle nostre case, nelle nostre vite e nelle nostre aziende. Oltre a potenziare la nostra capacità difensiva, dobbiamo sviluppare quella di attacco perchè non voglio fare la guerra ma al contempo penso che però si debba avere la capacità di fare la guerra per non entrare in guerra».

De Monte, inoltre, ha sottolineato il ruolo della Cina che è un attore di primo piano sul settore dell’accesso alle terre rare: «Le normative sulle materie prime critiche sono state create non più di due anni fa, eppure ci troviamo nuovamente a trattare di questa materia. Ciò significa che su certi temi il mondo cambia molto rapidamente. In questa situazione è determinante la Cina, che ha un approvvigionamento direi molto solido ed espansivo proprio sulle materie prime critiche».

Il progetto picTRUE

«I tanti tentativi di distinguere il vero dal falso e viceversa sono, come dire, delle azioni di contenimento» ha dichiarato. «Il futuro di questa guerra, perché secondo me va chiamata in questi termini, è capire se il dato è originale oppure no, non se il dato è replicabile all’infinito. Anzi, l’intelligenza artificiale ci sta dimostrando che il dato è replicabile all’infinito. Questo però è un problema di certezza dell’informazione ed è il motivo per cui per la tecnologia che abbiamo sviluppato non abbiamo utilizzato l’intelligenza artificiale».

«Abbiamo anzi pensato che il progetto dovesse avere una natura etica e non solo di mercato. Non serve un connettore che risolva l’ultimo miglio: È necessario creare qualcosa di strutturale, che venga dal mercato portandone le esperienze ma possa essere integrabile sul piano legislativo». Per De Renzis parlare di “struttura” «significa coinvolgere una serie di interlocutori: di mercato, istituzionali e pubblici con i loro interessi. Non è un percorso semplice: siamo partiti cinque anni fa, quando non si parlava di intelligenza artificiale e generativa. Oggi, questo impatto supera qualunque aspettativa in termini di capacità di reazione e sono d’accordo con l’On. Rosato nella considerazione che non possiamo giocare sempre in difesa».

Implicazioni per il sistema sanitario

Nel settore sanitario la distinzione tra reale e artificiale assume una rilevanza ancora più critica, perché l’informazione non incide solo sulle opinioni ma direttamente sulla salute e sulla sicurezza dei cittadini. La diffusione di contenuti sintetici può compromettere processi diagnostici, decisioni terapeutiche e fiducia nel rapporto medico-paziente. In un ecosistema già caratterizzato da forte asimmetria informativa e alta complessità tecnica, l’introduzione di dati non autentici rappresenta un rischio sistemico: una singola informazione non verificata può propagarsi generando errori clinici, allarmismi sanitari o campagne di disinformazione su farmaci e vaccini. Basti pensare a quanto accaduto durante il Covid.

La sanità digitale, inoltre, si fonda sempre più su telemedicina, cartelle cliniche elettroniche interoperabili e sistemi di supporto decisionale basati sull’intelligenza artificiale. In questo contesto, la certificazione dell’origine del dato sanitario diventa un requisito infrastrutturale, regolatorio e organizzativo. Senza meccanismi affidabili di autenticazione e tracciabilità, analoghi a quelli auspicati per l’informazione pubblica, si rischia di minare la governance dei dati clinici e la credibilità delle istituzioni sanitarie.

Per questo motivo, la costruzione di un modello di fiducia digitale in sanità deve integrare standard tecnici, protocolli di validazione e alfabetizzazione digitale di operatori e cittadini. Non si tratta soltanto di difendersi dalla manipolazione, ma di garantire che ogni dato clinico utilizzato nei processi di cura sia verificabile nella sua provenienza e integrità. In ambito sanitario, infatti, l’autenticità non è solo un valore democratico: è un determinante di salute pubblica.

Facebook
X
LinkedIn
WhatsApp

Ti potrebbe anche interessare:

di Arrigo Bellelli

ARTICOLI CORRELATI

Vedi tutti gli articoli della sezione:

Banner MAG 600x600px_Tavola disegno 1

Vuoi contribuire alla discussione?

Cosa ne pensi di questo tema? Quali sono le tue esperienze in materia? Come possono divenire spunto di miglioramento? Scrivi qui ed entra a far parte di B-Sanità: una comunità libera di esperti ed esperte che mettono assieme le loro idee per portare le cure universali nel futuro.

Cerca

Compila il form per scaricare il Libro bianco

ISCRIVITI