Il 6 gennaio 2026 la Commissione europea ha pubblicato il primo progetto di “Code of Practice on the Transparency of AI‑Generated Content” ai sensi dell’articolo 50 dell’EU AI Act.
Lo scopo è quello di rendere misurabile la trasparenza sui contenuti generati o manipolati dall’AI, introducendo obblighi pratici come etichettatura, tracciabilità e possibilità di verifica, anche attraverso un’icona comune UE per i deepfake.
Entro il 2 agosto 2026, queste disposizioni diventeranno vincolanti per le organizzazioni che pubblicano contenuti AI in o verso l’Unione europea.
Ma perché questa non è ancora la soluzione al problema reale?
Il vero problema: un’etichetta non può proteggere l’integrità del contenuto
Secondo il Code of Practice, un’etichetta serve a rendere visibile all’utente che un contenuto è generato o manipolato dall’AI, così da poterlo interpretare con maggiore consapevolezza.
Il vero limite di questa proposta è strutturale: nella pratica, l’etichetta è un metadato.
E un metadato, per definizione, non “sigilla” il contenuto. Può essere rimosso in pochi secondi, modificato senza lasciare segnali evidenti all’occhio umano o falsificato da un attore malintenzionato.
Di conseguenza, un’etichetta correttamente applicata oggi non garantisce l’autenticità di quel contenuto domani. E la trasparenza dichiarata non coincide con una trasparenza dimostrabile e verificabile nel tempo.
In uno scenario realistico, un malintenzionato può:
- generare un contenuto AI e etichettarlo correttamente, per poi modificarlo dopo la pubblicazione;
- usare l’etichetta come “prova di conformità” per legittimare un contenuto alterato;
- sfruttare la falsa sensazione di sicurezza che la label trasmette per eludere controlli più rigorosi.
In altre parole, se trattata come punto di arrivo e non come punto di partenza, la label rischia di diventare un acceleratore di fiducia non meritata.
La differenza tra “trasparenza” e “prova”
Il Code of Practice rende la trasparenza un requisito gestito, misurabile e soggetto a controlli.
Questo è sicuramente un progresso normativo importante, ma resta, per sua natura, a un semplice livello di dichiarazione.
Per costruire fiducia digitale nei processi, serve un livello ulteriore: la prova di origine, integrità e tracciabilità.
- Prova di origine: è la capacità di dimostrare, in modo verificabile, chi ha generato un contenuto, quando e in quale contesto di acquisizione o produzione. Nei processi critici, l’origine è ciò che consente di attribuire responsabilità, ricostruire una timeline e ridurre contestazioni.
- Prova di integrità: è la capacità di dimostrare che il contenuto non è stato modificato dopo la creazione. Qui entrano in gioco concetti tecnici come l’impronta crittografica, o hash, un identificatore calcolato sul contenuto. Se cambia anche un solo dettaglio del contenuto, cambia anche l’hash. Questo rende l’integrità verificabile e non basata su percezioni.
- Prova di tracciabilità: è la capacità di ricostruire la “storia” del contenuto: passaggi, accessi, versioni, transiti. In altre parole, una catena di custodia digitale che mantenga la tracciabilità lungo distribuzione e uso operativo.
Solo quando questi tre elementi sono presenti, la trasparenza è effettivamente verificabile e misurabile.
Un’etichetta non è la soluzione, ma solo il punto di partenza
Insistiamo su questo concetto: un’etichetta non può essere la soluzione all’enorme e complesso problema della fiducia nei contenuti generati da AI.
Le aziende che operano in contesti ad alto rischio, non possono soltanto chiedersi se sono in grado di etichettare i contenuti AI in modo conforme.
E’ fondamentale che si domandino se possono dimostrare, in modo oggettivo e verificabile, che i contenuti che pubblicano, ricevono o utilizzano sono autentici, integri e tracciabili.
Rispondere a questa seconda domanda richiede tecnologie e processi che vanno oltre l’etichettatura:
- sistemi di verifica crittografica di origine e integrità;
- marche temporali e sigilli digitali che rendano il contenuto verificabile nel tempo;
- catena di custodia digitale per contenuti critici;
- controlli operativi integrati nei workflow su provenienza e modificheb(approvazioni, archiviazione, audit).
TrueScreen consente di certificare l’autenticità e garantire l’integrità dei contenuti
TrueScreen è una Data Authenticity Platform che consente di acquisire e certificare contenuti digitali garantendo integrità, autenticità e tracciabilità lungo il ciclo di vita. In questo modo, la trasparenza diventa una scelta di governance per ridurre frodi, velocizzare verifiche, diminuire contestazioni, aumentare la qualità del dato scambiato con clienti e partner:
- Verifica dell’integrità tramite impronte crittografiche che rendono immediatamente rilevabili eventuali modifiche successive;
- Marca temporale e sigillo digitale per ancorare il contenuto a un riferimento temporale e rafforzarne la verificabilità nel tempo, con logiche coerenti ai requisiti e servizi fiduciari previsti dal quadro eIDAS;
- Catena di custodia digitale: tracciabilità e auditabilità dei passaggi rilevanti, utile in processi interfunzionali e multi-stakeholder;
- Report tecnico forense che spiega nel dettaglio come un contenuto è stato acquisito e certificato.
FAQ: le domande più frequenti su trasparenza contenuti AI e EU AI Act
1) Che cosa richiede l’EU AI Act sulla trasparenza dei contenuti AI?
In generale, il quadro spinge verso obblighi di trasparenza misurabili per contenuti generati o manipolati dall’AI, ad esempio etichettatura e possibilità di tracciabilità/verifica, soprattutto quando pubblicati in o verso l’UE. I dettagli operativi dipendono da implementazioni e linee guida.
2) La label “AI-generated” è una prova che il contenuto è trasparente e affidabile?
No. È un’informazione utile, ma non prova integrità e provenienza. Se la label è removibile o alterabile, non garantisce che il contenuto non sia stato manipolato dopo.
3) Perché una label può essere rimossa o falsificata così facilmente?
Perché spesso vive come metadato o elemento di presentazione: conversioni, esportazioni, screenshot e re-upload possono eliminarla o modificarla senza evidenze immediate per l’utente.
4) Qual è la differenza tra trasparenza e prova?
La trasparenza dichiara “questo contenuto è AI-generated/manipolato”. La prova dimostra in modo verificabile origine, integrità e tracciabilità del contenuto lungo il ciclo di vita.
5) La trasparenza può diventare un vantaggio competitivo?
Sì, se è verificabile: riduce contestazioni, accelera audit, aumenta fiducia tra aziende e migliora la qualità dei processi basati su contenuti digitali.
Rendi le tue prove digitali incontestabili
TrueScreen è una Data Authenticity Platform che aiuta aziende e professionisti a proteggere, verificare e certificare l’origine, la storia e l’integrità di qualsiasi contenuto digitale, trasformandolo in evidenza con valore legale.
