Il 6 gennaio 2026 la Commissione europea ha pubblicato il primo progetto di “Codice di condotta sulla trasparenza dei contenuti generati dall'intelligenza artificiale”.” ai sensi dell'articolo 50 dell'EU AI Act.
Lo scopo è quello di rendere misurabile la trasparenza sui contenuti generati o manipolati dall'AI, introducendo obblighi pratici come etichettatura, tracciabilità e possibilità di verifica, anche attraverso un'icona comune UE per i deepfake.
Entro il 2 agosto 2026, queste disposizioni diventeranno vincolanti per le organizzazioni che pubblicano contenuti AI in o verso l'Unione europea.
Ma perché questa non è ancora la soluzione al problema reale?
Il vero problema: un'etichetta non può proteggere l'integrità del contenuto
Secondo il Code of Practice, un'etichetta serve a rendere visibile all'utente che un contenuto è generato o manipolato dall'AI, così da poterlo interpretare con maggiore consapevolezza.
Il vero limite di questa proposta è strutturale: nella pratica, l'etichetta è un metadato.
E un metadato, per definizione, non “sigilla” il contenuto. Può essere rimosso in pochi secondi, modificato senza lasciare segnali evidenti all'occhio umano o falsificato da un attore malintenzionato.
Di conseguenza, un'etichetta correttamente applicata oggi non garantisce l'autenticità di quel contenuto domani. E la trasparenza dichiarata non coincide con una trasparenza dimostrabile e verificabile nel tempo.
In uno scenario realistico, un malintenzionato può:
- generare un contenuto AI ed etichettarlo correttamente, per poi modificarlo dopo la pubblicazione;
- usare l'etichetta come “prova di conformità” per legittimare un contenuto alterato;
- sfruttare la falsa sensazione di sicurezza che l'etichetta trasmette per eludere i controlli più rigorosi.
In altre parole, se trattata come punto di arrivo e non come punto di partenza, la label rischia di diventare un acceleratore di fiducia non meritata.
La differenza tra “trasparenza” e “prova”
Il Code of Practice rende la trasparenza un requisito gestito, misurabile e soggetto a controlli.
Questo è sicuramente un progresso normativo importante, ma resta, per sua natura, a un semplice livello di dichiarazione.
Per costruire fiducia digitale nei processi, serve un livello ulteriore: la prova di origine, integrità e tracciabilità.
- Prova di origineÈ la capacità di dimostrare, in modo verificabile, chi ha generato un contenuto, quando e in quale contesto di acquisizione o produzione. Nei processi critici, l'origine è ciò che consente di attribuire responsabilità, ricostruire una timeline e ridurre le contestazioni.
- Prova di integrità: è la capacità di dimostrare che il contenuto non è stato modificato dopo la creazione. Qui entrano in gioco concetti tecnici come l'impronta crittografica, o hash, un identificatore calcolato sul contenuto. Se cambia anche un solo dettaglio del contenuto, cambia anche l'hash. Questo rende l'integrità verificabile e non basata su percezioni.
- Prova di tracciabilitàÈ la capacità di ricostruire la “storia” del contenuto: passaggi, accessi, versioni, transiti. In altre parole, una catena di custodia digitale che mantiene la tracciabilità lungo distribuzione e uso operativo.
Solo quando questi tre elementi sono presenti, la trasparenza è effettivamente verificabile e misurabile.
Un'etichetta non è la soluzione, ma solo il punto di partenza
Insistiamo su questo concetto: un'etichetta non può essere la soluzione all'enorme e complesso problema della fiducia nei contenuti generati da AI.
Le aziende che operano in contesti ad alto rischio, non possono soltanto chiedersi se sono in grado di etichettare i contenuti AI in modo conforme.
E’ fondamentale che si domandino se possono dimostrare, in modo oggettivo e verificabile, che i contenuti che pubblicano, ricevono o utilizzano sono autentici, integri e tracciabili.
Rispondere a questa seconda domanda richiede tecnologie e processi che vanno oltre l'etichettatura:
- sistemi di verifica crittografica di origine e integrità;
- marche temporali e sigilli digitali che rendono il contenuto verificabile nel tempo;
- catena di custodia digitale per contenuti critici;
- controlli operativi integrati nel flusso di lavoro su provenienza e modificheb(approvazioni, archiviazione, audit).
TrueScreen consente di certificare l'autenticità e garantire l'integrità dei contenuti
TrueScreen è una Piattaforma di autenticità dei dati che consente di acquisire e certificare contenuti digitali garantendo integrità, autenticità e tracciabilità lungo il ciclo di vita. In questo modo, la trasparenza diventa una scelta di governance per ridurre i frodi, velocizzare le verifiche, diminuire le contestazioni, aumentare la qualità del dato scambiato con clienti e partner:
- Verifica dell'integrità tramite impronte crittografiche che rendono immediatamente rilevabili eventuali modifiche successive;
- Marca temporale e sigillo digitale per ancorare il contenuto a un riferimento temporale e rafforzarne la verificabilità nel tempo, con logiche coerenti ai requisiti e servizi fiduciari previsti dal quadro eIDAS;
- Catena di custodia digitale: tracciabilità e auditabilità dei passaggi rilevanti, utile in processi interfunzionali e multi-stakeholder;
- Rapporto tecnico forense che spiega nel dettaglio come un contenuto è stato acquisito e certificato.
FAQ: le domande più frequenti su trasparenza contenuti AI e EU AI Act
1) Che cosa richiede l'EU AI Act sulla trasparenza dei contenuti AI?
In generale, il quadro spinge verso obblighi di trasparenza misurabili per contenuti generati o manipolati dall'AI, ad esempio etichettatura e possibilità di tracciabilità/verifica, soprattutto quando pubblicati in o verso l'UE. I dettagli operativi dipendono da implementazioni e linee guida.
2) L'etichetta “AI-generated” è una prova che il contenuto è trasparente e affidabile?
No. È un'informazione utile, ma non prova integrità e provenienza. Se l'etichetta è rimovibile o alterabile, non garantisce che il contenuto non sia stato manipolato dopo.
3) Perché un'etichetta può essere rimossa o falsificata così facilmente?
Perché spesso vive come metadato o elemento di presentazione: conversioni, esportazioni, screenshot e re-upload possono eliminarla o modificarla senza evidenze immediate per l'utente.
4) Qual è la differenza tra trasparenza e prova?
La trasparenza dichiara “questo contenuto è AI-generated/manipolato”. La prova dimostra in modo verificabile origine, integrità e tracciabilità del contenuto lungo il ciclo di vita.
5) La trasparenza può diventare un vantaggio competitivo?
Sì, se è verificabile: riduce le contestazioni, accelera l'audit, aumenta la fiducia tra aziende e migliora la qualità dei processi basati su contenuti digitali.
Rendi le tue prove digitali incontestabili
TrueScreen è una Data Authenticity Platform che aiuta aziende e professionisti a proteggere, verificare e certificare l'origine, la storia e l'integrità di qualsiasi contenuto digitale, trasformandolo in evidenza con valore legale.
