Il 6 gennaio 2026 la Commissione europea ha pubblicato il primo progetto di “Codice di condotta sulla trasparenza dei contenuti generati dall'intelligenza artificiale”.” ai sensi dell'articolo 50 dell'EU AI Act.

Lo scopo è quello di rendere misurabile la trasparenza sui contenuti generati o manipolati dall'AI, introducendo obblighi pratici come etichettatura, tracciabilità e possibilità di verifica, anche attraverso un'icona comune UE per i deepfake.

Entro il 2 agosto 2026, queste disposizioni diventeranno vincolanti per le organizzazioni che pubblicano contenuti AI in o verso l'Unione europea.

Ma perché questa non è ancora la soluzione al problema reale?

Il vero problema: un'etichetta non può proteggere l'integrità del contenuto

Secondo il Code of Practice, un'etichetta serve a rendere visibile all'utente che un contenuto è generato o manipolato dall'AI, così da poterlo interpretare con maggiore consapevolezza.

Il vero limite di questa proposta è strutturale: nella pratica, l'etichetta è un metadato.

E un metadato, per definizione, non “sigilla” il contenuto. Può essere rimosso in pochi secondi, modificato senza lasciare segnali evidenti all'occhio umano o falsificato da un attore malintenzionato.

Di conseguenza, un'etichetta correttamente applicata oggi non garantisce l'autenticità di quel contenuto domani. E la trasparenza dichiarata non coincide con una trasparenza dimostrabile e verificabile nel tempo.

In uno scenario realistico, un malintenzionato può:

  • generare un contenuto AI ed etichettarlo correttamente, per poi modificarlo dopo la pubblicazione;
  • usare l'etichetta come “prova di conformità” per legittimare un contenuto alterato;
  • sfruttare la falsa sensazione di sicurezza che l'etichetta trasmette per eludere i controlli più rigorosi.

In altre parole, se trattata come punto di arrivo e non come punto di partenza, la label rischia di diventare un acceleratore di fiducia non meritata.

La differenza tra “trasparenza” e “prova”

Il Code of Practice rende la trasparenza un requisito gestito, misurabile e soggetto a controlli.

Questo è sicuramente un progresso normativo importante, ma resta, per sua natura, a un semplice livello di dichiarazione.

Per costruire fiducia digitale nei processi, serve un livello ulteriore: la prova di origine, integrità e tracciabilità.

  1. Prova di origineÈ la capacità di dimostrare, in modo verificabile, chi ha generato un contenuto, quando e in quale contesto di acquisizione o produzione. Nei processi critici, l'origine è ciò che consente di attribuire responsabilità, ricostruire una timeline e ridurre le contestazioni.
  2. Prova di integrità: è la capacità di dimostrare che il contenuto non è stato modificato dopo la creazione. Qui entrano in gioco concetti tecnici come l'impronta crittografica, o hash, un identificatore calcolato sul contenuto. Se cambia anche un solo dettaglio del contenuto, cambia anche l'hash. Questo rende l'integrità verificabile e non basata su percezioni.
  3. Prova di tracciabilitàÈ la capacità di ricostruire la “storia” del contenuto: passaggi, accessi, versioni, transiti. In altre parole, una catena di custodia digitale che mantiene la tracciabilità lungo distribuzione e uso operativo.

Solo quando questi tre elementi sono presenti, la trasparenza è effettivamente verificabile e misurabile.

Un'etichetta non è la soluzione, ma solo il punto di partenza

Insistiamo su questo concetto: un'etichetta non può essere la soluzione all'enorme e complesso problema della fiducia nei contenuti generati da AI.

Le aziende che operano in contesti ad alto rischio, non possono soltanto chiedersi se sono in grado di etichettare i contenuti AI in modo conforme.

E’ fondamentale che si domandino se possono dimostrare, in modo oggettivo e verificabile, che i contenuti che pubblicano, ricevono o utilizzano sono autentici, integri e tracciabili.

Rispondere a questa seconda domanda richiede tecnologie e processi che vanno oltre l'etichettatura:

  • sistemi di verifica crittografica di origine e integrità;
  • marche temporali e sigilli digitali che rendono il contenuto verificabile nel tempo;
  • catena di custodia digitale per contenuti critici;
  • controlli operativi integrati nel flusso di lavoro su provenienza e modificheb(approvazioni, archiviazione, audit).

TrueScreen consente di certificare l'autenticità e garantire l'integrità dei contenuti

TrueScreen è una Piattaforma di autenticità dei dati che consente di acquisire e certificare contenuti digitali garantendo integrità, autenticità e tracciabilità lungo il ciclo di vita. In questo modo, la trasparenza diventa una scelta di governance per ridurre i frodi, velocizzare le verifiche, diminuire le contestazioni, aumentare la qualità del dato scambiato con clienti e partner:

  • Verifica dell'integrità tramite impronte crittografiche che rendono immediatamente rilevabili eventuali modifiche successive;
  • Marca temporale e sigillo digitale per ancorare il contenuto a un riferimento temporale e rafforzarne la verificabilità nel tempo, con logiche coerenti ai requisiti e servizi fiduciari previsti dal quadro eIDAS;
  • Catena di custodia digitale: tracciabilità e auditabilità dei passaggi rilevanti, utile in processi interfunzionali e multi-stakeholder;
  • Rapporto tecnico forense che spiega nel dettaglio come un contenuto è stato acquisito e certificato.

FAQ: le domande più frequenti su trasparenza contenuti AI e EU AI Act

1) Che cosa richiede l'EU AI Act sulla trasparenza dei contenuti AI?

In generale, il quadro spinge verso obblighi di trasparenza misurabili per contenuti generati o manipolati dall'AI, ad esempio etichettatura e possibilità di tracciabilità/verifica, soprattutto quando pubblicati in o verso l'UE. I dettagli operativi dipendono da implementazioni e linee guida.

2) L'etichetta “AI-generated” è una prova che il contenuto è trasparente e affidabile?

No. È un'informazione utile, ma non prova integrità e provenienza. Se l'etichetta è rimovibile o alterabile, non garantisce che il contenuto non sia stato manipolato dopo.

3) Perché un'etichetta può essere rimossa o falsificata così facilmente?

Perché spesso vive come metadato o elemento di presentazione: conversioni, esportazioni, screenshot e re-upload possono eliminarla o modificarla senza evidenze immediate per l'utente.

4) Qual è la differenza tra trasparenza e prova?

La trasparenza dichiara “questo contenuto è AI-generated/manipolato”. La prova dimostra in modo verificabile origine, integrità e tracciabilità del contenuto lungo il ciclo di vita.

5) La trasparenza può diventare un vantaggio competitivo?

Sì, se è verificabile: riduce le contestazioni, accelera l'audit, aumenta la fiducia tra aziende e migliora la qualità dei processi basati su contenuti digitali.

Rendi le tue prove digitali incontestabili

TrueScreen è una Data Authenticity Platform che aiuta aziende e professionisti a proteggere, verificare e certificare l'origine, la storia e l'integrità di qualsiasi contenuto digitale, trasformandolo in evidenza con valore legale.

Applicazione mobile TrueScreen