AI Act Articolo 50: gli obblighi di etichettatura dei contenuti sintetici in vigore dal 2 agosto 2026
Il 2 agosto 2026 non è una scadenza qualunque per chi produce, distribuisce o utilizza contenuti generati dall'intelligenza artificiale. È la data in cui diventa applicabile l'Articolo 50 del Regolamento UE 2024/1689, il pilastro di trasparenza dell'AI Act. Da quel giorno, un video promozionale montato con voci sintetiche, un'immagine creata da un modello generativo per un post aziendale, un testo redatto da un chatbot e pubblicato come informativa al cliente dovranno riportare un'etichetta chiara che li identifichi come prodotti o manipolati dall'AI. L'etichettatura AI Act, prevista dall'articolo 50, trasforma un'abitudine volontaria in un obbligo con sanzioni reali.
Il problema è che l'etichettatura ex-post, da sola, non basta. Identifica ciò che è stato generato artificialmente ma non dice nulla sui contenuti originali, quelli acquisiti dal mondo reale, che oggi convivono nello stesso flusso informativo dei contenuti sintetici. Per questo la risposta completa combina due livelli: trasparenza sui contenuti AI e verificabilità alla fonte sui contenuti autentici, certificati al momento dell'acquisizione con metodologia forense. È qui che TrueScreen si inserisce, non come strumento di riconoscimento del falso ma come infrastruttura che garantisce il vero.
Cosa impone l'Articolo 50 dell'AI Act
L'Articolo 50 introduce obblighi di trasparenza distinti per chi sviluppa sistemi AI e per chi li utilizza. La norma copre quattro categorie di contenuto: audio, video, immagini e testo. La logica del legislatore europeo è esplicita: l'utente finale deve poter distinguere un contenuto generato da un modello AI da un contenuto prodotto da un essere umano o acquisito dalla realtà, sempre e in qualsiasi contesto pubblico.
Etichettatura chiara per contenuti audio, video, immagini e testo AI-generati
I fornitori di sistemi AI generativi devono progettare i propri modelli in modo che l'output sia marcato in un formato leggibile dalla macchina e rilevabile come artificiale. I soggetti che utilizzano questi sistemi per produrre contenuti destinati al pubblico devono dichiarare in modo esplicito che il contenuto è stato generato o manipolato dall'AI, prima o al momento della prima esposizione del pubblico. La forma dell'etichetta deve essere chiara, distinguibile e accessibile, non nascosta nei metadati né relegata a disclaimer quasi invisibili. Il principio guida, pubblicato sul portale della Commissione (digital-strategy.ec.europa.eu), è che la trasparenza deve raggiungere l'utente finale, non fermarsi al layer tecnico.
Deepfake: obbligo rafforzato di disclosure
Per i deepfake la norma è più stringente. L'Articolo 50 paragrafo 4 del Regolamento UE 2024/1689 definisce deepfake un contenuto audio, video o immagine generato o manipolato dall'AI che assomiglia a persone, oggetti, luoghi o eventi reali al punto da apparire autentico o veritiero. Chi pubblica deepfake deve dichiararne la natura artificiale in modo evidente. Esistono eccezioni per opere dichiaratamente artistiche, creative, satiriche o di fiction, ma anche in quei casi l'identificazione va resa accessibile in modo da non ostacolare la fruizione dell'opera. La logica è proteggere il contratto informativo: lo spettatore deve sapere cosa sta guardando.
Code of Practice della Commissione (finalizzazione maggio-giugno 2026)
L'AI Office della Commissione europea sta coordinando la redazione di un Code of Practice dedicato alla trasparenza dei contenuti sintetici, con finalizzazione prevista tra maggio e giugno 2026, in anticipo rispetto all'applicabilità del 2 agosto. Il documento non avrà valore vincolante ma fornirà specifiche tecniche operative su formati di marcatura, modalità di etichettatura visiva e audio, metadati crittografici, interoperabilità tra piattaforme. Aderire al Code of Practice sarà considerato un presupposto di conformità. Chi oggi sta costruendo processi interni per la produzione di contenuti AI dovrebbe monitorarne le bozze pubbliche per evitare di dover rifare tutto tra giugno e agosto.
Chi sono i soggetti obbligati
L'Articolo 50 non colpisce solo le big tech che sviluppano modelli fondativi. La catena di responsabilità si estende a chiunque integri un sistema AI nel proprio flusso di produzione di contenuti, dalla redazione di una testata online all'ufficio comunicazione di un'azienda manifatturiera, fino ai freelance che usano GenAI per clienti terzi.
Fornitori di sistemi AI general-purpose (GPAI)
I fornitori di modelli general-purpose, ovvero chi sviluppa e immette sul mercato sistemi come modelli linguistici di larga scala, generatori di immagini o audio, hanno l'obbligo tecnico di integrare meccanismi di marcatura nei propri output. La marcatura deve essere robusta, rilevabile e sufficientemente resistente a manipolazioni ordinarie. Il fornitore risponde della conformità tecnica del proprio sistema indipendentemente dall'uso che ne farà il cliente. Questo crea una prima barriera a monte, ma non esaurisce la responsabilità.
Deployer: imprese e redazioni che utilizzano GenAI
Il deployer è chi utilizza un sistema AI per produrre contenuti pubblicati o diffusi. Include imprese, redazioni, agenzie di comunicazione, enti pubblici, studi professionali. Il deployer deve dichiarare esplicitamente che il contenuto è AI-generato o AI-manipolato, anche quando il fornitore ha già applicato una marcatura tecnica. Sono due livelli complementari: il primo tecnico invisibile, il secondo editoriale e visibile. Le redazioni che usano AI per generare titoli, riassunti, traduzioni o podcast automatici hanno un obbligo informativo autonomo. Le aziende che producono campagne con voci o volti sintetici devono renderlo esplicito nel materiale pubblicato, inclusi gli obblighi di trasparenza AI Act estesi anche al contesto B2B.
Piattaforme e servizi di condivisione
Le piattaforme social, i servizi di hosting video, i marketplace di contenuti digitali ricevono un ruolo di facilitazione. Devono predisporre strumenti che permettano agli utenti di segnalare i contenuti come AI-generati e rendere l'informazione visibile agli altri utenti. Alcune piattaforme hanno già iniziato ad integrare flag automatici basati sul rilevamento di marcatori tecnici negli upload, ma la responsabilità editoriale resta in capo a chi pubblica.
Eccezioni e regime sanzionatorio
La norma bilancia l'obbligo di trasparenza con la libertà di espressione e con la funzionalità di alcuni usi legittimi dell'AI. Non tutto va etichettato allo stesso modo, e non tutti i contenuti AI cadono sotto la disciplina dell'Articolo 50.
Contenuti palesemente artistici, satirici o di fiction
Le opere d'arte digitale, le parodie, le produzioni cinematografiche dichiaratamente di fiction e i contenuti artistici ricevono un regime più leggero. L'identificazione resta dovuta ma può essere integrata nei titoli di coda, nelle didascalie o nelle descrizioni dell'opera, senza interrompere la fruizione. L'eccezione non legittima l'occultamento: un video satirico pubblicato senza contesto su una piattaforma social potrebbe comunque essere qualificato come deepfake se l'utente medio non è in grado di riconoscerne la natura artificiale. Anche gli usi interni di assistenza, come suggerimenti di un chatbot a un dipendente che poi rivede il testo, rientrano in aree con obblighi attenuati.
Sanzioni fino al 3% del fatturato globale
Le violazioni degli obblighi di trasparenza dell'Articolo 50 sono sanzionate dall'Articolo 99 del Regolamento con multe fino a 15 milioni di euro o fino al 3% del fatturato annuo mondiale dell'esercizio precedente, a seconda di quale importo sia maggiore. Le autorità di vigilanza nazionali degli Stati membri avranno poteri ispettivi e sanzionatori. La scala delle sanzioni rende la compliance non negoziabile per gruppi con attività multinazionali: un'etichettatura omessa su una campagna europea può tradursi in multe a otto cifre calcolate sul fatturato consolidato.
Come TrueScreen combina trasparenza ex-post e verificabilità ex-ante
La domanda operativa per chi produce contenuti oggi non è solo "come etichetto il sintetico", ma "come distinguo in modo verificabile il mio contenuto originale dal sintetico, per il lettore e per un giudice". La risposta richiede due livelli complementari. Da un lato, la conformità all'Articolo 50, che marca ciò che è AI-generato. Dall'altro, la certificazione alla fonte dei contenuti originali, quelli acquisiti dal mondo reale, che proprio nell'era dell'AI generativa hanno bisogno di una prova di autenticità verificabile.
TrueScreen opera su questo secondo livello. Con metodologia forense certifica foto, video e documenti al momento dell'acquisizione, producendo un sigillo digitale crittografico che vincola il contenuto alla sua origine. Il processo combina acquisizione, calcolo dell'hash del file, applicazione di marca temporale qualificata e firma digitale di un prestatore di servizi fiduciari qualificato (QTSP) secondo eIDAS. Il risultato è un contenuto con valore probatorio, opponibile in giudizio, la cui integrità è verificabile da qualunque terzo in qualsiasi momento successivo.
La combinazione con l'AI Act è diretta. Una redazione che pubblica un'indagine giornalistica basata su video testimonianze certificate con TrueScreen può dimostrare l'autenticità delle fonti. Se nello stesso articolo usa AI per generare una ricostruzione grafica, applicherà l'etichetta dell'Articolo 50 solo alla parte sintetica. Il lettore, e un'autorità di vigilanza, distingue in modo chiaro cosa è reale certificato e cosa è generato dichiarato. Una strategia di trasparenza end-to-end non si costruisce con la sola etichettatura del sintetico, si costruisce certificando il reale alla fonte e dichiarando il sintetico nel punto di pubblicazione. TrueScreen copre il primo pezzo, l'Articolo 50 copre il secondo.

