Certificare gli output degli agenti AI: prove digitali con valore legale
Gli agenti AI stanno trasformando i processi aziendali. Generano report, producono valutazioni, elaborano analisi e prendono decisioni operative in autonomia. Ogni giorno, migliaia di organizzazioni affidano a sistemi AI compiti che fino a pochi anni fa richiedevano ore di lavoro umano.
Il problema emerge quando qualcuno contesta uno di questi output. Un documento generato da un agente AI può essere modificato dopo la creazione, intenzionalmente o per errore. Senza una prova che fissi il contenuto esatto al momento della generazione, l'organizzazione non ha modo di dimostrare cosa l'agente abbia effettivamente prodotto. E con la Product Liability Directive 2024/2853 che introduce la responsabilità oggettiva per il software AI dal dicembre 2026, questo vuoto probatorio diventa un rischio concreto.
La risposta è la certificazione dei dati degli agenti AI al momento della generazione: un sigillo digitale e una marca temporale qualificata che rendono l'output immutabile, verificabile e opponibile in giudizio.
Questo approfondimento fa parte della guida: Certificazione dati agenti AI: guida alla compliance 2026
Il rischio legale degli output AI non certificati
Il quadro normativo europeo sta convergendo su un principio chiaro: chi utilizza sistemi AI è responsabile di dimostrare che i propri processi siano conformi, tracciabili e verificabili. Tre normative in particolare impattano direttamente la gestione degli output degli agenti AI.
Product Liability Directive 2024/2853: responsabilità oggettiva e presunzione di difettosità
La nuova Direttiva sulla responsabilità per danno da prodotti difettosi estende esplicitamente la definizione di "prodotto" al software e ai sistemi AI. Il punto critico per le aziende che usano agenti AI è la presunzione di difettosità: quando il danno è causato da un malfunzionamento manifesto durante l'uso normale, il prodotto è presunto difettoso. E quando la complessità tecnica impedisce alla parte lesa di provare il nesso causale, il tribunale può presumere sia la difettosità sia la causalità.
Tradotto in pratica: se un agente AI produce un output che causa un danno e l'azienda non riesce a dimostrare esattamente cosa l'agente ha generato e in quale momento, il carico della prova si inverte. L'azienda deve provare che l'output non era difettoso. Senza una certificazione con data certa, questa prova non esiste.
La Direttiva introduce anche il concetto di "modifica sostanziale": un aggiornamento software o l'apprendimento post-vendita dell'AI può rendere il modificatore responsabile come fosse il produttore. Gli Stati membri devono recepire la direttiva entro il 9 dicembre 2026.
GDPR Art. 22 e diritto alla spiegazione: perché servono prove dell'output originale
L'Art. 22 del GDPR vieta le decisioni basate esclusivamente su trattamento automatizzato che producano effetti giuridici o significativi sulla persona. Quando un agente AI valuta candidati, assegna un punteggio di credito o determina l'idoneità a un servizio, l'interessato ha diritto a una spiegazione della logica applicata e a contestare la decisione.
La Corte di Giustizia dell'UE ha chiarito nel 2025 che la semplice comunicazione di una formula matematica non costituisce una spiegazione adeguata. Serve una descrizione concisa e intelligibile del processo decisionale. Per fornire questa spiegazione, l'organizzazione deve disporre dell'output originale dell'agente, con la certezza che non sia stato alterato dopo la generazione.
Senza certificazione, l'azienda rischia di trovarsi in una posizione difensiva impossibile: deve spiegare una decisione senza poter provare quale fosse l'output effettivo che l'ha determinata.
Come funziona la certificazione dell'output AI
Certificare l'output di un agente AI significa applicare, al momento stesso della generazione, un sigillo digitale e una marca temporale qualificata che garantiscono due proprietà fondamentali: l'immutabilita' del contenuto e la data certa di creazione. TrueScreen implementa questa certificazione attraverso un processo di acquisizione forense che cattura l'output, lo sigilla e lo rende verificabile in modo indipendente per un minimo di 20 anni.
Sigillo digitale e marca temporale qualificata sotto eIDAS
Il regolamento eIDAS stabilisce il valore probatorio del sigillo elettronico qualificato e della marca temporale qualificata in tutti gli Stati membri dell'UE. L'Art. 42 prevede la presunzione di accuratezza della data e dell'ora indicate: in caso di contestazione, è la controparte a dover dimostrare che la data è inesatta, non chi ha apposto la marca.
Applicato agli output degli agenti AI, questo meccanismo crea una catena probatoria solida:
- L'output viene acquisito al momento della generazione con metodologia forense
- Il sigillo digitale qualificato lega il contenuto all'identità dell'organizzazione
- La marca temporale qualificata certifica il momento esatto della creazione
- Qualsiasi modifica successiva al contenuto invalida il sigillo, rendendo la manomissione immediatamente rilevabile
Il risultato è una prova digitale ammissibile in giudizio in tutti i Paesi UE, con presunzione di integrità e data certa.
| Normativa | Requisito chiave per gli output AI | Ruolo della certificazione |
|---|---|---|
| PLD 2024/2853 | Dimostrare che l'output non era difettoso al momento della generazione | Prova immutabile con data certa dell'output originale |
| eIDAS (Art. 41-42) | Presunzione di accuratezza della data e integrità del contenuto | Sigillo qualificato + marca temporale con valore legale EU-wide |
| GDPR (Art. 22) | Spiegabilita' e contestabilità delle decisioni automatizzate | Preservazione dell'output originale come base per la spiegazione |
| AI Act (Art. 12, 50) | Tracciabilita' e record-keeping per sistemi ad alto rischio | Audit trail certificato con valore forense |
Lo scenario HR: valutazioni AI dei candidati contestate in tribunale
Un caso concreto chiarisce l'impatto pratico. Un'azienda utilizza un agente AI per lo screening iniziale dei candidati. L'agente genera un report con punteggi, motivazioni e raccomandazioni per ogni candidato. Un candidato escluso contesta la decisione, sostenendo che il sistema ha operato in modo discriminatorio.
Negli Stati Uniti, il caso Mobley v. Workday (2025) ha ottenuto la certificazione come class action proprio su queste basi: gli strumenti AI di screening avrebbero penalizzato candidati sulla base di caratteristiche protette come eta' e appartenenza etnica. In Europa, il GDPR Art. 22 garantisce diritti analoghi a qualsiasi persona soggetta a decisioni automatizzate.
In questo scenario, l'azienda deve produrre l'output esatto dell'agente AI per quel candidato, con la prova che il documento non sia stato modificato dopo la generazione. Deve poter ricostruire la logica decisionale e dimostrare che il sistema funzionava correttamente al momento della valutazione.
Con la certificazione dell'output tramite API TrueScreen, ogni report generato dall'agente viene acquisito con metodologia forense al momento della creazione. Il sigillo digitale e la marca temporale qualificata garantiscono che il documento presentato in giudizio è identico a quello prodotto dall'agente. L'azienda può dimostrare il contenuto originale, la data di generazione e l'assenza di manomissioni, trasformando un rischio legale in una posizione difensiva solida.

