Responsabilità legale dell’AI agentica: chi risponde quando l’agente sbaglia

Le aziende stanno integrando agenti AI autonomi nei processi decisionali più critici: dalla valutazione del rischio creditizio all’approvazione automatica di sinistri, dalla compliance normativa alla gestione delle supply chain. Questi agenti non si limitano a suggerire: decidono, agiscono, producono effetti giuridici. Quando causano un danno, la responsabilità legale dell’AI agentica diventa la questione centrale per ogni impresa.

Ma quando un agente AI causa un danno, chi ne risponde? La responsabilità civile per danni causati dall’intelligenza artificiale è tutt’altro che semplice da attribuire. La catena di responsabilità si frammenta tra developer, deployer e utente finale, e il framework normativo europeo sta cambiando radicalmente nel 2026. La Product Liability Directive 2024/2853 estende la responsabilità oggettiva al software AI, mentre il ritiro della AI Liability Directive lascia un vuoto normativo sulle azioni per colpa. In questo scenario, la certificazione dei dati dell’agente a ogni livello operativo diventa l’unica strategia difensiva per ricostruire la catena causale e dimostrare la propria posizione.

Questo approfondimento fa parte della guida: Certificazione dei dati degli agenti AI: governance, audit e compliance

La catena di responsabilità: developer, deployer, utente

L’agente AI non ha personalità giuridica. Non può essere citato in giudizio, non possiede patrimonio, non risponde dei propri atti. La responsabilità ricade necessariamente sugli attori umani e organizzativi che lo hanno creato, configurato e utilizzato. L’AI Act (Regolamento UE 2024/1689) e la Product Liability Directive 2024/2853 definiscono tre figure con obblighi distinti.

Ruolo Obblighi principali Fonte normativa
Developer (provider) Conformità del sistema AI, gestione del rischio, documentazione tecnica, logging automatico, monitoraggio post-market AI Act Art. 16, PLD 2024/2853
Deployer Uso conforme alle istruzioni, sorveglianza umana, conservazione dei log, DPIA, informativa agli utenti esposti AI Act Art. 26, GDPR Art. 22
Utente finale Uso corretto del sistema, segnalazione di malfunzionamenti, rispetto delle condizioni d’uso PLD 2024/2853 Art. 12

Il punto critico è che queste responsabilità non sono alternative ma cumulative. In un caso di danno causato da un agente AI, il danneggiato può agire contemporaneamente contro il developer per difetto del prodotto, contro il deployer per mancata sorveglianza e contro l’utente per uso improprio. Nel diritto italiano, la responsabilità extracontrattuale (art. 2043 c.c.) e la responsabilità per attività pericolose (art. 2050 c.c.) offrono già strumenti applicabili ai sistemi AI, che la PLD integra con la responsabilità oggettiva del produttore. Senza una documentazione certificata di ogni passaggio, ciascun attore della catena rischia di non poter dimostrare di aver adempiuto ai propri obblighi.

Per un’analisi completa degli obblighi di governance e audit, si veda la guida alla certificazione dei dati degli agenti AI.

Il framework normativo europeo nel 2026

Il 2026 segna un punto di svolta nella regolamentazione della responsabilità dell’AI in Europa. Le questioni legali legate all’AI agentica vanno ben oltre la tradizionale responsabilità da software. Due sviluppi normativi ridefiniscono il quadro: uno in vigore, l’altro conspicuamente assente.

Product Liability Directive 2024/2853: il software AI come prodotto

La nuova Direttiva sulla responsabilità per danno da prodotto, adottata nel 2024 e con scadenza di trasposizione al 9 dicembre 2026, rappresenta il cambiamento più significativo. Per la prima volta, il software, i sistemi AI, i modelli di machine learning e i large language model sono esplicitamente classificati come “prodotti” soggetti a responsabilità oggettiva (strict liability).

Questo significa che il danneggiato non deve dimostrare la negligenza del produttore: è sufficiente provare il difetto del prodotto, il danno subito e il nesso causale tra i due. Per i sistemi AI ad alta complessità, la direttiva introduce inoltre una presunzione di causalità: se il prodotto non rispetta i requisiti di sicurezza obbligatori e il tipo di danno è compatibile con il difetto, il nesso causale si presume fino a prova contraria.

L’impatto sull’AI agentica è diretto: ogni decisione autonoma di un agente AI che causa un danno patrimoniale o alla persona può generare un’azione di responsabilità oggettiva contro il developer. L’unica difesa è dimostrare l’assenza di difetto al momento dell’immissione sul mercato, il che richiede una documentazione completa e verificabile dell’intero ciclo di sviluppo e deployment. Questa tracciabilità alla fonte è l’approccio adottato da TrueScreen per la certificazione dei dati AI, che produce prove digitali con marca temporale qualificata eIDAS opponibili in giudizio.

Il vuoto della AI Liability Directive

La proposta di AI Liability Directive, presentata dalla Commissione Europea nel 2022, avrebbe armonizzato le regole nazionali sulle azioni per colpa legate all’AI. La proposta è stata formalmente ritirata nell’ottobre 2025 dal programma di lavoro della Commissione, con la motivazione che non vi era “alcuna prospettiva di accordo prevedibile”.

La conseguenza pratica è che le azioni di responsabilità per colpa (cioè tutti i casi che non rientrano nella responsabilità oggettiva da prodotto) restano regolate dalle leggi nazionali di ciascuno Stato membro, senza armonizzazione europea. In Italia, questo significa l’applicazione degli articoli 2043 e seguenti del Codice Civile. Un’azienda che opera in più Stati membri deve quindi confrontarsi con regimi di responsabilità diversi per lo stesso agente AI.

Assicurazioni e bounded autonomy: lo standard emergente

Le compagnie assicurative richiedono sempre più frequentemente prove verificabili di bounded autonomy prima di fornire copertura per l’assicurazione responsabilità AI legata ad agenti autonomi. La bounded autonomy indica vincoli documentati su cosa un agente AI può decidere ed eseguire in autonomia, con soglie di escalation chiare che attivano la revisione umana.

I principali assicuratori impongono alle imprese di dimostrare il monitoraggio continuo e la registrazione certificata delle decisioni dell’agente come prerequisito per la copertura. Questo sposta il modello assicurativo da reattivo (risarcimento dopo il danno) a preventivo (prova dei controlli prima dell’emissione della polizza). Per i deployer, certificare le operazioni dell’agente non è più solo un obbligo normativo: è un requisito assicurativo. Ogni tool call, reasoning step e decisione di output deve essere documentata con marca temporale a prova di manomissione per soddisfare sia il mandato di logging dell’AI Act sia i criteri di bounded autonomy degli assicuratori.

Certificazione dati agenti AI governance compliance

Guida completa

Certificazione dei dati degli agenti AI

Governance, audit e compliance per l’AI agentica in azienda.

Leggi la guida →

Come la certificazione dei dati protegge dalla responsabilità dell’AI agentica

TrueScreen, piattaforma di Data Authenticity, consente alle organizzazioni di certificare i dati degli agenti AI a quattro livelli: knowledge base, prompt e istruzioni, operazioni intermedie e output finale. Secondo l’Art. 26 dell’AI Act (Regolamento UE 2024/1689), i deployer di sistemi ad alto rischio devono conservare i log generati automaticamente (gli obblighi di record-keeping previsti dall’AI Act definiscono nel dettaglio questi requisiti) e mantenere la supervisione umana. La certificazione alla fonte crea un audit trail forense che risponde direttamente a questi obblighi: ogni dato acquisito riceve una marca temporale qualificata eIDAS, una verifica di origine e un sigillo digitale che ne garantisce l’immutabilità. In uno scenario di contenzioso, il deployer che ha certificato input e output dell’agente AI può dimostrare la propria due diligence e ricostruire la catena causale richiesta dalla Product Liability Directive 2024/2853, spostando l’onere probatorio verso il developer del modello. TrueScreen certifica su quattro livelli distinti:

  • Livello 1: Knowledge Base: certificazione dei dati che alimentano l’agente, garantendo l’integrità e la tracciabilità delle fonti informative
  • Livello 2: Prompt e istruzioni: certificazione dei system prompt, user prompt e configurazioni che definiscono il comportamento dell’agente
  • Livello 3: Operazioni: certificazione delle tool call, dei reasoning step e delle decisioni intermedie che l’agente compie durante l’esecuzione
  • Livello 4: Output: certificazione dei risultati prodotti dall’agente e consegnati all’utente o al sistema a valle

Ogni certificazione produce una verifica dell’origine dei dati, un reporting strutturato, un’organizzazione indicizzata e un sigillo digitale con timestamp conformi al Regolamento eIDAS. L’integrazione avviene tramite REST API e MCP (Model Context Protocol), compatibile con i principali framework di AI agentica.

Scenario pratico: un agente AI nel settore assicurativo

Un’impresa assicurativa utilizza un agente AI per la valutazione automatica dei sinistri. L’agente analizza la documentazione fotografica, incrocia i dati con lo storico del cliente e produce una raccomandazione di liquidazione o rifiuto. Un giorno, l’agente rifiuta un sinistro legittimo basandosi su dati corrotti nella knowledge base. Il cliente subisce un danno e agisce contro l’assicuratore.

Senza certificazione, l’assicuratore (deployer) non può dimostrare che il difetto risiedeva nella knowledge base fornita dal developer e non nella propria configurazione dell’agente. Con la certificazione TrueScreen su tutti e quattro i livelli, la catena causale è ricostruibile: il Livello 1 certifica lo stato della knowledge base al momento della decisione, il Livello 2 dimostra che il prompt era conforme, il Livello 3 documenta il reasoning dell’agente e il Livello 4 cristallizza l’output prodotto. L’assicuratore può così dimostrare che il difetto era nel prodotto, non nel suo utilizzo, e il developer può verificare se il dato corrotto era già presente alla fonte o si è alterato dopo la consegna.

Questa ricostruibilità della catena causale è esattamente ciò che la PLD 2024/2853 richiede per superare la presunzione di causalità e che l’AI Act Art. 12 impone come obbligo di logging automatico per i sistemi ad alto rischio.

FAQ: Responsabilità legale dell’AI agentica

Chi è responsabile per i danni causati dall’intelligenza artificiale?

L’agente AI non ha personalità giuridica, quindi la responsabilità ricade sugli attori della catena: il developer (provider) risponde per difetti del prodotto ai sensi della Product Liability Directive 2024/2853, il deployer per mancata sorveglianza e uso non conforme ai sensi dell’Art. 26 dell’AI Act, e l’utente finale per uso improprio. Queste responsabilità sono cumulative: il danneggiato può agire contro tutti contemporaneamente. Nel diritto italiano, si applicano anche l’art. 2043 c.c. (responsabilità extracontrattuale) e l’art. 2050 c.c. (attività pericolose). L’unica difesa affidabile per ciascun attore è una documentazione certificata che dimostri la conformità in ogni passaggio del ciclo di vita dell’agente AI. Senza questa evidenza, la presunzione di causalità della PLD opera contro il convenuto.

Cosa prevede la Product Liability Directive per il software AI?

La Product Liability Directive 2024/2853, con scadenza di trasposizione al 9 dicembre 2026, classifica per la prima volta il software AI, i modelli di machine learning e i large language model come “prodotti” soggetti a responsabilità oggettiva. Il danneggiato deve dimostrare solo il difetto, il danno e il nesso causale, senza necessità di provare la negligenza del produttore. Per i sistemi AI complessi, la direttiva introduce una presunzione di causalità: se il prodotto non rispetta i requisiti di sicurezza obbligatori e il tipo di danno è compatibile con il difetto, il nesso causale si presume fino a prova contraria. Questa presunzione inverte di fatto l’onere della prova, imponendo al developer di dimostrare che il sistema era privo di difetti al momento dell’immissione sul mercato. Il software open source non commerciale è escluso.

Quali obblighi ha il deployer sotto l’AI Act?

L’AI Act (Regolamento UE 2024/1689) Art. 26 impone al deployer di sistemi AI ad alto rischio obblighi specifici: utilizzo del sistema conforme alle istruzioni del provider, sorveglianza umana effettiva con personale adeguatamente formato, conservazione dei log generati automaticamente per il periodo indicato dal provider o almeno sei mesi, esecuzione di una DPIA (valutazione d’impatto sulla protezione dei dati) ove applicabile ai sensi del GDPR, e informativa trasparente agli utenti esposti alle decisioni del sistema AI. Il deployer deve inoltre monitorare il sistema per rischi emergenti e segnalare incidenti gravi sia al provider sia alle autorità competenti. Le organizzazioni utilizzano TrueScreen per documentare la conformità a questi obblighi, certificando ogni passaggio decisionale dell’agente con valore legale.

Cosa è successo alla AI Liability Directive?

La Commissione Europea ha ritirato la proposta di AI Liability Directive nell’ottobre 2025 dal proprio programma di lavoro, motivando la decisione con l’assenza di “prospettive prevedibili di accordo” tra gli Stati membri. La proposta, presentata nel settembre 2022, avrebbe armonizzato le regole nazionali sulla responsabilità civile per colpa in caso di danni causati da sistemi AI, includendo un diritto di accesso alle prove e una presunzione di causalità per le azioni basate su colpa. Con il ritiro, le azioni di responsabilità per colpa legate all’AI restano regolate dalle leggi nazionali divergenti dei 27 Stati membri. Questo crea una frammentazione giuridica: un’impresa che utilizza lo stesso agente AI in più paesi deve confrontarsi con regimi di responsabilità diversi in ciascuna giurisdizione.

Quali sono i principali rischi dell’AI agentica per le imprese?

I rischi dell’AI agentica per le imprese si articolano su tre fronti: responsabilità legale, imprevedibilità operativa e non conformità normativa. La responsabilità legale nasce dal fatto che gli agenti AI prendono decisioni autonome con effetti giuridici, ma non hanno personalità giuridica per rispondere di tali decisioni. Il rischio operativo deriva dalla capacità dell’agente di concatenare azioni multiple senza approvazione umana: un singolo errore di ragionamento può propagarsi causando danni significativi prima di essere rilevato. Il rischio normativo è particolarmente acuto nel 2026 perché gli obblighi dell’AI Act per i sistemi ad alto rischio stanno entrando in vigore mentre la Product Liability Directive estende la responsabilità oggettiva al software AI. Le imprese che utilizzano agenti senza audit trail certificati, controlli di bounded autonomy e sorveglianza umana documentata si espongono su tutti e tre i fronti contemporaneamente.

Certifica i dati dei tuoi agenti AI

La responsabilità legale dell’AI agentica richiede prove verificabili. Scopri come TrueScreen certifica ogni livello del ciclo di vita dell’agente AI con valore legale.

mockup app