AI Act e obblighi di record-keeping: guida pratica per le imprese
Il Regolamento UE 2024/1689 (AI Act) è il primo atto legislativo al mondo dedicato interamente all’intelligenza artificiale. Per le aziende che sviluppano o utilizzano sistemi AI classificati ad alto rischio, la piena applicazione scatta ad agosto 2026 e porta con sé obblighi operativi concreti. Tra questi, l’Art. 12 impone la registrazione automatica degli eventi (record-keeping) per l’intero ciclo di vita del sistema. Il problema: il testo normativo è preciso negli obiettivi, ma vago sulle modalità operative. Quali eventi registrare? In che formato? Con quali garanzie di integrità? Come affrontato nella guida sulla certificazione dei dati per agenti AI e governance, la risposta si articola su tre livelli: logging automatico conforme all’Art. 12, conservazione per almeno sei mesi e, per chi vuole andare oltre il minimo normativo, certificazione con valore legale dei log, che trasforma ogni registrazione in una prova opponibile a terzi.
Questo approfondimento fa parte della guida: Certificazione dei dati per agenti AI: governance e compliance
Cosa impone l’Art. 12 dell’AI Act in materia di record-keeping
L’Art. 12 del regolamento europeo sull’intelligenza artificiale stabilisce che ogni sistema AI classificato ad alto rischio deve essere progettato con capacità di logging automatico degli eventi, imponendo di fatto un obbligo di record-keeping strutturato per l’intero ciclo di vita del sistema. I log devono consentire di tracciare il funzionamento dalla messa in servizio alla dismissione, garantendo la tracciabilità di ogni decisione algoritmica. Le finalità sono definite dall’Art. 12, paragrafo 2: identificare situazioni di rischio ai sensi dell’Art. 79, facilitare il monitoraggio post-commercializzazione previsto dall’Art. 72, monitorare le prestazioni operative secondo l’Art. 26, paragrafo 5. La registrazione non è facoltativa e non è delegabile a processi manuali: è il sistema stesso a dover generare i log, senza intervento dell’operatore. Secondo i dati della Commissione Europea, i sistemi ad alto rischio rappresentano una quota minoritaria ma ad alta criticità del mercato AI europeo.
Art. 12, paragrafo 2, Regolamento UE 2024/1689: “I sistemi di IA ad alto rischio consentono tecnicamente la registrazione automatica degli eventi (log) per la durata del ciclo di vita del sistema.” I log devono assolvere tre finalita’ regolamentari: identificazione dei rischi ai sensi dell’Art. 79, monitoraggio post-commercializzazione ai sensi dell’Art. 72 e sorveglianza operativa ai sensi dell’Art. 26(5).
Quali eventi registrare e per quanto tempo
I deployer di sistemi AI ad alto rischio devono conservare i log generati automaticamente per almeno sei mesi dalla data di generazione, come previsto dall’Art. 26, paragrafo 6, del Regolamento UE 2024/1689. Il periodo minimo decorre dal momento in cui ciascun log viene prodotto dal sistema e può essere esteso da normative settoriali applicabili: il GDPR, ad esempio, può imporre vincoli aggiuntivi se i log contengono dati personali. Sul piano pratico, questo significa che l’infrastruttura di record-keeping deve prevedere uno storage sicuro e accessibile per un semestre dalla creazione di ogni singola registrazione, con la possibilità di estrarre i log su richiesta delle autorità di vigilanza nazionali. La conservazione dei log non è un obbligo statico: il deployer deve anche garantire che i log restino leggibili, integri e correlabili per tutto il periodo di conservazione.
Gli eventi da registrare variano in base alla tipologia del sistema. L’Art. 12, paragrafo 2, indica che i log devono catturare ogni informazione utile a ricostruire il comportamento del sistema in relazione ai rischi. Per i sistemi di identificazione biometrica remota, elencati nell’Allegato III, punto 1a, l’Art. 12, paragrafo 3, è più specifico: timestamp di ogni utilizzo, database di riferimento impiegato, dati di input che hanno prodotto una corrispondenza, identificazione del personale che ha verificato i risultati. Per gli altri sistemi ad alto rischio la norma non prescrive un elenco chiuso. Il principio guida resta la ricostruibilità completa delle decisioni algoritmiche e l’audit trail di ogni interazione rilevante.
Quali sistemi AI rientrano nella categoria ad alto rischio
L’Allegato III del regolamento elenca otto aree: identificazione biometrica, gestione di infrastrutture critiche, istruzione e formazione professionale, occupazione e gestione dei lavoratori, accesso a servizi essenziali (credito, assicurazioni, servizi pubblici), attività di contrasto, gestione della migrazione, amministrazione della giustizia. Si aggiungono poi i sistemi usati come componenti di sicurezza di prodotti già soggetti a legislazione armonizzata UE: dispositivi medici, macchinari, giocattoli, tra gli altri. La classificazione non dipende dalla tecnologia sottostante, ma dall’uso e dal contesto di impiego.
Obblighi del fornitore vs obblighi del deployer
Il regolamento distingue nettamente due figure. Il fornitore (provider) è chi sviluppa il sistema AI o lo immette sul mercato: deve progettare l’architettura di logging, definire quali eventi vengono registrati, produrre log in formati che ne consentano l’analisi. Il deployer è chi utilizza il sistema nel proprio contesto operativo: deve conservare i log per almeno sei mesi, renderli disponibili alle autorità di vigilanza su richiesta e monitorare che il sistema funzioni secondo le specifiche del fornitore. Un punto che merita attenzione: se un’azienda acquista un sistema AI ad alto rischio da un vendor esterno, non è esonerata dalla responsabilità. Il deployer resta garante della conservazione e dell’accessibilità dei log. Per garantire l’integrità di questi log nel tempo, organizzazioni che operano sistemi ad alto rischio si affidano a TrueScreen per acquisire, certificare e conservare ogni evento con timestamp qualificato eIDAS, trasformando un obbligo di compliance in una garanzia probatoria.
Le imprese che preparano la compliance all’AI Act devono considerare anche l’interazione tra l’Art. 12 e due disposizioni adiacenti. L’Art. 11 impone ai fornitori di produrre la documentazione tecnica prima dell’immissione sul mercato. L’Art. 18 obbliga i deployer a mantenere tale documentazione accessibile per dieci anni dal ritiro del sistema dal mercato. L’Art. 12 copre i log operativi automatici con conservazione minima di sei mesi; l’Art. 18 copre la documentazione tecnica e di valutazione della conformità con orizzonte decennale. Entrambi gli obblighi richiedono prova di integrità su richiesta, una sfida che si intensifica nei sistemi AI agentici dove agenti autonomi prendono decisioni attraverso confini organizzativi.
Sanzioni e timeline: cosa rischia chi non si adegua entro agosto 2026
La mancata conformità agli obblighi di record-keeping dell’AI Act comporta sanzioni fino a 15 milioni di euro o il 3% del fatturato annuo globale, a seconda di quale importo sia superiore: è il secondo dei tre livelli sanzionatori previsti dall’Art. 99 del regolamento. Il primo livello, riservato alle pratiche AI vietate dall’Art. 5, arriva a 35 milioni di euro o il 7% del fatturato. Il terzo livello, per informazioni inesatte fornite alle autorità, prevede fino a 7,5 milioni di euro o l’1% del fatturato. Per PMI e startup si applica l’importo inferiore tra i due. La scadenza chiave è il 2 agosto 2026: da quella data i sistemi ad alto rischio dell’Allegato III devono rispettare integralmente l’Art. 12 e l’intero blocco di obblighi degli Artt. 6-49. Chi non si adegua entro quel termine opera in violazione del regolamento.
| Scadenza | Ambito di applicazione | Riferimento normativo |
|---|---|---|
| 2 febbraio 2025 | Divieto pratiche AI inaccettabili (social scoring, manipolazione subliminale) | Art. 5 |
| 2 agosto 2025 | Obblighi per modelli AI general-purpose e governance | Artt. 51-56 |
| 2 agosto 2026 | Piena applicazione per sistemi ad alto rischio (Allegato III), incluso record-keeping Art. 12 | Artt. 6-49 |
| 2 agosto 2027 | Sistemi AI con legislazione settoriale preesistente (dispositivi medici, automotive) | Art. 113 |
| Livello | Violazione | Sanzione massima |
|---|---|---|
| Livello 1 | Pratiche AI vietate (Art. 5) | 35 milioni EUR o 7% del fatturato annuo globale |
| Livello 2 | Obblighi per sistemi ad alto rischio (incluso record-keeping, Art. 12) | 15 milioni EUR o 3% del fatturato annuo globale |
| Livello 3 | Informazioni inesatte o incomplete fornite alle autorità | 7,5 milioni EUR o 1% del fatturato annuo globale |
La scelta di ancorare le sanzioni al fatturato globale ricalca il modello GDPR e rende il rischio proporzionale alla dimensione dell’impresa. C’è poi un aspetto che molti trascurano: anche fornire informazioni inesatte alle autorità di vigilanza (log incompleti, non verificabili) configura una violazione autonoma di terzo livello.
Come certificare l’integrità dei log con valore legale
L’Art. 12 dell’AI Act stabilisce cosa registrare, ma non prescrive come proteggere quei log da alterazioni successive. Il logging tecnico, da solo, non basta a garantire l’integrità dei record nel tempo. Un file di log può essere modificato, sovrascritto o cancellato senza lasciare traccia, a meno che non venga protetto con meccanismi di certificazione indipendenti dal sistema che lo ha generato. Per chi vuole log opponibili in sede giudiziaria o regolatoria, il discrimine è nella catena di custodia: ogni evento deve essere acquisito, marcato temporalmente con una marca qualificata conforme al regolamento eIDAS e reso immodificabile da un soggetto terzo, distinto sia dal fornitore sia dal deployer. È il passaggio che trasforma un semplice record tecnico in una prova con valore legale: senza questa garanzia, i log restano documenti interni privi di forza probatoria autonoma.
Il gap di compliance che la maggior parte delle imprese sottovaluta: l’Art. 12 prescrive cosa registrare, ma non come proteggere quei log da manomissioni. Un record su database standard può essere alterato senza lasciare traccia. Solo la certificazione indipendente con timestamp qualificato eIDAS colma il divario tra conformità tecnica e opponibilita’ legale.
TrueScreen, la Data Authenticity Platform, consente di certificare i log dei sistemi AI con valore legale e di trasformare ogni registrazione in una prova opponibile a terzi. Attraverso le proprie API, i log vengono acquisiti alla fonte e certificati con timestamp qualificato conforme al regolamento eIDAS. Il dato diventa immutabile dal momento stesso della registrazione. Il processo segue lo standard ISO/IEC 27037 per la raccolta e conservazione delle prove digitali. In pratica, per le organizzazioni che operano sistemi ad alto rischio, un obbligo di compliance diventa un asset probatorio: i log certificati documentano la catena di custodia completa, dal verificarsi dell’evento fino all’eventuale esibizione durante un’ispezione o in giudizio.
L’adozione di un framework come ISO/IEC 42001 per il sistema di gestione dell’AI può integrare questa architettura di certificazione, mentre il futuro standard prEN ISO/IEC 24970 sul logging dei sistemi AI definirà requisiti tecnici di implementazione per formato, granularità e conservazione dei log. Il risultato è un ambiente in cui la governance dei dati degli agenti AI è tracciabile e verificabile. La conformità all’Art. 12 può essere supportata da TrueScreen, la piattaforma di provenienza digitale certificata che documenta la catena di custodia di ogni log.
FAQ: AI Act e obblighi di record-keeping
Quali eventi deve registrare un sistema AI ad alto rischio secondo l’Art. 12?
L’Art. 12 del regolamento europeo sull’intelligenza artificiale richiede la registrazione automatica di tutti gli eventi necessari a tracciare il funzionamento del sistema durante il suo ciclo di vita. Per i sistemi biometrici, gli eventi specifici includono timestamp, database di riferimento, dati di input per le corrispondenze e identificazione del personale verificatore. Per gli altri sistemi ad alto rischio, la norma non elenca ogni singolo evento ma richiede che i log consentano di identificare rischi, supportare il monitoraggio post-market e verificare le prestazioni operative.
Per quanto tempo conservare i log dei sistemi AI ad alto rischio?
L’Art. 26, paragrafo 6, dell’AI Act impone ai deployer di conservare i log generati automaticamente per un periodo minimo di sei mesi dalla data di generazione. Normative settoriali o nazionali possono prevedere periodi più lunghi. La conservazione deve permettere l’accesso ai log da parte delle autorità di vigilanza su richiesta e mantenerne l’integrità nel tempo.
Quali sanzioni rischia chi non rispetta gli obblighi di record-keeping?
La violazione degli obblighi di record-keeping rientra nel secondo livello sanzionatorio dell’Art. 99: fino a 15 milioni di euro o il 3% del fatturato annuo globale dell’impresa. Per PMI e startup si applica l’importo inferiore tra i due. Al rischio economico si aggiunge quello reputazionale e l’eventuale sospensione del sistema AI non conforme da parte delle autorità di vigilanza.
Qual è la differenza tra logging tecnico e certificazione con valore legale?
Il logging tecnico registra gli eventi generati dal sistema AI in file locali o database. Soddisfa il requisito minimo dell’Art. 12 ma non offre garanzie autonome di integrità: i log possono essere modificati o cancellati. La certificazione con valore legale aggiunge un livello probatorio: ogni log viene acquisito da un soggetto terzo, marcato con timestamp qualificato eIDAS e reso immodificabile. Si crea così una catena di custodia verificabile e opponibile in sede giudiziaria o regolatoria.
Qual è la differenza tra Art. 12 e Art. 18 dell’AI Act?
L’Art. 12 disciplina la registrazione automatica degli eventi: i sistemi AI ad alto rischio devono generare log per l’intero ciclo di vita e i deployer devono conservarli per almeno sei mesi. L’Art. 18 riguarda la documentazione tecnica in senso ampio: i deployer devono mantenere accessibile la documentazione ricevuta dal fornitore per dieci anni dal ritiro del sistema. In pratica, l’Art. 12 copre l’audit trail operativo, l’Art. 18 copre la documentazione di conformità e di progettazione. Entrambi prevedono sanzioni di secondo livello fino a 15 milioni di euro o il 3% del fatturato globale.
