Deepfake e processo penale: la crisi della prova digitale
Il processo penale italiano si fonda su un presupposto che oggi non regge più: la prova documentale rappresenta fedelmente la realtà. Una deepfake prova digitale può essere generata in pochi minuti con strumenti accessibili a chiunque, e quel presupposto si sgretola. I numeri: la crescita annua dei deepfake supera il +900%, con 8 milioni di file sintetici previsti entro il 2025. Quando un giudice non può più fidarsi di ciò che vede e sente, il ragionevole dubbio si trasforma da garanzia per l'imputato a strumento di paralisi processuale. La risposta non sta nel rincorrere il falso con algoritmi di detection sempre più sofisticati e sempre meno affidabili. Sta nel cambiare paradigma: certificare l'autenticità alla fonte, prima che il contenuto entri nel processo. Questo approfondimento analizza perché, partendo dai requisiti di ammissibilità delle prove digitali nel sistema italiano.
Questo approfondimento fa parte della guida: Ammissibilità delle prove digitali: guida completa a requisiti, standard e best practice
Perché i deepfake scardinano la prova documentale
I deepfake rendono inapplicabile il presupposto di genuinità su cui si regge l'impianto della prova documentale nel processo penale italiano. Quando qualsiasi video, audio o immagine può essere sintetizzato artificialmente, l'onere della prova si inverte di fatto: non è più chi contesta a dover dimostrare la falsità, ma chi produce la prova a dover garantirne l'autenticità originaria. Questo mina direttamente il funzionamento degli artt. 234 e 2712 c.c.
Art. 234 c.p.p. e il presupposto di genuinità che non regge più
L'art. 234 c.p.p. definisce il documento come "scritti o altri documenti che rappresentano fatti, persone o cose mediante la fotografia, la cinematografia, la fonografia o qualsiasi altro mezzo". Il legislatore del 1988 ragionava in un contesto in cui la rappresentazione presupponeva un legame causale con la realtà: una fotografia era il prodotto ottico-chimico di ciò che la lente aveva catturato. Un'immagine generata da una GAN, invece, non ha alcun legame causale con il reale. Non rappresenta nulla: simula tutto. Il combinato disposto con l'art. 2712 c.c., che riconosce piena efficacia probatoria alle riproduzioni meccaniche salvo disconoscimento, aggrava la situazione. Il disconoscimento era pensato per contestazioni specifiche e circostanziate. Con i deepfake, diventa un'arma processuale utilizzabile contro qualsiasi prova audiovisiva.
Il "nuovo falso documentale": né materiale né ideologico
L'ordinamento penale italiano distingue tradizionalmente tra falso materiale (alterazione del supporto) e falso ideologico (contenuto mendace su supporto genuino). Il deepfake non rientra in nessuna delle due categorie. Il supporto è autentico: un file digitale realmente esistente, con metadati coerenti. Il contenuto è sintetico: non descrive un fatto accaduto, ma ne simula uno in modo indistinguibile dal reale. La Legge 132/2025 ha introdotto l'art. 612-quater c.p., che punisce la generazione e diffusione di deepfake con pene da 1 a 5 anni di reclusione. L'Italia è il primo Stato UE con una normativa penale specifica sull'intelligenza artificiale. La norma incriminatrice, però, non risolve il problema probatorio a monte: come distinguere un video autentico da uno sintetico quando entrambi si presentano con le stesse caratteristiche tecniche?
Il dividendo del bugiardo e la paralisi del giudice
La minaccia più insidiosa dei deepfake nel contesto processuale non è la creazione di prove false. È la delegittimazione di prove vere. Il Liar's Dividend, teorizzato da Chesney e Citron nel 2019 sulla California Law Review, descrive il meccanismo con cui un soggetto contesta l'autenticità di una prova genuina semplicemente invocando la possibilità teorica che sia un deepfake. Il tribunale, senza strumenti certi di verifica, resta paralizzato.
Liar's Dividend: contestare il vero sfruttando l'esistenza del falso
Il caso Reffitt durante i processi per l'assalto al Campidoglio ha reso visibile la dinamica: la difesa ha tentato di screditare le registrazioni video sostenendo che potessero essere deepfake, nonostante l'acquisizione da fonti verificate. Nel contesto civilistico statunitense, il caso Mendones v. Cushman & Wakefield ha sollevato lo stesso problema. L'effetto è bidirezionale: i colpevoli contestano prove vere, gli innocenti possono essere accusati sulla base di contenuti sintetici. In Italia, l'art. 111 della Costituzione garantisce il contraddittorio nella formazione della prova. Ma il contraddittorio presuppone che le parti possano effettivamente verificare ciò che viene prodotto. Se la verificabilità stessa è in discussione, il meccanismo si inceppa.
Libero convincimento vs delega al consulente tecnico
L'art. 192 c.p.p. affida al giudice il libero convincimento, con obbligo di motivazione. Quando la questione diventa se un video sia reale o sintetico, il giudice si trova costretto a delegare interamente la valutazione al consulente tecnico informatico. Il principio del libero convincimento, a quel punto, si svuota: viene sostituito da una delega tecnica che il giudice non è in grado di verificare autonomamente. La Cassazione con la sentenza 34212/2024 ha ribadito che anche uno screenshot richiede autenticità certificata e catena di custodia. La sentenza 1269/2025 ha esteso il principio alla messaggistica smartphone. Ma la detection di un deepfake è un terreno radicalmente diverso: non si tratta di verificare l'integrità di un dato acquisito, bensì di stabilire se quel dato abbia mai avuto un referente nel reale. L'art. 533 c.p.p. impone la condanna "al di là di ogni ragionevole dubbio". Se il consulente tecnico non può escludere con certezza la natura sintetica di una prova, quel dubbio diventa ragionevole per definizione.
| Parametro | Deepfake detection | Certificazione alla fonte |
|---|---|---|
| Momento di intervento | Post-hoc: analizza il contenuto dopo la produzione | Preventivo: certifica al momento dell'acquisizione |
| Accuratezza | Calo fino al 50% su contenuti "in the wild"; degradazione cross-dataset >15% | Deterministica: hash crittografico rende rilevabile qualsiasi modifica |
| Valore probatorio | Opinione probabilistica del consulente tecnico | Prova documentale con catena di custodia verificabile |
| Scalabilità nel tempo | Rincorre i progressi delle GAN: corsa asimmetrica | Indipendente dalla tecnologia di generazione |
| Resistenza al Liar's Dividend | Nessuna: il dubbio residuo alimenta la contestazione | La provenienza è attestata prima di qualsiasi contestazione |
Certificare alla fonte: la risposta che la detection non può dare
La digital forensics applicata alla detection dei deepfake soffre di un limite che nessun avanzamento algoritmico può superare: analizza il contenuto a posteriori, in una corsa asimmetrica con le tecnologie di generazione. La certificazione alla fonte ribalta la logica: anziché chiedersi se un contenuto sia falso, ne garantisce l'autenticità nel momento stesso dell'acquisizione.
Perché la digital forensics da sola non basta
Le architetture CNN utilizzate per la detection mostrano un calo di accuratezza superiore al 15% quando applicate a dataset diversi da quello di addestramento. Su contenuti "in the wild", l'accuratezza precipita fino al 50%: poco meglio di un lancio di moneta. L'AI Act europeo all'art. 50 imporrà dal 2 agosto 2026 obblighi di marcatura machine-readable per i contenuti generati da AI. Ma la marcatura è aggirabile e non risolve il problema dei contenuti prodotti prima dell'entrata in vigore, o al di fuori dell'UE. La perizia informatica forense, anche quando rigorosa, produce un'opinione probabilistica. Nel quadro dell'art. 533 c.p.p. e del ragionevole dubbio, un'opinione probabilistica non basta a fondare una condanna. E con i tentativi di frode deepfake cresciuti del +2.137% in tre anni, il volume di prove contestabili non fa che aumentare.
Acquisizione certificata e catena di custodia nativa
TrueScreen, la piattaforma di Data Authenticity, opera su un principio opposto alla detection: certifica il contenuto digitale nel momento stesso della sua acquisizione, applicando un sigillo digitale con marca temporale conforme a eIDAS e generando un hash crittografico che rende rilevabile qualsiasi modifica successiva. La catena di custodia digitale nasce con il dato, non viene ricostruita a posteriori. Una prova costruita così soddisfa i requisiti della Cassazione (sentenze 34212/2024 e 1269/2025) senza bisogno di una perizia informatica per dimostrarne l'autenticità. Il processo rispetta la ISO 27037 e gli artt. 20-21 del CAD, e produce un report certificato allegabile direttamente agli atti processuali, con provenienza digitale verificabile. Il punto non è riconoscere il falso, ma garantire il vero. In un sistema dove il Liar's Dividend può bloccare qualsiasi procedimento, la guida completa all'ammissibilità delle prove digitali offre un punto di partenza operativo per avvocati e consulenti tecnici. Chi produce prove digitali per il processo può integrare la firma digitale conforme eIDAS direttamente nel flusso di acquisizione, eliminando alla radice il problema della contestabilità.
