Il dividendo del bugiardo: quando i contenuti autentici vengono scartati come falsi
Ogni giorno, organizzazioni di ogni dimensione producono foto, video, documenti e comunicazioni digitali che finiscono nei fascicoli processuali, nelle trattative commerciali e nei report interni. Fino a pochi anni fa, il problema era uno solo: verificare che un contenuto non fosse stato manipolato. Oggi il problema si è capovolto.
Con la diffusione dell'AI generativa e dei deepfake, chiunque può affermare che un contenuto autentico sia falso. E questa affermazione è diventata plausibile. I ricercatori Robert Chesney e Danielle Citron lo hanno chiamato "liar's dividend", il dividendo del bugiardo: il beneficio che i disonesti ottengono dal semplice fatto che i contenuti sintetici esistono. Non hanno bisogno di crearli. Basta invocare la loro esistenza per gettare dubbi su qualsiasi prova reale.
Per le organizzazioni, questo è un rischio operativo che inizia a pesare. La risposta non può essere la detection dei contenuti falsi, perché nessuno strumento di rilevamento offre certezza giuridica. Serve un'infrastruttura che renda l'autenticità delle prove verificabile in modo indipendente fin dal momento della creazione: la Provenienza digitale.
Che cos'è il "dividendo del bugiardo" e perché riguarda le organizzazioni
Il concetto nasce nel 2019 dalla ricerca di Bobby Chesney e Danielle Citron, pubblicata sulla California Law Review. L'idea è diretta: in un mondo dove i deepfake esistono, chiunque può negare la veridicità di un contenuto scomodo sostenendo che sia un falso generato dall'AI. E questa negazione è diventata credibile.
L'UNESCO, nel documento "Deepfakes and the crisis of knowing", va oltre e inquadra il fenomeno come una "crisi del sapere stesso". I deepfake non si limitano a introdurre falsità nell'ecosistema informativo. Erodono i meccanismi con cui le società costruiscono una comprensione condivisa della realtà. Non è che esistano contenuti falsi a preoccupare. È che la loro sola possibilità cambia il modo in cui vengono percepiti tutti i contenuti. Anche quelli autentici.
Il World Economic Forum, nel Global Risks Report 2025, ha classificato disinformazione e misinformazione come il primo rischio globale a breve termine, per il secondo anno consecutivo. Il dividendo del bugiardo è il lato meno discusso di questa crisi: non riguarda la produzione di contenuti falsi, ma l'effetto che la loro sola esistenza ha sulla credibilità di quelli veri.
Il paradosso della consapevolezza
C'è un'ironia che vale la pena considerare. Più le persone imparano a riconoscere i deepfake, più il dividendo del bugiardo si rafforza. Chi vuole negare un'evidenza reale beneficia proprio della crescente alfabetizzazione sul tema. "Lo sai anche tu che oggi si può falsificare qualsiasi cosa": è la frase perfetta per scartare qualsiasi prova scomoda. E l'educazione ai media, da sola, non basta. Paradossalmente, rischia di amplificare il problema.
Le conseguenze concrete nei settori più esposti
Il dividendo del bugiardo non è un concetto accademico astratto. Produce effetti misurabili in diversi ambiti, con costi reali per chi subisce la contestazione infondata delle proprie prove.
Procedimenti legali e dispute
L'art. 2712 del Codice Civile italiano stabilisce che le riproduzioni meccaniche, incluse quelle informatiche, fanno piena prova dei fatti rappresentati, a meno che la parte contro cui sono prodotte non ne contesti la conformità. La norma risale a un'epoca in cui le manipolazioni erano rare e riconoscibili. Oggi offre un appiglio pericoloso: basta una contestazione per mettere in dubbio prove digitali prive di una catena di custodia verificabile.
Negli Stati Uniti, il fenomeno ha già raggiunto le aule di tribunale. Nel caso Tesla, i legali della società hanno sostenuto che le dichiarazioni di Elon Musk sulla sicurezza della guida autonoma non potessero essere usate come prova perché potenzialmente generate dall'AI. Non hanno dovuto dimostrare che fossero deepfake. È bastato sollevare il dubbio.
Comunicazione aziendale e crisi reputazionali
Per le aziende, il rischio si presenta su due livelli. Il primo è noto: un competitor o un attore malevolo crea contenuti falsi per danneggiare la reputazione. Il secondo è meno visibile ma altrettanto insidioso. Quando l'azienda produce documentazione autentica per difendersi, anche quella documentazione può essere liquidata come "probabilmente generata dall'AI". La difesa stessa diventa attaccabile.
Contesti politici e istituzionali
Filmati autentici di eventi vengono negati da attori politici che invocano il rischio deepfake. L'EPRS (European Parliamentary Research Service) ha stimato che entro il 2025 circoleranno 8 milioni di deepfake, rispetto ai 500.000 del 2023. Europol ha previsto che il 90% dei contenuti online potrebbe essere generato sinteticamente entro il 2026. La negabilità plausibile è diventata lo strumento più economico per sfuggire alle proprie responsabilità.
L'asimmetria fondamentale: contestare costa zero, dimostrare l'autenticità è costosissimo
Il meccanismo funziona perché sfrutta un'asimmetria economica profonda. Dire "potrebbe essere un deepfake" non costa nulla. Non servono prove, competenze o investimenti. È una frase che chiunque può pronunciare in qualsiasi contesto.
Dimostrare che un contenuto è autentico è tutta un'altra storia. Servono perizie forensi, analisi dei metadati, testimonianze sulla catena di custodia, consulenze tecniche. E anche dopo tutto questo, il risultato resta probabilistico. Nessun perito può garantire con certezza assoluta che un file non sia stato manipolato, a meno che non esista una traccia crittografica immutabile generata al momento della creazione.
Chi mente ha il gioco facile. Chi dice la verità paga il prezzo dell'incertezza creata da altri.
Perché la detection non è la risposta
La reazione istintiva al problema dei deepfake è la detection: strumenti che analizzano un contenuto e stabiliscono se è autentico o generato dall'AI. Ma la detection ha limiti concreti che la rendono inadeguata contro il dividendo del bugiardo.
Il gap tecnologico tra generazione e rilevamento
La qualità dei contenuti sintetici migliora più velocemente della capacità di rilevarli. Ogni nuovo modello generativo supera i detector esistenti. È una corsa asimmetrica, e chi genera parte sempre in vantaggio.
L'assenza di certezza giuridica
Un tool di detection che restituisce "probabilmente autentico" non elimina il ragionevole dubbio. In un procedimento giudiziario, una probabilità non è una prova. Il dividendo del bugiardo prospera nello spazio tra "probabilmente vero" e "certamente vero". Finché quello spazio esiste, il bugiardo ha margine.
La dipendenza dal contesto
I detector analizzano il file, ma non possono dire dove, quando e da chi quel file è stato creato. Senza contesto verificabile, anche un contenuto dichiarato "autentico" dal detector resta vulnerabile.
La risposta al problema: certificare l'autenticità alla fonte
Se dimostrare a posteriori che un contenuto è autentico costa troppo ed è sempre contestabile, la logica impone di garantire l'autenticità al momento della creazione. Questo approccio si chiama Provenienza digitale: una traccia verificabile dell'origine, dell'integrità e della storia di ogni contenuto digitale.
La Digital Provenance non tenta di riconoscere il falso. Garantisce il vero. Si passa dall'autenticazione dell'utente all'autenticazione del dato stesso.
Come funziona la certificazione alla fonte
Un contenuto certificato alla fonte porta con sé metadati verificabili e immutabili: firma digitale del creatore, timestamp emesso da un ente terzo qualificato, coordinate GPS verificate, hash crittografico del file, metadati del dispositivo. Insieme, formano una catena di custodia che chiunque può verificare in autonomia, senza dover fidarsi di chi ha prodotto il contenuto.
TrueScreen opera con questo approccio. La piattaforma acquisisce e certifica contenuti digitali (foto, video, documenti, email, screenshot, navigazione web) con una metodologia forense conforme agli standard ISO/IEC 27037 e al regolamento eIDAS. Ogni file viene sigillato con firma digitale e timestamp qualificato emesso da un Qualified Trust Service Provider internazionale, in conformità con lo standard ISO/IEC 27001.
Di fronte all'affermazione "potrebbe essere un deepfake", l'organizzazione può rispondere con una prova crittograficamente verificabile. L'affermazione "potrebbe essere falso" diventa dimostrabilmente errata. Il dividendo del bugiardo non ha più spazio per operare.
Dall'art. 2712 alla certezza crittografica
Nel contesto giuridico italiano, l'art. 2712 c.c. prevede che le riproduzioni informatiche facciano piena prova salvo disconoscimento. La giurisprudenza della Cassazione ha chiarito che il disconoscimento deve essere "chiaro, circostanziato e specifico", non generico.
Un contenuto certificato con firma digitale, timestamp qualificato e metadati verificabili risponde preventivamente a ogni possibile contestazione. L'integrità è garantita dall'hash crittografico. La timeline è attestata dal timestamp di un ente terzo certificato. La provenienza è verificata attraverso l'identità del creatore. Il contesto è documentato dalle coordinate GPS e dai metadati del dispositivo. Di fronte a questi elementi, un disconoscimento generico non ha fondamento giuridico.
A livello europeo, il regolamento eIDAS stabilisce che i sigilli elettronici qualificati godono di una presunzione legale di integrità e di correttezza dell'origine dei dati. Un'evidenza digitale certificata con questi standard non è "probabilmente autentica": è legalmente presunta autentica fino a prova contraria qualificata. Lo spazio in cui il dividendo del bugiardo opera si chiude.

