{"id":55882,"date":"2026-03-26T15:49:42","date_gmt":"2026-03-26T14:49:42","guid":{"rendered":"https:\/\/truescreen.io\/articoli\/studio-edimburgo-impronte-ia-deepfake-detection\/"},"modified":"2026-03-28T06:59:49","modified_gmt":"2026-03-28T05:59:49","slug":"studio-edimburgo-impronte-ia-deepfake-detection","status":"publish","type":"articoli","link":"https:\/\/truescreen.io\/it\/articoli\/studio-edimburgo-impronte-ia-deepfake-detection\/","title":{"rendered":"Impronte digitali dell&#8217;IA vulnerabili: lo studio di Edimburgo che cambia le regole del deepfake detection"},"content":{"rendered":"<p><div class=\"fusion-fullwidth fullwidth-box fusion-builder-row-1 fusion-flex-container nonhundred-percent-fullwidth non-hundred-percent-height-scrolling\" style=\"--awb-border-radius-top-left:0px;--awb-border-radius-top-right:0px;--awb-border-radius-bottom-right:0px;--awb-border-radius-bottom-left:0px;--awb-flex-wrap:wrap;\" ><div class=\"fusion-builder-row fusion-row fusion-flex-align-items-flex-start fusion-flex-content-wrap\" style=\"max-width:1236px;margin-left: calc(-3% \/ 2 );margin-right: calc(-3% \/ 2 );\"><\/div><\/div><div class=\"fusion-fullwidth fullwidth-box fusion-builder-row-2 fusion-flex-container has-pattern-background has-mask-background nonhundred-percent-fullwidth non-hundred-percent-height-scrolling\" style=\"--awb-border-radius-top-left:0px;--awb-border-radius-top-right:0px;--awb-border-radius-bottom-right:0px;--awb-border-radius-bottom-left:0px;--awb-padding-top:0px;--awb-padding-bottom:0px;--awb-margin-top:0px;--awb-margin-bottom:0px;--awb-flex-wrap:wrap;\" ><div class=\"fusion-builder-row fusion-row fusion-flex-align-items-flex-start fusion-flex-content-wrap\" style=\"max-width:1236px;margin-left: calc(-3% \/ 2 );margin-right: calc(-3% \/ 2 );\"><div class=\"fusion-layout-column fusion_builder_column fusion-builder-column-0 fusion_builder_column_1_1 1_1 fusion-flex-column\" style=\"--awb-bg-size:cover;--awb-width-large:100%;--awb-margin-top-large:0px;--awb-spacing-right-large:1.455%;--awb-margin-bottom-large:20px;--awb-spacing-left-large:1.455%;--awb-width-medium:100%;--awb-order-medium:0;--awb-spacing-right-medium:1.455%;--awb-spacing-left-medium:1.455%;--awb-width-small:100%;--awb-order-small:0;--awb-spacing-right-small:1.455%;--awb-spacing-left-small:1.455%;\"><div class=\"fusion-column-wrapper fusion-column-has-shadow fusion-flex-justify-content-flex-start fusion-content-layout-column\"><style>\n.fusion-title .fusion-title-heading { font-family: 'Raleway', sans-serif !important; }\n.fusion-text p, .fusion-text li, .fusion-text a, .fusion-text span, .fusion-text strong, .fusion-text b { font-family: 'DM Sans', sans-serif; }\n.fusion-button-text { font-family: 'DM Sans', sans-serif; }\n.panel-title a, .fusion-toggle-heading { font-family: 'DM Sans', sans-serif !important; }\n.toggle-content p { font-family: 'DM Sans', sans-serif; }\n.fusion-checklist .fusion-li-item-content p { font-family: 'DM Sans', sans-serif; }\n<\/style><\/div><\/div><\/div><\/div><div class=\"fusion-fullwidth fullwidth-box fusion-builder-row-3 fusion-flex-container has-pattern-background has-mask-background nonhundred-percent-fullwidth non-hundred-percent-height-scrolling\" style=\"--awb-border-radius-top-left:0px;--awb-border-radius-top-right:0px;--awb-border-radius-bottom-right:0px;--awb-border-radius-bottom-left:0px;--awb-padding-top:38.9913px;--awb-padding-bottom:39.9931px;--awb-padding-top-small:0px;--awb-padding-bottom-small:48px;--awb-margin-top:0px;--awb-margin-top-small:0px;--awb-margin-bottom-small:0px;--awb-background-color:var(--awb-color2);--awb-flex-wrap:wrap;\" ><div class=\"fusion-builder-row fusion-row fusion-flex-align-items-flex-start fusion-flex-content-wrap\" style=\"max-width:1236px;margin-left: calc(-3% \/ 2 );margin-right: calc(-3% \/ 2 );\"><div class=\"fusion-layout-column fusion_builder_column fusion-builder-column-1 fusion_builder_column_1_1 1_1 fusion-flex-column\" style=\"--awb-bg-size:cover;--awb-width-large:100%;--awb-margin-top-large:0px;--awb-spacing-right-large:1.455%;--awb-margin-bottom-large:20px;--awb-spacing-left-large:1.455%;--awb-width-medium:100%;--awb-order-medium:0;--awb-spacing-right-medium:1.455%;--awb-spacing-left-medium:1.455%;--awb-width-small:100%;--awb-order-small:0;--awb-spacing-right-small:1.455%;--awb-spacing-left-small:1.455%;\"><div class=\"fusion-column-wrapper fusion-column-has-shadow fusion-flex-justify-content-flex-start fusion-content-layout-column\"><div class=\"fusion-title title fusion-title-1 fusion-sep-none fusion-title-text fusion-title-size-one\" style=\"--awb-text-color:var(--awb-color1);\"><h1 class=\"fusion-title-heading title-heading-left fusion-responsive-typography-calculated\" style=\"margin:0;--fontSize:36;--minFontSize:36;line-height:1.3;\"><h1>Impronte digitali dell&#8217;IA vulnerabili: lo studio di Edimburgo che cambia le regole del deepfake detection<\/h1><\/h1><\/div><\/div><\/div><\/div><\/div><div class=\"fusion-fullwidth fullwidth-box fusion-builder-row-4 fusion-flex-container nonhundred-percent-fullwidth non-hundred-percent-height-scrolling\" style=\"--awb-border-radius-top-left:0px;--awb-border-radius-top-right:0px;--awb-border-radius-bottom-right:0px;--awb-border-radius-bottom-left:0px;--awb-padding-top:36px;--awb-padding-bottom:48px;--awb-padding-top-small:40px;--awb-padding-bottom-small:0px;--awb-margin-bottom:0px;--awb-background-color:#ffffff;--awb-flex-wrap:wrap;\" ><div class=\"fusion-builder-row fusion-row fusion-flex-align-items-flex-start fusion-flex-content-wrap\" style=\"max-width:1236px;margin-left: calc(-3% \/ 2 );margin-right: calc(-3% \/ 2 );\"><div class=\"fusion-layout-column fusion_builder_column fusion-builder-column-2 fusion_builder_column_1_1 1_1 fusion-flex-column\" style=\"--awb-bg-size:cover;--awb-width-large:100%;--awb-margin-top-large:0px;--awb-spacing-right-large:1.455%;--awb-margin-bottom-large:0px;--awb-spacing-left-large:1.164%;--awb-width-medium:100%;--awb-order-medium:0;--awb-spacing-right-medium:1.455%;--awb-spacing-left-medium:1.455%;--awb-width-small:100%;--awb-order-small:0;--awb-spacing-right-small:1.455%;--awb-margin-bottom-small:0px;--awb-spacing-left-small:1.455%;\"><div class=\"fusion-column-wrapper fusion-column-has-shadow fusion-flex-justify-content-flex-start fusion-content-layout-column\"><p>Le impronte digitali dell'IA erano considerate la risposta al problema dell'origine dei contenuti sintetici. L'idea di fondo: ogni modello generativo lascia una firma statistica nei pixel, nei pattern di frequenza, negli artefatti invisibili a occhio nudo. Firma unica, modello identificabile, contenuto tracciabile. Su questa premessa si \u00e8 costruito un ecosistema di strumenti di rilevamento, investimenti miliardari e aspettative regolatorie.<\/p>\n\n<p>A marzo 2026, un gruppo di ricercatori dell'Universit\u00e0 di Edimburgo ha messo alla prova quella premessa con la pi\u00f9 ampia valutazione indipendente mai condotta sul fingerprinting dell'IA: 12 generatori di immagini, 14 metodi di rilevamento. I risultati ribaltano il quadro. Le impronte si rimuovono nell'80% dei casi con attacchi avanzati. Si falsificano in circa met\u00e0 dei sistemi analizzati. Tutto questo senza lasciare alcuna traccia visibile sulle immagini.<\/p>\n\n<p>Il problema non \u00e8 tecnico, \u00e8 di impostazione: il rilevamento dei deepfake a posteriori poggia su basi che nessun aggiornamento algoritmico pu\u00f2 rinforzare. Se non possiamo fidarci di riconoscere i deepfake dopo che sono stati creati, come proteggiamo l'integrit\u00e0 delle informazioni digitali?<\/p>\n\n<p>La risposta sta nel passaggio dalla detection alla <a href=\"https:\/\/truescreen.io\/it\/digital-provenance\/\" target=\"_blank\" rel=\"noopener\">provenienza digitale<\/a>: certificare l'autenticit\u00e0 alla fonte anzich\u00e9 inseguire la falsificazione a valle.<\/p>\n\n<h2>Deepfake nel 2026: numeri di una crisi che accelera<\/h2>\n\n<p>Il volume di contenuti manipolati generati dall'intelligenza artificiale ha raggiunto nel 2025 soglie che tre anni fa nessuno avrebbe previsto. Non si tratta di crescita lineare: \u00e8 un'accelerazione esponenziale che rende obsoleto qualsiasi approccio reattivo.<\/p>\n\n<h3>+900% di contenuti manipolati all'anno: i dati aggiornati<\/h3>\n\n<p>Secondo <a href=\"https:\/\/keepnetlabs.com\/blog\/deepfake-statistics-and-trends\" target=\"_blank\" rel=\"noopener\">Keepnet Labs (2025)<\/a>, i contenuti deepfake sono cresciuti del 900% annuo, passando da 500.000 unit\u00e0 nel 2023 a oltre 8 milioni nel 2025. I tentativi di bypass biometrico tramite deepfake sono aumentati del 704% nel 2023, con una frequenza che nel 2024 ha raggiunto un tentativo ogni cinque minuti. La crescita attraversa trasversalmente finanza, assicurazioni, risorse umane e settore pubblico. L'80% delle aziende non ha ancora protocolli specifici contro questa minaccia, e Gartner prevede che entro il 2026 il 30% delle organizzazioni non considerer\u00e0 pi\u00f9 affidabili le soluzioni di verifica dell'identit\u00e0 standalone.<\/p>\n\n<h3>40 miliardi di dollari di frodi IA entro il 2027: l'impatto economico<\/h3>\n\n<p>L'impatto finanziario segue la curva della diffusione. Deloitte stima che le <a href=\"https:\/\/truescreen.io\/it\/articoli\/frodi-assicurative-ai-generativa-certificazione-prove\/\" target=\"_blank\" rel=\"noopener\">frodi legate all'IA generativa<\/a> negli Stati Uniti raggiungeranno i 40 miliardi di dollari entro il 2027. Nel 2025 le perdite deepfake-related hanno gi\u00e0 toccato 1,1 miliardi di dollari, contro i 360 milioni del 2024: oltre il 200% in pi\u00f9 in dodici mesi. La perdita media per singolo incidente nel 2024 si \u00e8 attestata intorno ai 500.000 dollari (dati Keepnet).<\/p>\n\n<p>Il mercato del deepfake detection cresce a un CAGR tra il 28% e il 42%. La domanda di soluzioni per il rilevamento deepfake esiste ed \u00e8 in forte espansione. Ma la direzione di quegli investimenti poggia su un presupposto sempre pi\u00f9 fragile: che sia possibile riconoscere i contenuti sintetici analizzandoli dopo la loro creazione. L'approccio alternativo, adottato da TrueScreen con la certificazione forense alla fonte, elimina il problema alla radice certificando l'autenticit\u00e0 al momento dell'acquisizione.<\/p>\n\n<h2>Lo studio dell'Universit\u00e0 di Edimburgo: perch\u00e9 le impronte digitali dell'IA non sono sicure<\/h2>\n\n<p>La ricerca pubblicata a marzo 2026 dall'Universit\u00e0 di Edimburgo \u00e8 la valutazione pi\u00f9 estesa mai condotta sull'affidabilit\u00e0 del fingerprinting dell'IA. I risultati invalidano l'assunto su cui si reggono molti sistemi di rilevamento oggi in uso.<\/p>\n\n<p>Il fingerprinting dell'IA si riferisce all'insieme delle tecniche che analizzano le tracce statistiche lasciate dai modelli generativi nei contenuti sintetici: pattern nei pixel, artefatti di frequenza, firme spettrali specifiche di ciascun generatore. Secondo la <a href=\"https:\/\/www.deadlinenews.co.uk\/2026\/03\/25\/ai-fingerprints-can-be-removed-from-deepfakes-study-finds\/\" target=\"_blank\" rel=\"noopener\">ricerca dell'Universit\u00e0 di Edimburgo (marzo 2026)<\/a>, queste impronte possono essere rimosse con un tasso di successo superiore all'80% quando l'attaccante dispone di accesso completo al sistema, e in oltre il 50% dei casi anche con attacchi semplici. In circa met\u00e0 dei sistemi analizzati, le impronte possono essere falsificate per attribuire erroneamente un'immagine a un modello generativo diverso da quello reale. Nessuna delle 14 tecniche esaminate garantisce simultaneamente alta accuratezza e robustezza in tutti gli scenari.<\/p>\n\n<h3>Cosa sono le impronte digitali dell'IA?<\/h3>\n\n<p>Le impronte digitali dell'IA (AI fingerprints) sono tracce statistiche involontarie che ogni modello generativo di intelligenza artificiale lascia nei contenuti sintetici. Ogni generatore produce pattern specifici nei pixel e nelle frequenze, una firma unica che in teoria consente di identificare l'origine del contenuto e determinare se \u00e8 sintetico. Lo studio dell'Universit\u00e0 di Edimburgo (2026) ha dimostrato che queste impronte sono rimovibili nell'80% dei casi e falsificabili in circa met\u00e0 dei sistemi, rendendo i metodi di rilevamento deepfake basati su fingerprinting strutturalmente vulnerabili.<\/p>\n\n<h3>Cos'\u00e8 il fingerprinting dell'IA e perch\u00e9 ci si fidava<\/h3>\n\n<p>Ogni generatore di immagini basato su intelligenza artificiale lascia tracce involontarie nei contenuti che produce. Derivano dall'architettura della rete neurale, dai dati di addestramento, dai metodi di campionamento. Tracce simili alle impronte digitali umane, almeno in teoria. Se ogni modello lascia una firma unica, basta identificarla per risalire all'origine del contenuto e determinare se \u00e8 sintetico.<\/p>\n\n<p>Su questa logica si sono mossi investimenti significativi, integrazioni nei framework regolatori, promesse che la tecnologia potesse risolvere il problema che aveva creato. L'AI Act europeo (Regolamento UE 2024\/1689) prevede obblighi di etichettatura per i contenuti generati dall'IA, presupponendo che quelle etichette siano tecnicamente applicabili e resistenti alla manomissione. Lo studio di Edimburgo mette in discussione proprio quel presupposto.<\/p>\n\n<h3>12 generatori, 14 metodi: la pi\u00f9 grande valutazione mai condotta<\/h3>\n\n<p>I ricercatori, supportati dalla Edinburgh International Data Facility, dal Data-Driven Innovation Programme e dal Generative AI Laboratory, hanno testato 14 metodi di fingerprinting su immagini prodotte da 12 generatori diversi. L'ampiezza del campione e la variet\u00e0 dei generatori rendono i risultati rappresentativi dello stato dell'arte. Non \u00e8 un test circoscritto al laboratorio: riflette le condizioni in cui questi strumenti vengono effettivamente utilizzati.<\/p>\n\n<h3>Rimozione nell'80% dei casi, falsificazione in met\u00e0 dei sistemi<\/h3>\n\n<p>Il dato che colpisce di pi\u00f9 non \u00e8 la rimozione delle impronte, ma la falsificazione. In circa met\u00e0 dei sistemi analizzati, i ricercatori sono riusciti a manipolare l'impronta per attribuire un'immagine a un modello diverso da quello che l'ha generata. Come scrivono gli autori, questa vulnerabilit\u00e0 potrebbe portare ad \"attribuire erroneamente a legitimate tech companies immagini dannose che i loro sistemi non hanno mai prodotto\".<\/p>\n\n<p>Per chi si occupa di compliance e AI forensics, il dettaglio pi\u00f9 allarmante \u00e8 un altro: tutti gli attacchi sono impercettibili a occhio nudo. Le immagini manipolate appaiono identiche alle originali. Nessun artefatto visivo, nessuna degradazione percepibile. Un sistema di fingerprinting pu\u00f2 essere ingannato senza che nessun operatore umano se ne accorga.<\/p>\n\n<p>Gli stessi ricercatori suggeriscono un'integrazione tra fingerprinting e watermarking come strada parziale, ma ammettono che nessuna tecnica garantisce contemporaneamente alta accuratezza e robustezza. Non si risolve con aggiornamenti incrementali dentro lo stesso approccio.<\/p>\n\n<p>In sintesi, lo studio dell'Universit\u00e0 di Edimburgo pubblicato a marzo 2026 ha testato 14 metodi di fingerprinting IA su immagini prodotte da 12 generatori diversi, rappresentando la valutazione indipendente pi\u00f9 ampia mai condotta in questo campo. I risultati dimostrano che le impronte digitali dell'IA possono essere rimosse con un tasso di successo superiore all'80% tramite attacchi avversariali avanzati e in oltre il 50% dei casi con attacchi semplici. In circa met\u00e0 dei sistemi analizzati, le impronte possono essere falsificate per attribuire un'immagine a un modello generativo diverso da quello reale. Nessuna delle 14 tecniche di deepfake detection esaminate garantisce simultaneamente alta accuratezza e robustezza. I ricercatori concludono che il fingerprinting come unico strumento di verifica dell'autenticit\u00e0 dei contenuti digitali non \u00e8 sufficiente: servono approcci complementari basati sulla certificazione alla fonte.<\/p>\n\n\n<div class=\"ts-feature-banner\" style=\"margin: 40px 0; padding: 0; background-color: #f8f7fd; border-radius: 12px; display: flex; overflow: hidden; border: 1px solid rgba(0,0,0,0.06);\">\n  <div style=\"width: 160px; min-height: 140px; flex-shrink: 0; overflow: hidden;\">\n    <img decoding=\"async\" src=\"https:\/\/truescreen.io\/wp-content\/uploads\/2024\/09\/Mobile-Header.png\" alt=\"Prove digitali certificate per il contenzioso\"\" style=\"width: 100%; height: 100%; object-fit: cover;\" \/>\n  <\/div>\n  <div style=\"padding: 20px 24px; flex: 1; display: flex; flex-direction: column; justify-content: center;\">\n    <p style=\"font-family: 'DM Sans', sans-serif; font-size: 12px; font-weight: 600; color: #7c6bc4; text-transform: uppercase; letter-spacing: 0.5px; margin: 0 0 6px 0;\">Caso di utilizzo<\/p>\n    <p style=\"font-family: 'Raleway', sans-serif; font-size: 17px; font-weight: 700; color: #1a1a2e; margin: 0 0 6px 0; line-height: 1.3;\">Prove digitali certificate per il contenzioso<\/p>\n    <p style=\"font-family: 'DM Sans', sans-serif; font-size: 14px; color: #555; margin: 0 0 12px 0; line-height: 1.4;\">Acquisisci e certifica prove digitali con valore legale garantito per procedimenti civili e penali.<\/p>\n    <a href=\"https:\/\/truescreen.io\/it\/casi-di-utilizzo\/prove-digitali-contenzioso\/\" target=\"_blank\" rel=\"noopener\" style=\"font-family: &#039;DM Sans&#039;, sans-serif; font-size: 14px; font-weight: 600; color: #1a73e8; text-decoration: none;\">Scopri il caso d'uso \u2192<\/a>\n  <\/div>\n<\/div>\n\n<h2>I numeri reali del deepfake detection: perch\u00e9 rincorrere il falso non funziona<\/h2>\n\n<p>Le vulnerabilit\u00e0 scoperte a Edimburgo non sono un caso isolato. Si inseriscono in un quadro dove ogni metodo di rilevamento deepfake a posteriori perde efficacia non appena esce dal laboratorio. Il divario tra performance dichiarate e performance operative reali \u00e8 il dato su cui i decision maker dovrebbero concentrarsi.<\/p>\n\n<h3>Detection umana: solo lo 0,1% identifica correttamente un deepfake<\/h3>\n\n<p>Secondo <a href=\"https:\/\/keepnetlabs.com\/blog\/deepfake-statistics-and-trends\" target=\"_blank\" rel=\"noopener\">iProov (2025)<\/a>, solo lo 0,1% delle persone sottoposte a test \u00e8 in grado di identificare correttamente tutti i deepfake presentati. Una meta-analisi su 56 studi ha rilevato un'accuratezza media del 24,5% nella detection umana di video deepfake: meno di quanto si otterrebbe rispondendo a caso. Il 68% dei deepfake analizzati \u00e8 stato giudicato \"quasi indistinguibile\" da contenuti reali. Questi numeri smontano l'idea che la supervisione umana possa fare da rete di sicurezza per i sistemi automatizzati. In contesti enterprise dove decisioni legali, assicurative e di compliance dipendono dall'autenticit\u00e0 dei contenuti, affidarsi alla percezione umana equivale a non avere alcun controllo.<\/p>\n\n\n<p>Il quadro complessivo dei dati sulla capacit\u00e0 umana e algoritmica di riconoscere i deepfake \u00e8 inequivocabile. Solo lo 0,1% degli esseri umani riesce a identificare correttamente tutti i contenuti deepfake (dati iProov 2025), mentre l'accuratezza media nella detection umana \u00e8 del 24,5%, inferiore al risultato ottenibile rispondendo a caso. Gli strumenti automatizzati di deepfake detection perdono tra il 45% e il 50% di efficacia nel passaggio dal laboratorio alle condizioni operative reali, e un contenuto sintetico su tre sfugge completamente ai detector attuali. Questi numeri indicano che la strategia di difesa basata sul rilevamento a posteriori presenta limiti strutturali non risolvibili con miglioramenti incrementali. L'alternativa \u00e8 la certificazione dell'autenticit\u00e0 alla fonte tramite <a href=\"https:\/\/truescreen.io\/it\/digital-provenance\/\" target=\"_blank\" rel=\"noopener\">provenienza digitale<\/a>: TrueScreen adotta questo approccio acquisendo e certificando i contenuti digitali al momento della creazione, con valore legale in 194 Paesi.<\/p>\n\n<h3>Gli strumenti IA nel mondo reale: calo di efficacia del 45-50%<\/h3>\n\n<p>Gli strumenti di deepfake detection basati su intelligenza artificiale mostrano performance radicalmente diverse tra laboratorio e campo. Il calo di efficacia stimato \u00e8 del 45-50% (dati Keepnet Labs). I detector attuali falliscono sul 35% dei deepfake di nuova generazione, un dato che conferma i limiti degli strumenti di deepfake detection oggi disponibili. Significa che pi\u00f9 di un contenuto sintetico su tre passa completamente inosservato.<\/p>\n\n<p>Non \u00e8 un difetto che si corregge con modelli pi\u00f9 potenti. Ogni miglioramento nel deepfake video detection viene seguito, spesso nel giro di settimane, da un avanzamento equivalente nelle tecniche di generazione. \u00c8 una dinamica intrinseca dell'approccio, non un bug risolvibile.<\/p>\n\n<h3>La corsa agli armamenti tra generazione e rilevamento<\/h3>\n\n<p>Il mercato del deepfake detection cresce con un CAGR tra il 28% e il 42%. Ma la crescita degli investimenti non risolve i <a href=\"https:\/\/truescreen.io\/it\/articoli\/deepfake-detection-limiti-data-authenticity\/\" target=\"_blank\" rel=\"noopener\">limiti strutturali<\/a> della detection. Il ciclo si ripete: un nuovo detector ottiene risultati promettenti in laboratorio, i generatori si aggiornano, le performance crollano, si ricomincia.<\/p>\n\n<p>Per un CISO o un responsabile compliance, questo ciclo ha un significato preciso: nessuna garanzia di affidabilit\u00e0 nel tempo. Watermark IA, firme spettrali, classificatori neurali rincorrono un bersaglio in movimento. Lo studio di Edimburgo ha dimostrato che quel bersaglio \u00e8 ancora pi\u00f9 sfuggente di quanto si credesse. La Data Authenticity Platform di TrueScreen affronta il problema da una prospettiva diversa: invece di inseguire la falsificazione, certifica l'autenticit\u00e0 dei contenuti alla fonte con valore legale, eliminando la dipendenza dal ciclo detection-generazione.<\/p>\n\n<h3>I principali strumenti di rilevamento deepfake e i loro limiti<\/h3>\n\n<p>Il mercato offre diverse categorie di strumenti per il rilevamento dei deepfake, ciascuna con vulnerabilit\u00e0 specifiche. I classificatori neurali (sviluppati da Microsoft, Intel FakeCatcher e vari progetti accademici) analizzano pattern statistici nei pixel, ma lo studio di Edimburgo ha dimostrato che questi pattern sono manipolabili. I detector basati su analisi facciale (liveness detection) verificano micro-espressioni e movimenti oculari, ma i generatori di ultima generazione producono risultati sempre pi\u00f9 realistici. I sistemi di analisi forense delle frequenze cercano artefatti nello spettro delle immagini, ma sono vulnerabili alla post-elaborazione. Infine, il watermarking IA (come SynthID di Google) inserisce marcatori nei contenuti generati, ma richiede la cooperazione del generatore e non protegge da strumenti open-source privi di watermark. Ogni categoria condivide lo stesso limite strutturale: opera a posteriori, su contenuti gi\u00e0 creati e potenzialmente gi\u00e0 manipolati.<\/p>\n\n\n<div class=\"ts-feature-banner\" style=\"margin: 40px 0; padding: 0; background-color: #f8f7fd; border-radius: 12px; display: flex; overflow: hidden; border: 1px solid rgba(0,0,0,0.06);\">\n  <div style=\"width: 160px; min-height: 140px; flex-shrink: 0; overflow: hidden;\">\n    <img decoding=\"async\" src=\"https:\/\/truescreen.io\/wp-content\/uploads\/2024\/09\/Mobile-Header.png\" alt=\"Indagini private certificate\"\" style=\"width: 100%; height: 100%; object-fit: cover;\" \/>\n  <\/div>\n  <div style=\"padding: 20px 24px; flex: 1; display: flex; flex-direction: column; justify-content: center;\">\n    <p style=\"font-family: 'DM Sans', sans-serif; font-size: 12px; font-weight: 600; color: #7c6bc4; text-transform: uppercase; letter-spacing: 0.5px; margin: 0 0 6px 0;\">Caso di utilizzo<\/p>\n    <p style=\"font-family: 'Raleway', sans-serif; font-size: 17px; font-weight: 700; color: #1a1a2e; margin: 0 0 6px 0; line-height: 1.3;\">Indagini private certificate<\/p>\n    <p style=\"font-family: 'DM Sans', sans-serif; font-size: 14px; color: #555; margin: 0 0 12px 0; line-height: 1.4;\">Prove digitali con valore legale per investigazioni: foto, video, documenti certificati alla fonte.<\/p>\n    <a href=\"https:\/\/truescreen.io\/it\/casi-di-utilizzo\/investigazioni-private-certificate\/\" target=\"_blank\" rel=\"noopener\" style=\"font-family: &#039;DM Sans&#039;, sans-serif; font-size: 14px; font-weight: 600; color: #1a73e8; text-decoration: none;\">Scopri il caso d'uso \u2192<\/a>\n  <\/div>\n<\/div>\n\n<h2>Dalla detection alla digital provenance: certificare l'autentico anzich\u00e9 riconoscere il falso<\/h2>\n\n<p>La risposta non \u00e8 un detector migliore. \u00c8 un cambio di approccio. Invece di analizzare un contenuto a posteriori per stabilire se \u00e8 falso, la <a href=\"https:\/\/truescreen.io\/it\/digital-provenance\/\" target=\"_blank\" rel=\"noopener\">provenienza digitale<\/a> certifica l'autenticit\u00e0 alla fonte, al momento stesso dell'acquisizione.<\/p>\n\n<p>La digital provenance \u00e8 la tracciabilit\u00e0 completa dell'origine, della storia e delle trasformazioni di un contenuto digitale, dall'istante in cui viene creato fino a qualsiasi momento successivo in cui venga utilizzato come prova, documento o riferimento. Secondo le proiezioni <a href=\"https:\/\/truescreen.io\/it\/articoli\/digital-provenance-gartner-top-10-trends-2026\/\" target=\"_blank\" rel=\"noopener\">Gartner per il 2026<\/a>, la digital provenance \u00e8 tra i principali trend tecnologici destinati a ridefinire la gestione dei dati aziendali. A differenza della detection, che opera in condizioni di incertezza crescente, la certificazione alla fonte produce un risultato binario e verificabile: il contenuto \u00e8 certificato oppure non lo \u00e8. Nessun falso positivo, nessun margine di errore legato alla qualit\u00e0 del generatore.<\/p>\n\n\n<p>La digital provenance rappresenta un cambio di paradigma rispetto al deepfake detection tradizionale. Mentre la detection analizza un contenuto gi\u00e0 esistente cercando tracce di manipolazione (con tassi di fallimento del 35-50%), la digital provenance certifica l'autenticit\u00e0 alla fonte, al momento stesso dell'acquisizione. Il risultato \u00e8 un dato digitale con catena di custodia completa: hash crittografico, marca temporale qualificata, firma digitale, metadati GPS e dispositivo cristallizzati all'origine. Questo approccio elimina il problema dell'affidabilit\u00e0 dei detector, perch\u00e9 non richiede di distinguere il vero dal falso a posteriori. Secondo Gartner, la digital provenance \u00e8 tra i principali trend tecnologici del 2026 destinati a ridefinire la gestione dei dati aziendali. TrueScreen implementa questo modello con certificazione forense valida in 194 Paesi.<\/p>\n\n<h3>Il cambio di paradigma: dall'analisi a posteriori alla garanzia alla fonte<\/h3>\n\n<p>La logica della detection presuppone che un contenuto sia autentico fino a prova contraria, e investe risorse per cercare quella prova. In un contesto dove 8 milioni di deepfake vengono prodotti ogni anno e le impronte digitali dell'IA si cancellano nell'80% dei casi, quel presupposto non regge pi\u00f9.<\/p>\n\n<p>La certificazione forense alla fonte, come quella implementata da <a href=\"https:\/\/truescreen.io\/it\" target=\"_blank\" rel=\"noopener\">TrueScreen<\/a>, rappresenta l'evoluzione della digital provenance: non si analizza se un contenuto \u00e8 falso, ma si garantisce che il contenuto autentico sia verificabile fin dall'origine. L'inversione \u00e8 netta: tutto \u00e8 potenzialmente inaffidabile, a meno che non sia stato certificato al momento della creazione.<\/p>\n\n<p>Per i settori dove l'integrit\u00e0 dei dati ha valore legale e operativo (assicurazioni, compliance, legal, risorse umane, settore pubblico), questa non \u00e8 una preferenza tecnologica. \u00c8 una necessit\u00e0 operativa, dettata dai numeri.<\/p>\n\n<h3>Come funziona la certificazione forense dei contenuti digitali<\/h3>\n\n<p>Le organizzazioni utilizzano <a href=\"https:\/\/truescreen.io\/it\" target=\"_blank\" rel=\"noopener\">TrueScreen<\/a>, la Data Authenticity Platform, per acquisire e certificare i contenuti digitali alla fonte con valore legale in 194 Paesi. Il processo ha due componenti inscindibili: l'acquisizione forense del dato all'origine (foto, video, documento, schermata) e l'applicazione immediata di sigillo digitale, marca temporale qualificata e firma digitale. Il risultato \u00e8 un contenuto con catena di custodia verificabile, hash del file certificato e metadati (GPS, timestamp, dispositivo) cristallizzati al momento dell'acquisizione. L'autenticit\u00e0 non va cercata dopo: \u00e8 incorporata nel contenuto fin dal primo istante.<\/p>\n\n<p>Facciamo un caso concreto. Un dipartimento compliance riceve un video segnalazione da un whistleblower. Con la detection, il team dovrebbe analizzare il video per escludere che sia un deepfake: 35% di fallimento sui contenuti di nuova generazione, 0,1% di accuratezza nella detection umana. Con la <a href=\"https:\/\/truescreen.io\/it\/articoli\/content-authenticity-certificazione-fonte-difesa-scalabile\/\" target=\"_blank\" rel=\"noopener\">content authenticity<\/a> alla fonte, quel video viene acquisito tramite TrueScreen al momento della registrazione. Timestamp certificato, GPS, hash del file, firma digitale. Il contenuto diventa verificabile per sempre, senza analisi a posteriori.<\/p>\n\n<p>Organizzazioni nei settori assicurativo, legale e compliance utilizzano <a href=\"https:\/\/truescreen.io\/it\" target=\"_blank\" rel=\"noopener\">TrueScreen<\/a> per garantire l'autenticit\u00e0 dei dati raccolti sul campo, eliminando la necessit\u00e0 di verifiche successive. La <a href=\"https:\/\/truescreen.io\/it\/approfondimenti\/digital-provenance-enterprise-integrazione-certificazione\/\" target=\"_blank\" rel=\"noopener\">provenance enterprise<\/a> non \u00e8 un layer aggiuntivo: diventa la base su cui costruire processi affidabili.<\/p>\n\n<h3>Valore legale, immutabilit\u00e0 e catena di custodia<\/h3>\n\n<p>Il valore della certificazione alla fonte \u00e8 anche giuridico, e questo \u00e8 un aspetto che molti sottovalutano. In Italia, il Codice dell'Amministrazione Digitale (D.Lgs. 82\/2005) disciplina il valore giuridico del documento informatico, della firma digitale e della marca temporale. L'art. 2712 del Codice Civile riconosce valore probatorio alle riproduzioni meccaniche. La <a href=\"https:\/\/truescreen.io\/it\/articoli\/digital-forensics-certification-standard-forensi\/\" target=\"_blank\" rel=\"noopener\">certificazione forense<\/a> dei contenuti digitali si inserisce in questo quadro con piena aderenza.<\/p>\n\n<p>A livello europeo, il regolamento eIDAS stabilisce il framework per firme elettroniche, sigilli digitali e marche temporali con validit\u00e0 transfrontaliera. L'AI Act (Regolamento UE 2024\/1689) introduce obblighi di trasparenza per i contenuti generati dall'IA. Ma i risultati di Edimburgo dimostrano un punto preciso: quegli obblighi funzionano solo se supportati da un'infrastruttura di certificazione alla fonte. Un sistema di detection aggirabile non basta.<\/p><\/div><\/div><div class=\"fusion-layout-column fusion_builder_column fusion-builder-column-3 fusion_builder_column_1_1 1_1 fusion-flex-column\" style=\"--awb-bg-blend:overlay;--awb-bg-size:cover;--awb-width-large:100%;--awb-margin-top-large:0px;--awb-spacing-right-large:1.455%;--awb-margin-bottom-large:20px;--awb-spacing-left-large:1.455%;--awb-width-medium:100%;--awb-spacing-right-medium:1.455%;--awb-spacing-left-medium:1.455%;--awb-width-small:100%;--awb-spacing-right-small:1.455%;--awb-spacing-left-small:1.455%;\"><div class=\"fusion-column-wrapper fusion-flex-justify-content-flex-start fusion-content-layout-column\"><section class=\"faq faq-truescreen\" aria-labelledby=\"faq-title\">\n<h2 id=\"faq-title\">FAQ: domande frequenti su deepfake detection e autenticit\u00e0 digitale<\/h2>\n<div class=\"faq-list\">\n<details class=\"faq-item\">\n<summary class=\"faq-question\"><span class=\"faq-question-text\">Cosa sono le impronte digitali dell'IA e come funzionano?<\/span><br \/>\n<span class=\"faq-icon\" aria-hidden=\"true\">+<\/span><\/summary>\n<div class=\"faq-answer\">Le impronte digitali dell'IA sono tracce statistiche involontarie che ogni modello generativo lascia nei contenuti sintetici: pattern nei pixel, artefatti di frequenza, firme spettrali. In teoria, permettono di risalire al generatore che ha prodotto un'immagine. Lo <a href=\"https:\/\/www.deadlinenews.co.uk\/2026\/03\/25\/ai-fingerprints-can-be-removed-from-deepfakes-study-finds\/\" target=\"_blank\" rel=\"noopener\">studio dell'Universit\u00e0 di Edimburgo<\/a> ha dimostrato che queste impronte possono essere rimosse nell'80% dei casi e falsificate in circa met\u00e0 dei sistemi analizzati.<\/div>\n<\/details>\n<details class=\"faq-item\">\n<summary class=\"faq-question\"><span class=\"faq-question-text\">Perch\u00e9 il deepfake detection a posteriori non \u00e8 affidabile?<\/span><br \/>\n<span class=\"faq-icon\" aria-hidden=\"true\">+<\/span><\/summary>\n<div class=\"faq-answer\">I sistemi di deepfake detection basati su IA perdono tra il 45% e il 50% di efficacia nel passaggio dal laboratorio al mondo reale (dati <a href=\"https:\/\/keepnetlabs.com\/blog\/deepfake-statistics-and-trends\" target=\"_blank\" rel=\"noopener\">Keepnet Labs<\/a>). I detector attuali falliscono sul 35% dei deepfake di nuova generazione, e la detection umana ha un'accuratezza media del 24,5%. Ogni miglioramento nei detector viene rapidamente neutralizzato dall'evoluzione dei generatori.<\/div>\n<\/details>\n<details class=\"faq-item\">\n<summary class=\"faq-question\"><span class=\"faq-question-text\">Cos'\u00e8 la digital provenance e come si differenzia dalla detection?<\/span><br \/>\n<span class=\"faq-icon\" aria-hidden=\"true\">+<\/span><\/summary>\n<div class=\"faq-answer\">La <a href=\"https:\/\/truescreen.io\/it\/digital-provenance\/\" target=\"_blank\" rel=\"noopener\">provenienza digitale<\/a> \u00e8 la tracciabilit\u00e0 completa dell'origine e della storia di un contenuto digitale. A differenza della detection, che analizza un contenuto a posteriori per stabilire se \u00e8 falso, la digital provenance certifica l'autenticit\u00e0 alla fonte, al momento stesso dell'acquisizione. Produce un risultato binario: il contenuto \u00e8 certificato oppure non lo \u00e8.<\/div>\n<\/details>\n<details class=\"faq-item\">\n<summary class=\"faq-question\"><span class=\"faq-question-text\">Come funziona la certificazione forense di TrueScreen?<\/span><br \/>\n<span class=\"faq-icon\" aria-hidden=\"true\">+<\/span><\/summary>\n<div class=\"faq-answer\"><a href=\"https:\/\/truescreen.io\/it\" target=\"_blank\" rel=\"noopener\">TrueScreen<\/a> acquisisce e certifica i contenuti digitali alla fonte con valore legale in 194 Paesi. Il processo combina acquisizione forense del dato all'origine e applicazione immediata di sigillo digitale, marca temporale qualificata e firma digitale. Il risultato \u00e8 un contenuto con catena di custodia verificabile, hash certificato e metadati cristallizzati al momento dell'acquisizione.<\/div>\n<\/details>\n<details class=\"faq-item\">\n<summary class=\"faq-question\"><span class=\"faq-question-text\">Quale valore legale ha la certificazione alla fonte in Italia e in Europa?<\/span><br \/>\n<span class=\"faq-icon\" aria-hidden=\"true\">+<\/span><\/summary>\n<div class=\"faq-answer\">In Italia, il Codice dell'Amministrazione Digitale (D.Lgs. 82\/2005) disciplina il valore giuridico del documento informatico, della firma digitale e della marca temporale. L'art. 2712 del Codice Civile riconosce valore probatorio alle riproduzioni meccaniche. A livello europeo, il regolamento eIDAS stabilisce il framework per firme elettroniche, sigilli digitali e marche temporali con validit\u00e0 transfrontaliera.<\/div>\n<\/details>\n<details class=\"faq-item\">\n<summary class=\"faq-question\"><span class=\"faq-question-text\">Come si possono rilevare i deepfake?<\/span><br \/>\n<span class=\"faq-icon\" aria-hidden=\"true\">+<\/span><\/summary>\n<div class=\"faq-answer\">I metodi attuali per rilevare i deepfake includono classificatori neurali che analizzano pattern nei pixel, liveness detection per le analisi facciali, analisi forense delle frequenze e watermarking IA. Tuttavia, lo <a href=\"https:\/\/www.deadlinenews.co.uk\/2026\/03\/25\/ai-fingerprints-can-be-removed-from-deepfakes-study-finds\/\" target=\"_blank\" rel=\"noopener\">studio dell'Universit\u00e0 di Edimburgo (2026)<\/a> ha dimostrato che le impronte IA si rimuovono nell'80% dei casi. I detector automatizzati perdono il 45-50% di efficacia fuori dal laboratorio. L'alternativa emergente \u00e8 la <a href=\"https:\/\/truescreen.io\/it\/digital-provenance\/\" target=\"_blank\" rel=\"noopener\">provenienza digitale<\/a>: certificare l'autenticit\u00e0 alla fonte anzich\u00e9 cercare la falsificazione a posteriori.<\/div>\n<\/details>\n<details class=\"faq-item\">\n<summary class=\"faq-question\"><span class=\"faq-question-text\">Come capire se un'immagine \u00e8 stata generata dall'intelligenza artificiale?<\/span><br \/>\n<span class=\"faq-icon\" aria-hidden=\"true\">+<\/span><\/summary>\n<div class=\"faq-answer\">Riconoscere un'immagine generata dall'IA \u00e8 sempre pi\u00f9 difficile. Solo lo 0,1% delle persone identifica correttamente tutti i deepfake (dati iProov 2025) e l'accuratezza media umana \u00e8 del 24,5%. Gli strumenti automatizzati falliscono su un deepfake su tre. Il metodo pi\u00f9 affidabile per garantire l'autenticit\u00e0 di un'immagine \u00e8 la certificazione alla fonte: acquisire il contenuto con strumenti come <a href=\"https:\/\/truescreen.io\/it\" target=\"_blank\" rel=\"noopener\">TrueScreen<\/a> al momento dello scatto, con hash crittografico, GPS e marca temporale certificati.<\/div>\n<\/details>\n<details class=\"faq-item\">\n<summary class=\"faq-question\"><span class=\"faq-question-text\">Il deepfake \u00e8 reato in Italia?<\/span><br \/>\n<span class=\"faq-icon\" aria-hidden=\"true\">+<\/span><\/summary>\n<div class=\"faq-answer\">In Italia non esiste ancora una legge specifica che punisca la creazione di deepfake in quanto tale. Tuttavia, l'utilizzo di deepfake pu\u00f2 configurare diversi reati: sostituzione di persona (art. 494 c.p.), diffamazione (art. 595 c.p.), trattamento illecito di dati personali (D.Lgs. 196\/2003), frode informatica (art. 640-ter c.p.). A livello europeo, l'AI Act (Regolamento UE 2024\/1689) introduce obblighi di trasparenza per i contenuti generati dall'IA. Per garantire il valore probatorio di contenuti digitali in procedimenti legali, la certificazione forense alla fonte con marca temporale e firma digitale \u00e8 lo strumento pi\u00f9 efficace.<\/div>\n<\/details>\n<\/div>\n<\/section><\/div><\/div><\/div><\/div><div class=\"fusion-fullwidth fullwidth-box fusion-builder-row-5 fusion-flex-container nonhundred-percent-fullwidth non-hundred-percent-height-scrolling\" style=\"--awb-border-radius-top-left:0px;--awb-border-radius-top-right:0px;--awb-border-radius-bottom-right:0px;--awb-border-radius-bottom-left:0px;--awb-padding-top:80px;--awb-padding-bottom:80px;--awb-padding-top-small:40px;--awb-padding-bottom-small:110px;--awb-margin-bottom:0px;--awb-background-color:#ffffff;--awb-background-image:linear-gradient(180deg, var(--awb-color3) 0%,var(--awb-color3) 100%);--awb-flex-wrap:wrap;\" ><div class=\"fusion-builder-row fusion-row fusion-flex-align-items-flex-start fusion-flex-content-wrap\" style=\"max-width:1236px;margin-left: calc(-3% \/ 2 );margin-right: calc(-3% \/ 2 );\"><div class=\"fusion-layout-column fusion_builder_column fusion-builder-column-4 fusion_builder_column_1_1 1_1 fusion-flex-column\" style=\"--awb-padding-top:36px;--awb-padding-right:36px;--awb-padding-bottom:36px;--awb-padding-left:36px;--awb-overflow:hidden;--awb-bg-color:var(--awb-color2);--awb-bg-color-hover:var(--awb-color2);--awb-bg-size:cover;--awb-border-radius:8px 8px 8px 8px;--awb-width-large:100%;--awb-margin-top-large:0px;--awb-spacing-right-large:1.455%;--awb-margin-bottom-large:20px;--awb-spacing-left-large:1.455%;--awb-width-medium:100%;--awb-order-medium:0;--awb-spacing-right-medium:1.455%;--awb-spacing-left-medium:1.455%;--awb-width-small:100%;--awb-order-small:0;--awb-spacing-right-small:1.455%;--awb-spacing-left-small:1.455%;\"><div class=\"fusion-column-wrapper fusion-column-has-shadow fusion-flex-justify-content-flex-start fusion-content-layout-column\"><div class=\"fusion-builder-row fusion-builder-row-inner fusion-row fusion-flex-align-items-flex-start fusion-flex-content-wrap\" style=\"width:103% !important;max-width:103% !important;margin-left: calc(-3% \/ 2 );margin-right: calc(-3% \/ 2 );\"><div class=\"fusion-layout-column fusion_builder_column_inner fusion-builder-nested-column-0 fusion_builder_column_inner_2_3 2_3 fusion-flex-column fusion-flex-align-self-center\" style=\"--awb-bg-size:cover;--awb-width-large:66.666666666667%;--awb-margin-top-large:0px;--awb-spacing-right-large:2.1825%;--awb-margin-bottom-large:0px;--awb-spacing-left-large:2.1825%;--awb-width-medium:100%;--awb-order-medium:0;--awb-spacing-right-medium:1.455%;--awb-spacing-left-medium:1.455%;--awb-width-small:100%;--awb-order-small:0;--awb-spacing-right-small:1.455%;--awb-spacing-left-small:1.455%;\"><div class=\"fusion-column-wrapper fusion-column-has-shadow fusion-flex-justify-content-flex-start fusion-content-layout-column\"><div class=\"fusion-title title fusion-title-2 fusion-sep-none fusion-title-text fusion-title-size-two\" style=\"--awb-text-color:var(--awb-color1);--awb-margin-top:-40px;--awb-margin-top-small:-32px;\"><h2 class=\"fusion-title-heading title-heading-left fusion-responsive-typography-calculated\" style=\"margin:0;--fontSize:32;--minFontSize:32;line-height:1.3;\"><h2>Certifica l'autenticit\u00e0 dei tuoi contenuti digitali<\/h2><\/h2><\/div><div class=\"fusion-text fusion-text-1 fusion-text-no-margin\" style=\"--awb-font-size:18px;--awb-text-color:var(--awb-color1);--awb-margin-bottom:32px;\"><p><span style=\"letter-spacing: 0.24px; background-color: rgba(0, 0, 0, 0);\">TrueScreen acquisisce, verifica e certifica i dati digitali alla fonte con valore legale. Non rincorrere il falso: garantisci il vero.<\/span><\/p>\n<\/div><div ><a class=\"fusion-button button-flat fusion-button-default-size button-default fusion-button-default button-1 fusion-button-default-span fusion-button-default-type\" target=\"_self\" href=\"https:\/\/truescreen.io\/it\/contattaci\/\"><span class=\"fusion-button-text\">Richiedi una demo<\/span><\/a><\/div><\/div><\/div><div class=\"fusion-layout-column fusion_builder_column_inner fusion-builder-nested-column-1 fusion_builder_column_inner_1_3 1_3 fusion-flex-column fusion-flex-align-self-center fusion-no-small-visibility fusion-no-medium-visibility\" style=\"--awb-bg-size:cover;--awb-width-large:33.333333333333%;--awb-margin-top-large:0px;--awb-spacing-right-large:4.365%;--awb-margin-bottom-large:0px;--awb-spacing-left-large:4.365%;--awb-width-medium:100%;--awb-order-medium:0;--awb-spacing-right-medium:1.455%;--awb-spacing-left-medium:1.455%;--awb-width-small:100%;--awb-order-small:0;--awb-spacing-right-small:1.455%;--awb-spacing-left-small:1.455%;\"><div class=\"fusion-column-wrapper fusion-column-has-shadow fusion-flex-justify-content-flex-start fusion-content-layout-column\"><div class=\"fusion-image-element\" style=\"--awb-max-width:300px;--awb-caption-title-font-family:var(--h2_typography-font-family);--awb-caption-title-font-weight:var(--h2_typography-font-weight);--awb-caption-title-font-style:var(--h2_typography-font-style);--awb-caption-title-size:var(--h2_typography-font-size);--awb-caption-title-transform:var(--h2_typography-text-transform);--awb-caption-title-line-height:var(--h2_typography-line-height);--awb-caption-title-letter-spacing:var(--h2_typography-letter-spacing);\"><span class=\"fusion-imageframe imageframe-none imageframe-1 hover-type-none\"><img decoding=\"async\" width=\"1204\" height=\"1208\" alt=\"applicazione mockup\" title=\"Intestazione mobile\" src=\"https:\/\/truescreen.io\/wp-content\/uploads\/2024\/09\/Mobile-Header.png\" class=\"img-responsive wp-image-45466\" srcset=\"https:\/\/truescreen.io\/wp-content\/uploads\/2024\/09\/Mobile-Header-200x201.png 200w, https:\/\/truescreen.io\/wp-content\/uploads\/2024\/09\/Mobile-Header-400x401.png 400w, https:\/\/truescreen.io\/wp-content\/uploads\/2024\/09\/Mobile-Header-600x602.png 600w, https:\/\/truescreen.io\/wp-content\/uploads\/2024\/09\/Mobile-Header-800x803.png 800w, https:\/\/truescreen.io\/wp-content\/uploads\/2024\/09\/Mobile-Header-1200x1204.png 1200w, https:\/\/truescreen.io\/wp-content\/uploads\/2024\/09\/Mobile-Header.png 1204w\" sizes=\"(max-width: 1024px) 100vw, (max-width: 640px) 100vw, 400px\" \/><\/span><\/div><\/div><\/div><\/div><\/div><\/div><\/div><\/div><\/p>","protected":false},"featured_media":55885,"template":"","class_list":["post-55882","articoli","type-articoli","status-publish","has-post-thumbnail","hentry"],"acf":[],"_links":{"self":[{"href":"https:\/\/truescreen.io\/it\/wp-json\/wp\/v2\/articoli\/55882","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/truescreen.io\/it\/wp-json\/wp\/v2\/articoli"}],"about":[{"href":"https:\/\/truescreen.io\/it\/wp-json\/wp\/v2\/types\/articoli"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/truescreen.io\/it\/wp-json\/wp\/v2\/media\/55885"}],"wp:attachment":[{"href":"https:\/\/truescreen.io\/it\/wp-json\/wp\/v2\/media?parent=55882"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}