Non serve una macchina fotografica, né una matita, né un pennello per creare un'immagine o un'opera d'arte: da aprile 2022, tutto ciò che serve è DALL-E 2, il generatore di immagini dotato di intelligenza artificiale in grado di creare qualsiasi scenario che possiamo immaginare semplicemente digitando un testo in linguaggio naturale. Bastano quindi poche parole, anche una sola emoji, per descrivere brevemente l'immagine che abbiamo in mente e darle forma in pochi secondi grazie all'intelligenza artificiale.

DALL-E, nome derivato dalla fusione di Salvador Dalì e WALL-E della Pixar, è stato rilasciato per la prima volta dal laboratorio di ricerca OpenAI nel 2021. Sebbene fosse già uno strumento notevole, è la precisione raggiunta con l'ultima versione, rilasciata quest'anno, a suscitare un senso generale di stupore, soprattutto per la velocità con cui l'intelligenza artificiale è riuscita a progredire.

Tuttavia, la diffusione di questo "photoshop conversazionale", come viene chiamato DALL-E in un articolo del Washington Post, è seguita anche da un forte senso di pericolo. Un futuro in cui la tecnologia e l'intelligenza artificiale avrebbero presto preso il sopravvento era già stato previsto, ma nessuno immaginava così presto e soprattutto così facilmente accessibile: a cinque mesi dall'uscita ci sono 1,5 milioni di utenti che generano circa 2 milioni di immagini al giorno.

Perché è pericoloso usare un generatore di immagini

Dare a tutti la possibilità di divertirsi con i generatori di immagini accende dibattiti su varie questioni, prima di tutto legate all'origine della creatività, al significato dell'arte e dell'autorialità, ma anche alla disinformazione di massa.

I rischi sono così tanti che c'è da chiedersi se siano abbastanza validi da controbilanciare i vantaggi che otteniamo con i generatori di immagini. Come afferma Hany Farid, professore dell'UC Berkeley specializzato in digital forensics, computer vision e disinformazione, "non siamo più agli albori di Internet, dove non possiamo vedere quali sono i danni".

Tanti fenomeni negativi hanno seguito ogni evoluzione della tecnologia: ogni nuovo strumento o sistema, pur introducendo una maggiore efficienza, portava con sé potenziali danni. Basti pensare a come i progressi dell'intelligenza artificiale abbiano dato origine ai deepfakes, un termine ampio che comprende tutti i media sintetizzati dall'intelligenza artificiale, dai video falsificati alle foto sorprendentemente realistiche di persone mai esistite. In realtà, quando sono stati diffusi i primi deepfakes, gli esperti avevano già rivelato come sarebbero stati utilizzati per minare la politica.

Per stemperare queste preoccupazioni, i creatori di DALL-E hanno effettivamente imposto delle restrizioni all'uso del sistema: prima con la rimozione dei contenuti grafici violenti e sessuali dai dati utilizzati per addestrare DALL-E, poi per controllare eventuali molestie mirate, bullismo e sfruttamento.

From DALL-E 2 to the generative AI explosion: what changed by 2026

When DALL-E 2 launched in 2022, it was a novelty. By 2026, the landscape of AI image generation has transformed beyond recognition. Midjourney, Stable Diffusion, Adobe Firefly, and dozens of open-source alternatives now produce images that are virtually indistinguishable from photographs. Video generation has followed the same trajectory: tools can now create realistic clips from text descriptions, and real-time face-swapping operates seamlessly during live video calls.

The accessibility barrier has vanished entirely. What once required technical knowledge and GPU clusters is now available through mobile apps and browser-based tools, often for free. The volume of AI-generated content online has grown exponentially: industry estimates suggest that by 2026, a significant portion of images shared on social media platforms are either fully generated or substantially modified by AI.

This creates a trust crisis that extends far beyond social media. In insurance, fabricated damage photos can support fraudulent claims. In legal proceedings, manipulated screenshots and images undermine the reliability of digital evidence. In journalism, AI-generated visuals blur the line between reporting and fabrication. The question is no longer whether AI-generated images will be misused, but how organizations and individuals can protect themselves in a world where any image might be synthetic.

The sectors most exposed to synthetic image risks

While AI image generation affects everyone, certain industries face particularly acute risks:

  • Insurance and claims management: photos documenting vehicle damage, property conditions, or workplace incidents can be generated or altered to inflate claims. Without certified visual evidence, insurers face growing fraud exposure.
  • Legal and judicial proceedings: courts rely on digital evidence, including photos, screenshots, and video recordings. AI-generated content threatens the admissibility and reliability of this evidence, prompting new authentication requirements in multiple jurisdictions.
  • I professionisti del settore immobiliare e delle costruzioni: property inspection photos, construction progress documentation, and condition reports are critical for contracts and disputes. Manipulated images can misrepresent property conditions or project status.
  • E-commerce and marketplaces: product images can be enhanced or fabricated to misrepresent quality, condition, or features, eroding buyer trust and increasing return rates.
  • Media and corporate communications: AI-generated images of public figures, events, or corporate assets can fuel disinformation campaigns with reputational consequences.

Across all these sectors, the common thread is clear: organizations need a reliable way to prove that their visual content is authentic and unaltered. This is not a future problem; it is a present operational requirement.

If anyone can generate images, who certifies the real ones?

DALL-E, Midjourney, Stable Diffusion, and the ever-growing landscape of generative AI tools have fundamentally changed the relationship between images and truth. When photorealistic images can be conjured from a text prompt in seconds, the traditional assumption that “seeing is believing” no longer holds. Detection tools will always lag behind generation capabilities: the real solution is not to chase fakes, but to certify what is authentic from the start.

TrueScreen addresses this challenge at its root. As a cybersecurity platform for digital content certification, TrueScreen captures photos, videos, screenshots, and documents with an immediate digital signature, certified timestamp, and forensic metadata. This creates a tamper-proof chain of custody with legal value, making it possible to prove that a specific piece of content was captured at a given time and place, and has not been altered since. For professionals in insurance, law, construction, real estate, and any field where visual evidence matters, this is the difference between content that can be questioned and content that stands up in court.

Certify your photos and videos with legal value

TrueScreen guarantees the authenticity and integrity of digital content at the source: no detection needed, just certified proof from the moment of capture.

Scopri di più
Prova gratis

FAQ: AI Image Generators and Authenticity

Are AI-generated images a threat to visual evidence?
Yes. Tools like DALL-E, Midjourney, and Stable Diffusion can produce photorealistic images that are indistinguishable from real photographs. This creates serious risks in legal proceedings, insurance claims, journalism, and any context where the authenticity of visual content matters. Without a certified chain of custody, there is no reliable way to prove whether an image depicts reality or was generated by AI.
Can detection tools reliably identify AI-generated images?
Detection accuracy is declining as generation models improve. Current detectors achieve variable accuracy rates and frequently produce false positives and negatives. More importantly, detection is fundamentally reactive: it tries to catch fakes after they exist. The more sustainable approach is proactive certification, which guarantees authenticity at the source rather than attempting to identify manipulations after the fact.
How does TrueScreen protect content from being confused with AI-generated media?
TrueScreen certifies content at the moment of capture by applying a digital signature, a certified timestamp, and comprehensive forensic metadata. This creates an immutable record that proves the content was captured by a real device, at a specific time and GPS location, and has not been modified since. Unlike detection, this method is future-proof: it works regardless of how advanced AI generators become, because it verifies the origin rather than analyzing the output.