Non serve una macchina fotografica, né una matita, né un pennello per creare un'immagine o un'opera d'arte: da aprile 2022, tutto ciò che serve è DALL-E 2, il generatore di immagini dotato di intelligenza artificiale in grado di creare qualsiasi scenario che possiamo immaginare semplicemente digitando un testo in linguaggio naturale. Bastano quindi poche parole, anche una sola emoji, per descrivere brevemente l'immagine che abbiamo in mente e darle forma in pochi secondi grazie all'intelligenza artificiale.
DALL-E, nome derivato dalla fusione di Salvador Dalì e WALL-E della Pixar, è stato rilasciato per la prima volta dal laboratorio di ricerca OpenAI nel 2021. Sebbene fosse già uno strumento notevole, è la precisione raggiunta con l'ultima versione, rilasciata quest'anno, a suscitare un senso generale di stupore, soprattutto per la velocità con cui l'intelligenza artificiale è riuscita a progredire.
Tuttavia, la diffusione di questo "photoshop conversazionale", come viene chiamato DALL-E in un articolo del Washington Post, è seguita anche da un forte senso di pericolo. Un futuro in cui la tecnologia e l'intelligenza artificiale avrebbero presto preso il sopravvento era già stato previsto, ma nessuno immaginava così presto e soprattutto così facilmente accessibile: a cinque mesi dall'uscita ci sono 1,5 milioni di utenti che generano circa 2 milioni di immagini al giorno.
Perché è pericoloso usare un generatore di immagini
Dare a tutti la possibilità di divertirsi con i generatori di immagini accende dibattiti su varie questioni, prima di tutto legate all'origine della creatività, al significato dell'arte e dell'autorialità, ma anche alla disinformazione di massa.
I rischi sono così tanti che c'è da chiedersi se siano abbastanza validi da controbilanciare i vantaggi che otteniamo con i generatori di immagini. Come afferma Hany Farid, professore dell'UC Berkeley specializzato in digital forensics, computer vision e disinformazione, "non siamo più agli albori di Internet, dove non possiamo vedere quali sono i danni".
Tanti fenomeni negativi hanno seguito ogni evoluzione della tecnologia: ogni nuovo strumento o sistema, pur introducendo una maggiore efficienza, portava con sé potenziali danni. Basti pensare a come i progressi dell'intelligenza artificiale abbiano dato origine ai deepfakes, un termine ampio che comprende tutti i media sintetizzati dall'intelligenza artificiale, dai video falsificati alle foto sorprendentemente realistiche di persone mai esistite. In realtà, quando sono stati diffusi i primi deepfakes, gli esperti avevano già rivelato come sarebbero stati utilizzati per minare la politica.
Per stemperare queste preoccupazioni, i creatori di DALL-E hanno effettivamente imposto delle restrizioni all'uso del sistema: prima con la rimozione dei contenuti grafici violenti e sessuali dai dati utilizzati per addestrare DALL-E, poi per controllare eventuali molestie mirate, bullismo e sfruttamento.
From DALL-E 2 to the generative AI explosion: what changed by 2026
When DALL-E 2 launched in 2022, it was a novelty. By 2026, the landscape of AI image generation has transformed beyond recognition. Midjourney, Stable Diffusion, Adobe Firefly, and dozens of open-source alternatives now produce images that are virtually indistinguishable from photographs. Video generation has followed the same trajectory: tools can now create realistic clips from text descriptions, and real-time face-swapping operates seamlessly during live video calls.
The accessibility barrier has vanished entirely. What once required technical knowledge and GPU clusters is now available through mobile apps and browser-based tools, often for free. The volume of AI-generated content online has grown exponentially: industry estimates suggest that by 2026, a significant portion of images shared on social media platforms are either fully generated or substantially modified by AI.
This creates a trust crisis that extends far beyond social media. In insurance, fabricated damage photos can support fraudulent claims. In legal proceedings, manipulated screenshots and images undermine the reliability of digital evidence. In journalism, AI-generated visuals blur the line between reporting and fabrication. The question is no longer whether AI-generated images will be misused, but how organizations and individuals can protect themselves in a world where any image might be synthetic.
The sectors most exposed to synthetic image risks
While AI image generation affects everyone, certain industries face particularly acute risks:
- Insurance and claims management: photos documenting vehicle damage, property conditions, or workplace incidents can be generated or altered to inflate claims. Without certified visual evidence, insurers face growing fraud exposure.
- Legal and judicial proceedings: courts rely on digital evidence, including photos, screenshots, and video recordings. AI-generated content threatens the admissibility and reliability of this evidence, prompting new authentication requirements in multiple jurisdictions.
- I professionisti del settore immobiliare e delle costruzioni: property inspection photos, construction progress documentation, and condition reports are critical for contracts and disputes. Manipulated images can misrepresent property conditions or project status.
- E-commerce and marketplaces: product images can be enhanced or fabricated to misrepresent quality, condition, or features, eroding buyer trust and increasing return rates.
- Media and corporate communications: AI-generated images of public figures, events, or corporate assets can fuel disinformation campaigns with reputational consequences.
Across all these sectors, the common thread is clear: organizations need a reliable way to prove that their visual content is authentic and unaltered. This is not a future problem; it is a present operational requirement.
If anyone can generate images, who certifies the real ones?
DALL-E, Midjourney, Stable Diffusion, and the ever-growing landscape of generative AI tools have fundamentally changed the relationship between images and truth. When photorealistic images can be conjured from a text prompt in seconds, the traditional assumption that “seeing is believing” no longer holds. Detection tools will always lag behind generation capabilities: the real solution is not to chase fakes, but to certify what is authentic from the start.
TrueScreen addresses this challenge at its root. As a cybersecurity platform for digital content certification, TrueScreen captures photos, videos, screenshots, and documents with an immediate digital signature, certified timestamp, and forensic metadata. This creates a tamper-proof chain of custody with legal value, making it possible to prove that a specific piece of content was captured at a given time and place, and has not been altered since. For professionals in insurance, law, construction, real estate, and any field where visual evidence matters, this is the difference between content that can be questioned and content that stands up in court.
Certify your photos and videos with legal value
TrueScreen guarantees the authenticity and integrity of digital content at the source: no detection needed, just certified proof from the moment of capture.
