You don’t need a camera, or a pencil, or a paintbrush to create an image or artwork: as of April 2022, all you need is DALL-E 2, the AI-powered image generator capable of creating any scenario we can imagine by simply typing natural language text. So it only needs a few words, even a single emoji, to briefly describe the image we have in mind and give it shape in seconds thanks to artificial intelligence.
DALL-E, nome derivato dalla fusione di Salvador Dalì e WALL-E della Pixar, è stato rilasciato per la prima volta dal laboratorio di ricerca OpenAI nel 2021. Sebbene fosse già uno strumento notevole, è la precisione raggiunta con l'ultima versione, rilasciata quest'anno, a suscitare un senso generale di stupore, soprattutto per la velocità con cui l'intelligenza artificiale è riuscita a progredire.
Tuttavia, la diffusione di questo "photoshop conversazionale", come viene chiamato DALL-E in un articolo del Washington Post, è seguita anche da un forte senso di pericolo. Un futuro in cui la tecnologia e l'intelligenza artificiale avrebbero presto preso il sopravvento era già stato previsto, ma nessuno immaginava così presto e soprattutto così facilmente accessibile: a cinque mesi dall'uscita ci sono 1,5 milioni di utenti che generano circa 2 milioni di immagini al giorno.
Perché è pericoloso usare un generatore di immagini
Dare a tutti la possibilità di divertirsi con i generatori di immagini accende dibattiti su varie questioni, prima di tutto legate all'origine della creatività, al significato dell'arte e dell'autorialità, ma anche alla disinformazione di massa.
The risks are so many that we have to wonder whether valid enoughin counterbalance to the advantages we get with image generators. As stated by Hany Farid, a UC Berkeley professor specialized in digital forensics, computer vision and disinformation, “We’re no longer in the early days of the Internet, where we can’t see what the damage is.”
Tanti fenomeni negativi hanno seguito ogni evoluzione della tecnologia: ogni nuovo strumento o sistema, pur introducendo una maggiore efficienza, portava con sé potenziali danni. Basti pensare a come i progressi dell'intelligenza artificiale abbiano dato origine ai deepfakes, un termine ampio che comprende tutti i media sintetizzati dall'intelligenza artificiale, dai video falsificati alle foto sorprendentemente realistiche di persone mai esistite. In realtà, quando sono stati diffusi i primi deepfakes, gli esperti avevano già rivelato come sarebbero stati utilizzati per minare la politica.
Per stemperare queste preoccupazioni, i creatori di DALL-E hanno effettivamente imposto delle restrizioni all'uso del sistema: prima con la rimozione dei contenuti grafici violenti e sessuali dai dati utilizzati per addestrare DALL-E, poi per controllare eventuali molestie mirate, bullismo e sfruttamento.
Come un'app può garantire l'autenticità delle immagini
Protecting and ensuring the authenticity of images becomes critical to meeting these new challenges. So, it becomes necessary and inevitable, the use of an equally accessible and easy-to-use tool that can provide a safe and secure method of capturing media files.
TrueScreen is a mobile solution capable of proving, by means of a forensically valuable report issued by an official certifying body, the object and certain date of material creation of intellectual activity of a creative nature.
The app verifies, in a matter of seconds, the integrity of deposited files, enabling the preservation and protection of creative works of genius, sheltering them from the risk of counterfeiting and the crime of plagiarism. With this acquisition method, protecting the result of one’s work from its creation becomes quick and easy.