Riesci a capire se un’immagine è reale?
Modelli di intelligenza artificiale come DALL·E sono in grado di produrre volti dettagliati e realistici imparando da milioni di immagini di persone reali con le relative descrizioni. Ma è vero che queste immagini iperrealistiche di persone sono quasi indistinguibili dalle fotografie reali? Un team di ricerca guidato dalla Swansea University del Regno Unito ha deciso di determinare quanto siano diventati realistici i volti generati dall’intelligenza artificiale. I risultati sono stati pubblicati su «Cognitive Research: Principles and Implications»(si apre in una nuova finestra).
Vedere non è credere
Utilizzando i modelli di intelligenza artificiale DALL·E e ChatGPT per una serie di esperimenti, i ricercatori hanno prodotto immagini estremamente realistiche di volti immaginari e famosi, tra cui celebrità. I risultati hanno mostrato che i partecipanti allo studio non riuscivano a distinguerli con precisione dalle foto reali, nonostante conoscessero bene l’aspetto della persona. I risultati mettono in evidenza un preoccupante aumento del cosiddetto realismo deepfake, ovvero la misura in cui i contenuti falsi si avvicinano alle riprese reali. In altre parole, quanto bene inganna la percezione umana. «Gli studi hanno dimostrato che le immagini dei volti di persone immaginarie generate tramite l’intelligenza artificiale sono indistinguibili dalle fotografie reali. Ma per questa ricerca siamo andati oltre, generando immagini sintetiche di persone reali", ha commentato Jeremy Tree, coautore e professore di psicologia alla Swansea University, in un articolo(si apre in una nuova finestra). «Il fatto che gli strumenti di intelligenza artificiale di uso quotidiano siano in grado di farlo non solo solleva preoccupazioni urgenti riguardo alla disinformazione e alla fiducia nei media visivi, ma anche la necessità di metodi di rilevamento affidabili come questione urgente.» In un esperimento è stato chiesto a volontari provenienti da Australia, Canada, Nuova Zelanda, Regno Unito e Stati Uniti di identificare quali immagini facciali fossero reali e quali fossero state generate artificialmente. Il risultato è stato che spesso i volti generati dall’intelligenza artificiale venivano scambiati per volti reali. In un altro esperimento, ai soggetti è stato chiesto di distinguere tra foto autentiche di star di Hollywood come Jake Gyllenhaal e Olivia Wilde e le loro controparti generate al computer. Anche in questo caso i partecipanti hanno avuto difficoltà a distinguere quelli autentici. «Questo studio dimostra che l’intelligenza artificiale è in grado di creare immagini sintetiche di volti nuovi e conosciuti che la maggior parte delle persone non riesce a distinguere dalle foto reali», ha affermato Tree.
Un campanello d’allarme
«La familiarità con un volto o la disponibilità di immagini di riferimento non sono state di grande aiuto nell’individuare i falsi, ecco perché abbiamo urgente bisogno di trovare nuovi modi per individuarli. Sebbene i sistemi automatizzati possano alla fine superare le prestazioni umane in questo compito, per ora spetta a chi guarda giudicare cosa è reale.» Simulare in modo convincente anche i volti che già conosciamo conferisce un significato completamente nuovo al termine «manipolazione», con implicazioni di uso e abuso che spaziano dalla politica al mondo degli affari. «Poiché sia la familiarità con una particolare identità che le immagini di riferimento relative ad essa hanno prodotto solo benefici limitati, i ricercatori dovranno esplorare con urgenza soluzioni alternative», hanno concluso gli autori dello studio. «Col tempo, potremmo scoprire che i sistemi automatizzati eguaglieranno o supereranno le prestazioni umane nel rilevare questi deepfake. Tuttavia, almeno per il prossimo futuro, la veridicità dei contenuti sarà lasciata alla valutazione degli utenti stessi e, pertanto, dovremmo dare priorità alla ricerca di soluzioni in tal senso.»