Skip to main content
Aller à la page d’accueil de la Commission européenne (s’ouvre dans une nouvelle fenêtre)
français français
CORDIS - Résultats de la recherche de l’UE
CORDIS

Article Category

Article available in the following languages:

Êtes-vous en mesure de déterminer si une image est authentique?

Une étude examine notre capacité à distinguer les images générées par l’IA des photographies réelles.

Les modèles d’IA tels que DALL·E peuvent produire des visages détaillés et réalistes en apprenant à partir de millions d’images de personnes réelles accompagnées de leurs descriptions. Mais ces images hyperréalistes de personnes sont-elles presque impossibles à distinguer de véritables photographies? Une équipe de recherche dirigée par l’université de Swansea, au Royaume-Uni, a entrepris de déterminer à quel point les visages générés par l’IA sont devenus réalistes. Les résultats ont été publiés dans la revue «Cognitive Research: Principles and Implications»(s’ouvre dans une nouvelle fenêtre).

Il ne suffit pas de voir pour croire

En utilisant les modèles d’IA DALL·E et ChatGPT pour une série d’expériences, les chercheurs ont produit des images extrêmement réalistes de visages imaginaires et célèbres, y compris des célébrités. Les résultats ont démontré que les participants à l’étude n’étaient pas en mesure de les distinguer avec précision des photos réelles, bien qu’ils soient habitués à l’apparence de la personne. Les résultats attirent l’attention sur une augmentation préoccupante du réalisme des deepfakes, c’est-à-dire la mesure dans laquelle le contenu falsifié se rapproche des images réelles. Autrement dit, sa capacité à tromper la perception humaine. «Des études ont démontré que les images de visages de personnes fictives générées à l’aide de l’IA sont impossibles à distinguer des photographies réelles. Cependant, pour cette recherche, nous sommes allés plus loin en générant des images synthétiques de personnes réelles», a déclaré Jeremy Tree, coauteur et professeur de psychologie à l’université de Swansea, dans un communiqué de presse(s’ouvre dans une nouvelle fenêtre). «Le fait que des outils d’IA courants puissent accomplir cela soulève non seulement des préoccupations urgentes concernant la désinformation et la confiance dans les médias visuels, mais aussi la nécessité de disposer de méthodes de détection fiables de toute urgence.» Une expérience a demandé à des volontaires d’Australie, du Canada, de Nouvelle-Zélande, du Royaume-Uni et des États-Unis d’identifier quelles images faciales étaient réelles et lesquelles étaient générées artificiellement. Ils confondaient fréquemment les nouveaux visages générés par l’IA avec les vrais. Dans une autre expérience, on a demandé aux sujets de différencier de véritables photos de stars hollywoodiennes comme Jake Gyllenhaal et Olivia Wilde de leurs homologues générées par ordinateur. Là aussi, les participants ont eu du mal à distinguer les vrais clichés. «Cette étude montre que l’IA peut créer des images synthétiques de visages nouveaux et connus que la plupart des gens ne peuvent pas distinguer des vraies photos», a déclaré Jeremy Tree.

Une sonnette d’alarme

«La connaissance d’un visage ou le fait de disposer d’images de référence n’ont pas beaucoup aidé à repérer les faux, c’est pourquoi nous devons trouver de toute urgence de nouvelles façons de les détecter. Bien que les systèmes automatisés puissent à terme surpasser les humains dans cette tâche, pour l’instant, il appartient aux personnes de juger ce qui est réel.» Le fait de falsifier de manière convaincante même des visages que nous connaissons déjà donne un tout nouveau sens au mot manipulation, avec des implications d’utilisation et d’abus qui vont de la politique aux affaires. «Étant donné que la familiarité avec une identité particulière et les images de référence associées à celle-ci n’ont produit que des avantages limités, les chercheurs devront explorer d’urgence d’autres solutions», ont conclu les auteurs de l’étude. «À terme, nous pourrions constater que les systèmes automatisés égalent, voire surpassent, les performances humaines en matière de détection de ces deepfakes. Toutefois, du moins dans un avenir prévisible, la véracité du contenu sera laissée à l’appréciation des personnes et, de ce fait, nous devrions faire de cette recherche de solutions une priorité.»

Mon livret 0 0