Skip to main content
Weiter zur Homepage der Europäischen Kommission (öffnet in neuem Fenster)
Deutsch Deutsch
CORDIS - Forschungsergebnisse der EU
CORDIS

Article Category

Article available in the following languages:

Erkennen Sie, ob ein Bild echt ist?

In einer Studie wird unsere Fähigkeit erkundet, zwischen KI-generierten Bildern und echten Fotos zu unterscheiden.

KI-Modelle wie DALL·E können detaillierte und realistische Gesichter erzeugen, indem sie aus Millionen Bildern echter Menschen und deren Beschreibungen lernen. Aber sind diese hyperrealistischen Bilder von Menschen wirklich kaum noch von echten Fotografien zu unterscheiden? Ein Forschungsteam unter der Leitung der Swansea University im Vereinigten Königreich verfolgte das Ziel herauszufinden, wie realistisch KI-generierte Gesichter mittlerweile geworden sind. Die Ergebnisse wurden in der Fachzeitschrift „Cognitive Research: Principles and Implications“(öffnet in neuem Fenster) veröffentlicht.

Sehen heißt nicht glauben

Mithilfe der KI-Modelle DALL·E und ChatGPT erzeugten die Forschenden für eine Reihe von Experimenten extrem realistische Bilder von erfundenen und bekannten Gesichtern, darunter auch Prominente. In den Ergebnissen zeigte sich, dass die an der Studie Teilnehmenden diese nicht eindeutig von echten Fotos unterscheiden konnten, obwohl sie mit dem Aussehen der Personen vertraut waren. Die Ergebnisse lenken die Aufmerksamkeit auf einen beunruhigenden Anstieg des sogenannten Deepfake-Realismus, also darauf, wie nah die gefälschten Inhalte bereits an echtes Filmmaterial herankommen. Mit anderen Worten, wie gut die menschliche Wahrnehmung zu täuschen ist. „Studien haben ergeben, dass mithilfe von künstlicher Intelligenz erzeugte Bilder von Gesichtern fiktiver Personen nicht von echten Fotos zu unterscheiden sind. Für diese Studie gingen wir aber noch einen Schritt weiter und erzeugten synthetische Bilder von echten Menschen“, kommentierte Mitautor und Psychologieprofessor Jeremy Tree von der Swansea University in einer Pressemitteilung(öffnet in neuem Fenster). „Die Tatsache, dass alltägliche KI-Instrumente dazu in der Lage sind, wirft nicht nur dringende Bedenken hinsichtlich Falschinformationen und des Vertrauens in visuelle Medien auf, sondern verdeutlicht zudem den dringenden Bedarf an zuverlässigen Nachweismethoden.“ In einem Experiment wurden Freiwillige aus Australien, Kanada, Neuseeland, dem Vereinigten Königreich und den Vereinigten Staaten gebeten, zu erkennen, welche Gesichtsbilder echt und welche künstlich erzeugt waren. Die KI-generierten fiktiven Gesichter wurden häufig mit den echten verwechselt. In einem weiteren Experiment wurden die Versuchspersonen gebeten, echte Fotos von Hollywood-Stars wie Jake Gyllenhaal und Olivia Wilde von ihren computergenerierten Gegenstücken zu unterscheiden. Auch hier fiel es den Teilnehmenden schwer, die Originale zu erkennen. „Diese Studie beweist, dass KI synthetische Bilder sowohl neuer als auch bekannter Gesichter erzeugen kann, die die meisten Menschen nicht von echten Fotos unterscheiden können“, erklärte Tree.

Ein Alarmsignal

„Die Vertrautheit mit einem Gesicht oder das Vorhandensein von Referenzbildern halfen bei der Erkennung der Fälschungen nicht viel und deshalb müssen wir dringend neue Wege finden, um sie aufzuspüren. Auch wenn automatisierte Systeme den Menschen bei dieser Aufgabe irgendwann übertreffen könnten, liegt es vorerst an den Betrachtenden, zu beurteilen, was real ist.“ Wenn selbst Gesichter, die wir bereits kennen, überzeugend zu fälschen sind, verleiht das dem Wort Manipulation eine völlig neue Bedeutung, mit Konsequenzen im Zusammenhang mit Gebrauch und Missbrauch, die sich von der Politik bis zur Wirtschaft erstrecken. „Da sowohl die Vertrautheit mit einer bestimmten Identität als auch Referenzbilder nur begrenzten Nutzen erbrachten, müssen Forschende dringend nach alternativen Lösungen suchen“, schlussfolgerten die an der Studie Mitwirkenden. „Mit der Zeit werden wir vielleicht feststellen, dass automatisierte Systeme die Leistung des Menschen bei der Erkennung dieser Deepfakes erreichen oder sogar übertreffen werden. Zumindest in absehbarer Zukunft wird es jedoch den Zuschauenden überlassen bleiben, die Glaubwürdigkeit der Inhalte selbst zu beurteilen, und daher sollten wir der Suche nach Lösungen höchste Priorität einräumen.“

Mein Booklet 0 0