Resilienz der Gesellschaft durch vertrauenswürdige KI-Instrumente stärken
Im Zeitalter der künstlichen Intelligenz (KI) und der Deepfakes kann die Überprüfung, ob eine Information vertrauenswürdig ist oder nicht, eine schwierige und herausfordernde Aufgabe darstellen. Desinformation erfolgt häufig multimodal und plattformübergreifend, wobei Text, Bilder, Video und Audio auf eine Art und Weise kombiniert werden, die mit Verifikationswerkzeugen nicht umfassend analysierbar ist. „Während sich falsche Informationen schnell verbreiten, erfordert eine gründliche Analyse Zeit und Fachwissen", erklärt Akis Papadopoulos, Koordinator des Projekts vera.ai(öffnet in neuem Fenster) vom Information Technologies Institute(öffnet in neuem Fenster) in Griechenland. „Das Angebot an zugänglichen und robusten Lösungen ist immer noch begrenzt.“
Fortgeschrittene KI-Methoden zur Inhaltsanalyse
Um die schwerwiegenden Auswirkungen von Desinformationskampagnen auf das Vertrauen der Öffentlichkeit und die Resilienz der Gesellschaft in den Griff zu bekommen, wurden im Rahmen des Projekts vera.ai fortgeschrittene KI-Verfahren zur Inhaltsanalyse, Aufbereitung und Suche nach Beweisen entwickelt. Außerdem wurden KI-Instrumente ausgebaut, um Deepfakes und weitere Formen manipulierter Inhalte zu erkennen sowie die Auswirkungen von Desinformationsnarrativen und -kampagnen nachzuverfolgen und zu messen. „Unser Wunsch war außerdem, einen intelligenten Verifizierungsassistenten zu erarbeiten, der auf Chatbot-Technologien beruht, um Medienschaffende zu unterstützen“, erklärt Papadopoulos. Um diese Ziele zu erreichen, brachte vera.ai eine multidisziplinäre Gruppe von Fachleuten aus den Bereichen der Sozial- und Kommunikationswissenschaften über maschinelles Lernen bis hin zur Verarbeitung natürlicher Sprache und Medienforensik zusammen. „Dank dieses umfassenden Fachwissens konnten wir die Desinformation aus technologischer und gesellschaftlicher Perspektive angehen“, berichtet Papadopoulos. Nach dem Schritt der Entwicklung wurden die Projektprototypen anhand realer Tests an konkreten Fällen, die von den Medienpartnern des Projekts zur Verfügung gestellt wurden, validiert. „Die Ko-Kreation mit Journalistinnen und Journalisten hat dazu beigetragen, die Nutzbarkeit, die Transparenz und die praktische Relevanz deutlich zu verbessern“, fügt Papadopoulos hinzu. „Eine laufende Faktenprüfungsmethodik ermöglichte kontinuierliches sachkundiges Feedback, womit wissenschaftliche Robustheit, Nutzungsfreundlichkeit und praktische Auswirkungen sichergestellt werden.“
Menschliche Aufsicht sichert Gebrauchstauglichkeit
Die Projektarbeit hat dazu beigetragen, erklärbare und vertrauenswürdige KI voranzubringen und die Bedeutung der menschlichen Aufsicht bei der Gewährleistung der Gebrauchstauglichkeit hervorzuheben. „Insgesamt hat das Team von vera.ai sowohl praktische Werkzeuge als auch methodische Erkenntnisse hervorgebracht, die die Fähigkeit Europas stärken werden, sich entwickelnde KI-gesteuerte Desinformations- und koordinierte Manipulationskampagnen zu erkennen, zu analysieren und darauf zu reagieren“, stellt Papadopoulos fest. Die konkreten Projektergebnisse stehen öffentlich zugänglich(öffnet in neuem Fenster) zur Verfügung. Dazu zählen aktualisierte Werkzeuge für Medienschaffende, im Einzelnen das Verifizierungs-Plugin (Fake News Debunker) zur Enthüllung von Falschmeldungen, Truly Media (echte Medien) und die Database of Known Fakes, die Datenbank bekannter Fälschungen. Außerdem wurden eine Reihe von hochwirksamen wissenschaftlichen Veröffentlichungen(öffnet in neuem Fenster), quelloffenen Daten- und Informationsarchiven(öffnet in neuem Fenster) und Datensätzen(öffnet in neuem Fenster) veröffentlicht.
Stärkung der Informationsintegrität
Nach Projektabschluss haben die vera.ai-Partner die bereitgestellten Werkzeuge und Technologien weiter unterstützt und optimiert. „Die Desinformation im Internet entwickelt sich ständig weiter, und es tauchen immer wieder neue Verfahren, Taktiken und Bedrohungen auf“, erklärt Papadopoulos. „Dies erfordert die Entwicklung neuer Nachweis- und Analysemethoden.“ Diese Arbeit ist von entscheidender Bedeutung, da koordinierte Desinformationskampagnen potenziell erheblich die öffentliche Debatte beeinträchtigen, Wahlprozesse verzerren und das Vertrauen in Institutionen und Medien untergraben können. „In Krisensituationen wie zum Beispiel Konflikten oder Naturkatastrophen besteht die Gefahr, dass ungeprüfte Informationen die Panik verstärken und echten Schaden anrichten“, fügt Papadopoulos hinzu. „Für Journalistinnen und Journalisten gefährdet die Unfähigkeit, Inhalte zuverlässig und schnell bewerten zu können, die redaktionelle Glaubwürdigkeit und den Ruf.“ Papadopoulos und sein Team sind zuversichtlich, dass die im Rahmen des Projekts vera.ai geleistete Arbeit langfristig zur Stärkung der Informationsintegrität beitragen wird. „Die stärksten Auswirkungen sind im Journalismus und bei der Faktenüberprüfung zu erwarten“, bekräftigt er. „KI-unterstützte Inhaltsanalysen, die Erkennung synthetischer Medien und die koordinierte Überwachung nicht authentischen Verhaltens werden dazu beitragen, Geschwindigkeit, Genauigkeit und Glaubwürdigkeit aufzuwerten.“ Weitere Bereiche, in denen diese Arbeit ein erhebliches Anwendungspotenzial hat, sind öffentliche Einrichtungen, Plattform-Governance und die Einhaltung gesetzlicher Bestimmungen, insbesondere im Hinblick auf Rahmenwerke wie das Gesetz über digitale Dienste(öffnet in neuem Fenster).