Skip to main content
European Commission logo print header

Computational Propaganda: Investigating the Impact of Algorithms and Bots on Political Discourse in Europe

Article Category

Article available in the following languages:

Geheime Roboterarmee kämpft für die Schwächung der Demokratie

Regierungen und spezielle Interessengruppen setzen Netzwerke automatisierter Konten in sozialen Medien ein, um Unstimmigkeit zu säen, Desinformation zu verbreiten und ihre Gegner zu schwächen.

Gesellschaft icon Gesellschaft
Sicherheit icon Sicherheit

Das vom Europäischen Forschungsrat (ERC) finanzierte Projekt COMPROP (Computational Propaganda: Investigating the Impact of Algorithms and Bots on Political Discourse in Europe) nahm sich vor, diese Netzwerke automatisierter Konten in sozialen Medien und deren Rolle bei der öffentlichen Meinungsbildung zu untersuchen. Die Forschungsgruppe um Hauptforscher Philip Howard erstellte eine kodifizierte Definition von „Junk News“. Diese bezieht sich auf absichtlich produzierte irreführende, täuschende und falsche Propaganda, die als echte Nachrichten ausgegeben werden. Im Anschluss untersuchte das Team Millionen Beiträge in den sozialen Medien, um herauszufinden, wie diese Nachrichten produziert und verbreitet wurden. Das Team des Programms zu Demokratie und Technologie der Universität Oxford konzentrierte sich zunächst auf Twitter. Doch sie fanden computergestützte Propaganda – Algorithmen, die für eine politische Agenda eingesetzt werden – auch auf Facebook, Instagram, Telegram, YouTube und sogar in der Dating-App Tinder. „Wir hatten nicht erwartet, dass sich das Problem im Laufe des Projekts als so schlimm erweisen würde“, merkt Howard an. „Wir konnten sehen, wie sie in der Politik, im Lobbyismus und in Kreisen des Rechtsextremismus und des weißen Rassismus zur Manipulation der Demokratie eingesetzt wurden.“ Das Projekt COMPROP konzentrierte sich vor allem auf Falschinformationen zu COVID-19. Diese kamen laut Howard hauptsächlich aus drei Quellen: von russischen Medien, chinesischen Medien und von Donald Trump, dem damaligen Präsidenten der Vereinigten Staaten. Während die Desinformation von Trump sich um die Politik in den Vereinigten Staaten drehte, forcierten Russland und China drei breitgefächerte Themen, die sich auf ausländische Zielgruppen fokussierten. „Die erste Behauptung war, dass die Demokratie uns nicht helfen könne und gewählte Staatsoberhäupter zu schwach seien, Entscheidungen zu treffen“, so Howard. „Die zweite Botschaft war, dass russische oder chinesische Wissenschaftlerinnen und Wissenschaftler zuerst einen Impfstoff entwickeln würden, und die dritte, dass Russland oder China die humanitären Hilfsmaßnahmen anführen würden.“

Beeinflusst

Diese Fehlinformationskampagnen fanden jedoch vor dem Beginn der COVID-19-Pandemie statt. „Als der Malaysia-Airlines-Flug 17 über der Ukraine abgeschossen wurde, kursierten mehrere absurde Geschichten darüber, was passiert sei – dass er von Gesandten der Demokratie abgeschossen wurde, dass es amerikanische Truppen waren, dass ein verschollener Panzer aus dem zweiten Weltkrieg aus dem Wald kam und das Flugzeug abschoss“, fügt Howard hinzu. Durch die Verbreitung mehrerer widersprüchlicher Geschichten verhindern autoritäre Regierungen, dass die Bevölkerung auf ein einziges Narrativ reagieren kann. Diese Strategie wurde letztendlich ausgedehnt, um soziale Bewegungen zu schwächen und fremde Nationen zu destabilisieren. „Manchmal geht es um bestimmte Krisen oder Personen. Meist ist das Ziel jedoch, das Vertrauen in Gerichte, die Polizei, Journalismus, die Wissenschaft oder Regierungen insgesamt zu schwächen“, erklärt Howard. Er ergänzt, dass die Zielgruppen dieser Bots vielleicht nur 10-20 % der Bevölkerung ausmachen. Meist handelt es sich dabei um unzufriedene, konservativ geneigte, politisch aktive Erwachsene. In einem extrem polarisierten Land können 10 % der Wählerschaft einen enormen Einfluss haben. Howard erläutert, dass diese Kampagnen insbesondere für die Rolle von Frauen und Minderheiten im öffentlichen Leben schädlich sind: „Feministinnen, Journalistinnen und Politikerinnen werden in den sozialen Medien auf üble Art und Weise angegriffen und Ziele von Desinformation. Es ist viel einfacher, eine Frau aus dem öffentlichen Leben zu vertreiben als einen Mann.“

Staatliche Intervention

Laut Howard sind größere Anstrengungen notwendig, um diese Propagandanetzwerke einzudämmen. „Die Zeit der Selbstregulierung durch die Industrie ist vorbei. Wenn Technologieunternehmen sich einsetzen und Regierungen Bußgelder für Politikerinnen und Politiker verhängen würden, die diese Programme in Auftrag geben, würden diese Initiativen sehr viel bewegen.“ Doch es hat sich sogar schon als schwierig herausgestellt, ausfindig zu machen, welche Konten in sozialen Medien automatisiert sind. „Eine Person aus dem Bot-Schreiber-Team in Deutschland meinte, sie würden unsere Methodikarbeiten lesen und ihre Algorithmen so anpassen, dass sie genau unter unserem Radar sind“, meint Howard. „Wir waren quasi im Gespräch mit diesen Programmierinnen und Programmierern.“ Die Gruppe erhielt auch einen Konzeptnachweis für die Entwicklung des Junk News Aggregator, ein Werkzeug, das interaktiv ist und Artikel aus unzuverlässigen Quellen anzeigt, während sie auf Facebook verbreitet werden. Howard und sein Team arbeiten nun daran, wie die Technologie des maschinellen Lernens eine neue Generation der computergestützten Propaganda antreiben wird. „Wenn jemand in der Lage ist, Ihre Beiträge in sozialen Medien mit Verhaltensdaten zu kombinieren und damit politische Botschaften zu erstellen, auf die Sie garantiert reagieren – dann wird genau das geschehen“, fasst er zusammen. „Das ist die nächste große Bedrohung.“

Schlüsselbegriffe

COMPROP, computergestützt, Propaganda, Bot, soziale Medien, politisch, COVID, Algorithmus, maschinelles Lernen, Russland, China, Trump

Entdecken Sie Artikel in demselben Anwendungsbereich