Die Herausforderungen der Cyber-Desinformation meistern
Hierbei handelt es sich um eine KI-Transkription.
00:00:00:00 - 00:00:38:12
Abigail Acton
Sie hören CORDIScovery. Herzlich willkommen zu dieser Folge von CORDIScovery. Ich bin Abigail Acton und begrüße Sie. Erinnern Sie sich noch an die Zeit, als Sie sich im Internet umsehen und einigermaßen sicher sein konnten, dass das dort Angebotene wahrscheinlich zuverlässig war? Oder bin nur ich schon so alt? Im Verlauf der Jahre betrachtet scheint es, als ob Informationen immer weniger vertrauenswürdig sind, und angesichts von Deepfakes und verzerrten Algorithmen kommt das Gefühl auf, dass hinter jeder Ecke die Desinformation lauern könnte.
00:00:38:16 - 00:01:01:02
Abigail Acton
Das Erkennen, Nachverfolgen und Untersuchen von Desinformation sowie weiteren problematischen Inhalten im Internet ist eine äußerst komplexe Aufgabe. Sie können zu hassmotivierten Straftaten und anderen Verbrechen führen, aber viele europäische Polizeibehörden verfügen über keinen Zugang zu spezialisierten Instrumenten oder Technologien, die ihnen bei der Bewältigung dieses Problems hilfreich zur Seite stehen könnten. Wie können sie unterstützt werden? Wie können wir als Einzelpersonen feststellen, ob wir manipuliert werden?
00:01:01:07 - 00:01:24:00
Abigail Acton
Wir sind in zunehmendem Maße Cyber-Desinformation ausgesetzt, entweder passiv über die sozialen Medien oder aktiv aufgrund der Nutzung von Suchmaschinen und bestimmten Websites, die uns zu Seiten führen, die unsere Voreingenommenheit verstärken und Mauern aus Vorurteilen errichten. Die Unternehmen betreiben einige Anstrengungen, um Websites mit gezielten Falschmeldungen zu erkennen und zu entfernen sowie die Verbreitung von Desinformation in den sozialen Medien einzudämmen. Aber wie verhält es sich mit den Suchmaschinen selbst?
00:01:24:05 - 00:01:48:14
Abigail Acton
Könnten Webcrawler einen innovativen Weg weisen, um uns bei der Überprüfung ihrer Aktivitäten zu helfen? Die Verbreitung von Desinformation im Internet bedroht unsere demokratischen Werte. Da die Menge an Fehlinformationen zunimmt, kommt der künstlichen Intelligenz und insbesondere den Sprachtechnologien eine entscheidende Rolle bei deren Aufdeckung zu. Maschinelles Lernen und KI trainieren anhand großer Sprachmodelle. Aber was ist mit den Sprachen, die online weniger präsent sind? Denjenigen, die weniger häufig benutzt werden?
00:01:48:16 - 00:02:14:11
Abigail Acton
Wie können wir die künstliche Intelligenz stärken, um in den sogenannten ressourcenarmen Sprachen Desinformation entgegenzuwirken? Hier kommt Hilfe bei der Navigation durch dieses Labyrinth in Form von drei Forschenden, die alle Unterstützung aus der EU-Wissenschaftsfinanzierung erhielten. Owen Conlan ist Forschungsbeauftragter des Trinity College Dublin sowie Professor an der Fakultät für Informatik und Statistik. Er ist außerdem Kodirektor des Trinity Center for Digital Humanities.
00:02:14:13 - 00:02:20:13
Abigail Acton
Owen interessiert sich sehr für die Nutzungskontrolle über personalisierte KI-gesteuerte Systeme. Hallo Owen und herzlich willkommen!
00:02:20:15 - 00:02:21:24
Owen Conlan
Hallo Abigail. Es ist schön, hier dabei zu sein.
00:02:22:02 - 00:02:42:03
Abigail Acton
Joana Gonçalves-Sá ist Forscherin am Nova Lab for Computer Science and Informatics und am Laboratory of Particle Physics in Lissabon, wo sie die Forschungsgruppe Social Physics and Complexity leitet. Bei ihr stehen menschliche und algorithmische Verzerrungen im Mittelpunkt, wobei Falschmeldungen als Modellsysteme dienen. Willkommen, Joana.
00:02:42:09 - 00:02:43:19
Joana Gonçalves-Sá
Vielen Dank, dass ich dabei sein darf.
00:02:43:21 - 00:02:59:08
Abigail Acton
Marián Šimko ist Forschungsexperte am Kempelen Institute of Intelligent Technologies in der Slowakei. Marián konzentriert sich auf die Verarbeitung natürlicher Sprache, Informationsextraktion, die Verarbeitung ressourcenarmer Sprachen und die Interpretierbarkeit neuronaler Modelle. Herzlich willkommen, Marián.
00:02:59:10 - 00:03:00:18
Marián Šimko
Ich grüße Sie. Es ist toll, hier zu sein.
00:03:00:22 - 00:03:18:18
Abigail Acton
Schön, dass Sie da sind. Owen, ich wende mich zuerst an Sie. Im Rahmen des Projekts VIGILANT werden eine integrierte Plattform, fortgeschrittene Instrumente und Technologien zur Erkennung und Analyse von Desinformation entwickelt, bei denen modernste KI-Methoden zum Einsatz kommen. Owen, ich weiß, dass Ihr Schwerpunkt die menschenzentrierte KI bildet, aber können Sie erklären, was Sie mit diesem Begriff meinen?
00:03:18:23 - 00:03:41:05
Owen Conlan
Ja, natürlich. Bei menschenzentrierter KI geht es darum, die symbiotische Interaktion zwischen Menschen und KI-Systemen zu verstehen und ihnen, den Menschen und Nutzenden, die Möglichkeit zu geben, zu verstehen, wie ein KI-Agent in ihrem Namen arbeitet. Das ist eine ziemlich komplizierte Sache, weil es nicht darum geht, sich nicht mit den grundlegenden Details von Faltungsalgorithmen und so weiter zu beschäftigen.
00:03:41:05 - 00:04:00:24
Owen Conlan
Damit wäre niemandem gedient. Die Kehrseite der Medaille ist jedoch, dass Sie auch nicht wollen, dass ein KI-Agent einfach sagt: „Hier ist deine Antwort.“ Das wäre eine totale Blackbox-Lösung. Wo also liegt der Mittelweg? Verwenden wir nun den Begriff „menschenzentrierte KI“, dann versuchen wir, einen personalisierten Weg zu finden, um der nutzenden Person zu zeigen, wie ein KI-Agent in ihrem Namen arbeitet,
00:04:01:05 - 00:04:23:16
Owen Conlan
um zu verdeutlichen, welche Schlüsselinformationen zur Erstellung der Antworten verwendet werden, und genau dies zu veranschaulichen. Wenn wir dann Antworten generieren, versuchen wir hauptsächlich, wirklich problematische Inhalte hervorzuheben, auf die Nutzende achten müssen, um vielleicht den Kontext einer Untersuchung zu verstehen oder um möglicherweise zu erkennen, dass es sich eventuell um Desinformation handelt. Wie können wir das sinnvoll für die Nutzenden herleiten?
00:04:23:19 - 00:04:36:05
Abigail Acton
Okay. Das ist noch eindeutiger. Vielen Dank. Owen, ich weiß, dass Sie in der Vergangenheit an einem Projekt mit dem Titel PROVENANCE gearbeitet haben. In ihm ging es vor allem darum, den Menschen bei der Bewältigung dieser komplexen Zusammenhänge zu helfen. Könnten Sie bitte zunächst kurz darauf eingehen, bevor wir zu VIGILANT kommen?
00:04:36:07 - 00:05:15:21
Owen Conlan
Ja, natürlich. Mit PROVENANCE hatten wir normale Nutzerinnen und Nutzer wie Sie und mich im Visier, die sich im Internet, insbesondere in den sozialen Netzwerken, bewegen, um versuchsweise zu zeigen, wo bestimmte Elemente in sozialen Netzwerken problematische Signale enthalten können. Was ich dabei mit problematischen Signalen meine? Das heißt, dass vielleicht eine sehr gefühlsbetonte Sprache bei der Präsentation von etwas eingesetzt wird, das den Anspruch erhebt, eine Nachricht zu sein, oder etwas, wobei eine Terminologie verwendet wird, von der wir wissen, dass sie wirklich ziemlich problematisch sein kann und sich vielleicht auf verschiedene Mitglieder von Gruppen der Gesellschaft bezieht, oder es kommen Medienmittel zum Einsatz, von denen bekannt ist, dass sie in anderen Kontexten aufgetreten sind.
00:05:15:23 - 00:05:44:13
Owen Conlan
Oder etwas scheint in einem völlig anderen Zusammenhang verwendet zu werden. Aber wir sind in dieser Situation sehr vorsichtig und behaupten nicht, dass es sich um Fake News handelt. Wir versuchen zu verdeutlichen, dass es möglicherweise Probleme bei der Darstellung dieser Sache gibt. Und dann wird das bis zu einem gewissen Grad der nutzenden Person selbst überlassen. Sie bieten den Nutzenden damit die Möglichkeit, sich über Desinformation zu informieren und zu lernen, warum sie eingesetzt wird und welche Arten von sprachlichen Bildern und Mechanismen verwendet werden, um etwas in uns auszulösen.
00:05:44:15 - 00:06:22:04
Owen Conlan
Zudem gibt es meistens sehr starke emotionale Auslöseimpulse, auf die im Zusammenhang mit dieser Desinformation reagiert werden soll. Die uns dazu bringen, unsere Überzeugungen ein wenig zu ändern, sei es in Bezug auf Impfstoffe oder bestimmte politische Ansichten und all das. Die Arbeit von PROVENANCE hat sich eingehend mit dieser Frage befasst. Einer der wichtigsten Punkte, die wir beobachtet haben, war die Rolle, die unsere Persönlichkeitsmerkmale für unsere Anfälligkeit gegenüber Desinformation spielen, und dann auch die Rolle, die diese Merkmale in Bezug auf die Frage spielen, wie wir einer nutzenden Person ermöglichen können, mit diesen Informationen auf kontrollierte und verständliche Weise zu interagieren.
00:06:22:04 - 00:06:44:02
Owen Conlan
Damit die Menschen nicht nur etwas sehen, was sie dann glauben, sondern sie das, was sie sehen, zu hinterfragen beginnen: Ist das real? Eine Herausforderung bei all dem besteht jedoch darin, dafür zu sorgen, dass die Leute weiterhin wissen, dass es Online-Inhalte gibt, die vertrauenswürdig sind. Denn wenn das, was wir tun, die Menschen dazu bringt, alles grundsätzlich in Frage zu stellen und gar nichts zu glauben, dann lautet das Ergebnis, dass alles eine Verschwörung ist und niemand irgendwelchen Inhalten im Internet vertrauen kann.
00:06:44:02 - 00:06:46:00
Owen Conlan
Hier gilt es tatsächlich, ein gutes Gleichgewicht zu wahren.
00:06:46:05 - 00:07:02:13
Abigail Acton
Ja, das ist wohl wahr. Genau, so ist es. Die Logik dahinter kann ich gut verstehen. Super. Okay. Nun zum Projekt VIGILANT: Ich weiß, dass es bei VIGILANT eher um die Bereitstellung von Instrumenten für Polizeibehörden ging. Können Sie uns mehr über die Art der Instrumente erzählen, die im Rahmen des Projekts entwickelt werden?
00:07:02:15 - 00:07:32:12
Owen Conlan
Aber gewiss doch. Eine der Herausforderungen für die Polizeibehörden besteht darin, dass sie zunächst einmal – wie wir alle – derart viele Inhalte im Internet vorfinden, dass sie erst einmal verstehen müssen, welche Inhalte aus strafrechtlicher Sicht überhaupt problematisch sein könnten. Dabei müssen wir hier sehr gewissenhaft sein. Denn das ist keine Massenüberwachung. Es geht darum, dass ein Mitglied der Öffentlichkeit einen Bereich ins Visier nimmt oder ein anderer Ermittlungsweg ins Spiel kommt, weil der Verdacht besteht, dass dort eine kriminelle Aktivität stattfindet.
00:07:32:14 - 00:07:59:07
Owen Conlan
Die Art von kriminellen Aktivitäten, über die wir hier sprechen, sind oft extremistische Aktivitäten, bei denen Menschen versuchen, Mitglieder der Gesellschaft zu kriminellen und gesellschaftsfeindlichen Handlungen anzustacheln. Dies geschieht auf Plattformen, die wir alle nutzen, vielleicht auf harmlose Weise, aber manche Leute nutzen sie eben nicht auf ungefährliche Weise. Ein gutes Beispiel für uns wäre eine Gruppe, die etwas Unwahres behauptet.
00:07:59:07 - 00:08:17:20
Owen Conlan
Hier kommt der Teil der Desinformation ins Spiel. Ich werde ein Beispiel nennen, wobei es nur um eine hypothetische Situation geht. Sie könnten behaupten, dass eine Moschee in einem sehr sensiblen Bereich auf der La Rambla gebaut werden soll. Abhängig von dieser Behauptung und den Gesprächen drumherum handelt es sich nur um eine Desinformation, was an sich nicht illegal ist.
00:08:17:22 - 00:08:42:01
Owen Conlan
Aber wenn die Leute anfangen, dagegen zu mobilisieren und Ausschreitungen zu planen, dann wird es zu einer illegalen Aktivität. Die Werkzeuge, die wir unseren Polizeibehörden zur Verfügung stellen, sind jene Instrumente, mit denen sie, wenn sie von ihnen auf diese Verdachtsmomente hingewiesen werden, beginnen können, die zum Ausdruck gebrachten Emotionen zu erfassen und zu verstehen. Und was für uns ziemlich seltsam ist, ist festzustellen, dass unter den Emotionen nicht nur Hass ein Schlüsselindikator für ein Problem sein kann, sondern auch unerwartete Gefühle.
00:08:42:03 - 00:09:11:23
Owen Conlan
Denn auch Glück kann es sein. Sie sehen, dass die Mitglieder dieser Gruppe sehr glücklich darüber sind, dass sie im Begriff sind, sich zu organisieren und einen Plan in die Tat umzusetzen. Wir befassen uns also mit logischen Einheiten, Bezeichnungen, Wörtern und so weiter, und mit Emotionen und deren Zusammenspiel, das wir visuell veranschaulichen können. Dann ist es möglich, sich auf einen Blick einen Telegramkanal anzusehen und zu verstehen, wo die Hotspots sind, sodass ein Mitglied der Polizei es sehen und seine Aufmerksamkeit dorthin lenken kann.
00:09:12:00 - 00:09:30:13
Abigail Acton
Klar. Fantastisch. Das ist super. Das verstehe ich. Ich denke, das wäre dann wahrscheinlich Gefühle von Nervenkitzel oder Aufregung oder Vorfreude, die ebenfalls als Warnsignale in Erscheinung treten könnten. Genau. Wie würden denn die Polizeibehörden, die am Computer versuchen herauszufinden, ob sie irgendwo Ressourcen einsetzen müssen, das Ganze visuell sehen?
00:09:30:15 - 00:09:52:09
Owen Conlan
Sie konzentrieren sich zunächst einmal auf die Möglichkeiten und dabei verwenden wir die Idee eines Knotens. Also diese Idee, einen Knoten aufzuschnüren. Dazu importieren sie eine Anzahl verschiedener Informationsquellen. Diese Quellen werden in Bezug auf natürliche Sprache, Entität, Emotion – eine Vielzahl von verschiedenen Dingen verarbeitet und in Form von Zeitleisten und Intensitäten grafisch dargestellt.
00:09:52:15 - 00:09:57:10
Owen Conlan
Dadurch sind im Grunde visuelle Hotspots zu erkennen, in denen diese Dinge zusammen auftreten.
00:09:57:12 - 00:10:04:15
Abigail Acton
Logisch. Sie können also Überschneidungen erkennen, die Warnsignale darstellen. Genau. Und dann gibt es eine gewisse Anzahl von Überschneidungen, und dann beginnen die Polizeikräfte darüber nachzudenken, dass sie vielleicht präsent sein müssen.
00:10:04:17 - 00:10:06:21
Owen Conlan
Nun, sie beginnen damit, sich detailliert mit dem Inhalt zu beschäftigen.
00:10:06:24 - 00:10:07:11
Abigail Acton
Logisch.
00:10:07:12 - 00:10:16:08
Owen Conlan
Sie können dem Kern der Sache auf den Grund gehen und es wirklich durchschauen, denn wir wollen nicht, dass ein KI-System die Polizei einsetzt.
00:10:16:14 - 00:10:18:03
Abigail Acton
Verstehe.
00:10:18:05 - 00:10:25:03
Owen Conlan
Was wir wollen, ist, dass ein System dieser Art die detaillierte Ermittlung unterstützt, um dann festzustellen, wie die Ressourcen am besten einzusetzen sind.
00:10:25:03 - 00:10:32:07
Abigail Acton
Es handelt sich faktisch um eine Möglichkeit, eine riesige Datenmenge zu durchforsten, um zu erkennen, welche Quellen tatsächlich genauer überprüft werden müssen.
00:10:32:07 - 00:10:32:22
Owen Conlan
Korrekt.
00:10:32:24 - 00:10:35:13
Abigail Acton
Verstehe. Es geht um eine enorme Zeitersparnis.
00:10:35:19 - 00:10:56:15
Owen Conlan
Das spart eine Menge Zeit. Und es dient auch dazu, zu verstehen, wie die Ressourcen eingesetzt werden könnten. Verstehe. Denn die verschiedenen Länder in Europa verfügen über ein sehr unterschiedliches Ethos, das der Arbeitsweise ihrer Polizeibehörden zugrunde liegt. In Irland zum Beispiel heißt unsere Polizei „Garda Síochána“, was so viel bedeutet wie „Friedens-Garde“. Und genau das prägt ihre Interaktion mit der Gesellschaft und so weiter.
00:10:56:17 - 00:11:18:16
Owen Conlan
Und das Gleiche gilt im Kontext des Internets. In Estland gibt es Online-Polizeikräfte, die virtuell auf Streife gehen. Zuweilen bedeutet das, an eine virtuelle Tür zu klopfen und mitzuteilen, dass dieser Inhalt zwar nicht illegal ist, aber dass die Person wissen sollte, dass wir hier sind, dass wir präsent sind. Dass wir da sind, um sicherzustellen, dass alles in Ordnung bleibt.
00:11:18:18 - 00:11:24:09
Owen Conlan
Verstehe. Ein Instrument wie VIGILANT muss sich dementsprechend in diese sehr unterschiedlichen Kontexte einfügen.
00:11:24:11 - 00:11:43:05
Abigail Acton
Ja, in der Tat. Denn der Ansatz ist von Land zu Land sehr unterschiedlich. Das ist ausgezeichnet. Ich danke Ihnen sehr. Sie erklären das wirklich sehr gut. Mir ist bekannt, dass Sie gleichermaßen daran interessiert sind, den Verantwortlichen der Politik Instrumente und Ressourcen zur Verfügung zu stellen. Inwiefern fließt das von VIGILANT erstellte Material, die im Rahmen von VIGILANT geleistete Arbeit Ihrer Meinung nach in diesen Prozess ein?
00:11:43:07 - 00:12:08:10
Owen Conlan
Nun. Es handelt sich einerseits um sehr ähnliche Instrumente, wenn sie aus der Ferne betrachtet werden. Aber die Art und Weise, wie sie Dinge in den Mittelpunkt rücken , und die Art der Kommentare und Aufmunterungen, mit denen Sie den für politische Entscheidungen Verantwortlichen helfen, sind ganz anders. Wir sind aktiv an einem anderen EU-finanzierten Projekt mit der Bezeichnung Athena beteiligt, und Athena befasst sich mit FIMI, d. h. Informationsmanipulation und Einflussnahme aus dem Ausland, und kommt eigentlich schon eher einer Überwachung gleich.
00:12:08:12 - 00:12:33:22
Owen Conlan
Ebenso wie wir unsere Bevölkerung in unseren Ländern nicht überwachen sollten, ist es jedoch völlig akzeptabel, diese sogenannten Informationsseiten zu beobachten. Es gibt große Desinformationsfarmen, die ein ganzes Spektrum von oftmals KI-generierter Desinformation produzieren, und sie versuchen einfach, an Dynamik zu gewinnen. Sie erscheint im Form von Kampagnen, in denen etwa versucht wird, eine bestimmte politische Persönlichkeit zu stürzen, und es werden verschiedenste Wege verfolgt.
00:12:33:22 - 00:12:54:24
Owen Conlan
Je nachdem, wie gut sie ankommen, werden mehr von diesen Informationen hineingepumpt. Bei Athena werden auf ähnliche Weise wie bei VIGILANT Informationen aus Quellen dieser Art gesammelt. Athena ist weniger diskriminierend, da keine Fokussierung auf Einzelpersonen erfolgt, und wir hier sehr vorsichtig mit persönlichen Informationen sein müssen, aber es werden Informationen gesammelt und ähnliche Infografiken usw. erstellt.
00:12:54:24 - 00:13:20:13
Owen Conlan
Um über eine Datengrundlage für sachkundige politische Entscheidungen über politische Maßnahmen und Interventionen zu verfügen. Eine der Herausforderungen, die wir oft beobachten, ist, dass eine FIMI-Angriffskampagne in einem bestimmten sprachlichen Kontext auftauchen kann. Das kann zum Beispiel in Griechenland geschehen. Auf Griechisch wird auf die Probleme im Zusammenhang mit der Migration hingewiesen, und es werden falsche Behauptungen aufgestellt, um die Bevölkerung aufzuwiegeln.
00:13:20:15 - 00:13:43:02
Owen Conlan
Wie die griechischen Behörden darauf reagieren, ist ein Lernprozess. Wird das, was sie in Hinsicht auf dieses auftauchende Problem unternommen haben, mit einer Plattform wie Athena verbunden, kann es dann nach Italien übertragen werden, wenn wir beginnen, ein ähnliches Problem in italienischer Sprache und in einem anderen politischen Kontext festzustellen. Aber was können wir aus der griechischen Reaktion in diesem Fall lernen?
00:13:43:04 - 00:13:56:17
Owen Conlan
Europa ist ein kompliziertes Gemisch aus vielen verschiedenen kulturellen, sprachlichen und sprachlichen Kontexten und Ländern. Aber wir können lernen, wenn wir diese Angriffe registrieren, und wir können versuchen, dieses Wissen über nationale Grenzen hinweg zu transportieren.
00:13:56:19 - 00:14:15:18
Abigail Acton
Perfekt. Ich danke Ihnen vielmals. Genau. So können wir von einander lernen. Ich danke Ihnen überaus. Okay. Joana, ich wende mich jetzt an Sie. Joana, FARE_AUDIT hat einen Weg gefunden, Suchmaschinen zu überprüfen, um zu sehen, wie der Browserverlauf die Suchmaschinenergebnisse beeinflusst und wie das die Wahrscheinlichkeit verändert, zu Desinformationsquellen weitergeleitet zu werden.
00:14:15:18 - 00:14:29:10
Abigail Acton
Hier gibt es also eine gewisse Überschneidung mit Owens Arbeit. Joana, können Sie uns ein wenig über den Begriff des menschlichen Verhaltens in Bezug auf Vorurteile berichten? Können Sie uns bitte die Bedeutung von Verzerrungen im Internet erklären?
00:14:29:12 - 00:14:52:04
Joana Gonçalves-Sá
Ja. Es handelt sich hier um zwei verschiedene Projekte. In einem der Projekte haben wir uns mit der Frage beschäftigt, wie menschliche Voreingenommenheit oder kognitive Verzerrungen die Verbreitung von Desinformation fördern können. Jedes Mal, wenn wir online auf Informationen stoßen, müssen wir entscheiden, ob wir sie glauben oder nicht und ob wir sie weitergeben wollen oder nicht.
00:14:52:06 - 00:15:15:09
Joana Gonçalves-Sá
Und wie Owen es bereits sagte, können wir nicht einfach beschließen, dass wir nichts mehr glauben und völlig zynisch werden oder einfach alles glauben und leichtgläubig werden. Jedes Mal, wenn wir eine Entscheidung treffen müssen, denken wir, oder unsere Hypothese lautet, dass diese Entscheidung durch verschiedene kognitive Verzerrungen beeinflusst wird. Bin ich etwa in der Vergangenheit bereits darauf gestoßen und neige dazu, es zu glauben.
00:15:15:09 - 00:15:40:19
Joana Gonçalves-Sá
Somit kommt es dann zu einer Bestätigungsverzerrung. Und es fällt mir dann leichter, Informationen zu glauben, denen ich bereits Glauben schenke, wenn weitere Informationen erscheinen. Und wenn meine Freunde dazu neigen, etwas zu glauben, dann unterliege ich wahrscheinlich einer sogenannten Eigengruppenbevorzugung, bei der ich ihnen mehr als den Fachleuten glaube. Wir verwenden Desinformation als Modellsystem, ebenso wie andere Forschende Mäuse im Labor einsetzen, um kognitive Verzerrungen zu untersuchen.
00:15:40:19 - 00:16:03:04
Joana Gonçalves-Sá
Wir versuchen herauszufinden, wie sich diese verschiedenen Einflüsse kognitiver Verzerrungen ausbreiten. Wir experimentieren, weil wir etwas über die Vorurteile der Menschen gegenüber der Welt und über die Art und Weise, wie sie sich entscheiden, mit der Gesellschaft in Beziehung zu treten, lernen können. Wir machen es genau andersherum. Es geht nicht direkt um Desinformation,sondern wir nutzen diese Informationen, um kognitive Verzerrungen zu erforschen.
00:16:03:09 - 00:16:25:01
Abigail Acton
Und das ist großartig. Das ist hervorragend, denn das Verständnis der Funktionsweise von Verzerrungen zeigt auch, wie die Menschen die Informationen nutzen oder sich den Informationen im Internet annähern. Echokammern werden durch Algorithmen gefördert, die von Suchmaschinen verwendet werden, um Informationen in die Richtung einer nutzenden Person zu lenken. Es muss sehr schwierig sein, Desinformation durch eine Einzelperson zu erkennen. Können Sie uns ein wenig darüber erzählen, was FARE_AUDIT in diesem Bereich getan hat?
00:16:25:07 - 00:16:50:08
Joana Gonçalves-Sá
Ja, sicher. Unsere Idee lautet folgendermaßen: Da es so schwierig ist, dies zu erkennen, wurden große Anstrengungen unternommen, insbesondere zur Überwachung sozialer Netzwerke, eben weil wir wissen, dass unsere Feeds personalisiert werden und sie diese Verzerrungen nähren können. Es ist, als ob wir selber die Leute sind, die absichtlich Desinformation verbreiten. Es ist bekannt, dass wir keine vollkommen rational Handelnden sind, also werden diese Verzerrungen genutzt, um das gewünschte Signal zu verstärken.
00:16:50:10 - 00:17:14:18
Joana Gonçalves-Sá
Aber es gab auch wirklich wichtige Arbeiten über soziale Medien. Wir haben uns jedoch auf zwei andere Medien zur Verbreitung von Informationen konzentriert, die bisher ein wenig übersehen werden. Insbesondere die Suchmaschinen. Die Suchmaschinen werden typischerweise als neutral oder sogar als ein Tor zur Wahrheit angesehen. Die Menschen neigen dazu, wirklich zu glauben, was sie sehen, wenn sie danach gesucht haben.
00:17:14:18 - 00:17:40:09
Joana Gonçalves-Sá
Sie gehen zum Beispiel zu Google oder einer anderen Suchmaschine und suchen nach etwas. In der Regel werden sogar die am höchsten eingestuften Ergebnisse als die Wahrheit betrachtet. Und natürlich ist das nicht wahr. Natürlich personalisieren auch die Suchmaschinen das, was sie uns anzeigen, auf der Grundlage vieler verschiedener Dinge, einschließlich unseres Standorts und weiterer Suchvorgänge, die wir in der Vergangenheit durchgeführt haben, oder sogar unseres Browserverlaufs.
00:17:40:11 - 00:17:58:00
Abigail Acton
Darf ich Sie fragen, was im Rahmen von FARE_AUDIT entwickelt wurde, um den Menschen zu helfen, zu erkennen, dass sie in eine bestimmte Richtung gedrängt werden könnten? Ich habe erfahren, dass Sie ein Instrument entwickelt haben, das für die Bereiche Journalismus und Demokratiebeobachtung nützlich sein könnte, um Desinformation nachzuverfolgen. Können Sie uns ein wenig mehr darüber berichten?
00:17:58:01 - 00:18:18:07
Joana Gonçalves-Sá
Aber ja. Wir haben folgendes getan, weil es so schwierig ist, Suchmaschinen zu überprüfen, und die Algorithmen proprietär sind und Blackboxes darstellen. Außerdem wollten wir uns nicht auf die Daten echter Menschen stützen, weil wir Bedenken wegen des Datenschutzes und auch wegen der Verzerrungen in den Stichproben hegten. Wir haben ein System von Webcrawlern, sogenannten Bots, entwickelt. Und diese Bots ahmen das menschliche Verhalten nach.
00:18:18:07 - 00:18:38:12
Joana Gonçalves-Sá
Wir verfügen nun über diese kleine Armee von Bots, die im Internet surfen, Cookies sammeln und einfach so tun, als wären sie Menschen. Wir können sie dazu bringen, so zu tun, als wären sie Menschen an verschiedenen Orten und mit verschiedenen Sprachen und sogar möglicherweise Geschlechtern oder Altersgruppen, was sich aus ihrem Browserverlauf ableiten lässt. Dann gehen sie zu den Suchmaschinen und stellen genau zum gleichen Zeitpunkt die gleiche Anfrage.
00:18:38:14 - 00:19:02:03
Joana Gonçalves-Sá
Dabei vergleichen wir, was die verschiedenen Suchmaschinen als Ergebnisse für diese Suchanfragen anzeigen. Wir führten verschiedene Studien mithilfe genau dieser Methodik durch. Nehmen wir also an, wir arbeiten an einer Studie zum aktuellen israelisch-palästinensischen Konflikt, bei der die Bots direkt auf der anderen Seite der Grenze platziert werden können und die gleichen Suchanfragen stellen.
00:19:02:05 - 00:19:25:22
Joana Gonçalves-Sá
Und dann sehen wir nicht nur, ob die Ergebnisse sehr unterschiedlich sind, sondern auch, ob sich bestimmte Tendenzen zeigen oder bestimmte Verzerrungen auftreten. In diesem speziellen Fall finde ich es recht interessant, weil der Standort in der Regel als neutral in Hinsicht auf die Profilerstellung angesehen wird. Wenn ich nach einem Restaurant in meiner Nähe suche, möchte ich ein Restaurant in meiner Nähe angezeigt bekommen und nicht ein Restaurant, das sehr, sehr, sehr weit entfernt ist.
00:19:25:24 - 00:19:48:10
Joana Gonçalves-Sá
Wenn es jedoch um geopolitische Konflikte geht, kann es sich als äußerst problematisch erweisen, Menschen, die in verschiedenen Ländern leben, unterschiedliche Informationen zu derselben Frage zu zeigen. Das gilt etwa für diese beiden Überprüfungen: Eine zu den Wahlen zum Europäischen Parlament, bei dem Bots, die in verschiedenen europäischen Ländern platziert wurden, Fragen wie „Soll ich wählen?“ oder „Was ist die beste Party?“ stellten.
00:19:48:12 - 00:20:10:11
Joana Gonçalves-Sá
Und auch für die US-Präsidentschaftswahlen, die letzten im Jahr 2024. Dann können wir sehen, wie einfach das im Allgemeinen ist und manchmal liefern neutrale Abfragen sehr, sehr unterschiedliche Ergebnisse. Zum Beispiel im Fall des Europäischen Parlaments wurden sehr verzerrte Ergebnisse angezeigt.
00:20:10:11 - 00:20:13:24
Abigail Acton
Oh, Sie haben also tatsächlich eine gewisse Verzerrung erkennen können? Oh, ja.
00:20:14:01 - 00:20:22:14
Joana Gonçalves-Sá
Und zwar sehr. Ich könnte Sie wahrscheinlich gut raten lassen, in welche Richtung, ob links oder rechts. Sie waren verzerrt.
00:20:22:20 - 00:20:29:10
Abigail Acton
Verstehe. Okay. Wie interessant. Aber auch ein wenig beängstigend. Ich nehme an, dass Sie Ihre Ergebnisse leicht beunruhigend fanden?
00:20:29:15 - 00:20:55:06
Joana Gonçalves-Sá
Ja, sicher. Es ist beängstigend. Auch in der Realität haben wir ganz eindeutige Verzerrungen festgestellt. Es ist nicht sehr häufig, dass viele dieser Parteien erwähnt werden, aber jedes Mal, wenn sie erwähnt werden, gehören sie zu einer bestimmten Familie. Aber da diese Suchmaschinen derart weit verbreitet sind und täglich von so vielen Millionen Menschen genutzt werden, wäre es selbst dann besorgniserregend, wenn die Verzerrungen gering und selten wären, da das Signal sehr stark verstärkt werden kann.
00:20:55:08 - 00:21:24:09
Joana Gonçalves-Sá
Dank der Tatsache, dass wir jetzt über dieses Instrument verfügen, kann die Forschung unterstützt werden. Wir versuchen jedoch auch, uns auf die Nutzung durch journalistisch Tätige und die breite Öffentlichkeit einzustellen, aber wir informieren auch die EU, etwa mit einem Pilotvorhaben im Rahmen des Gesetzes über digitale Dienste, um sehr große Online-Suchmaschinen zu prüfen und zu versuchen, Verzerrungen zu erkennen, denn es ist auch möglich, dass die Suchmaschinen tatsächlich von politischen Akteuren manipuliert werden.
00:21:24:09 - 00:21:33:21
Joana Gonçalves-Sá
Und nicht nur das. Sie nutzen die Suchmaschinenoptimierung oder andere Systeme, um ihr Signal zu verstärken, ohne dass die Suchmaschinen überhaupt bemerken, dass dies geschieht.
00:21:33:21 - 00:21:44:23
Abigail Acton
So weit, so gut. Sie schleichen sich dabei also durch eine Art Hintertür. Meine Güte. Ja! Das öffnet mir wirklich die Augen. Vielen Dank. Hat jemand Fragen oder Anmerkungen zu Joanas großartiger Arbeit? Ja, sicher. Owen, was möchten Sie sagen?
00:21:45:00 - 00:21:47:08
Owen Conlan
Ja, das ist wirklich fantastische Arbeit, Joana.
00:21:47:08 - 00:21:48:14
Abigail Acton
Nicht wahr?
00:21:48:16 - 00:22:12:05
Owen Conlan
Haben Sie in Erwägung gezogen, die Bots zur Überprüfung der KI-Antworten einzusetzen, die wir jetzt in den Suchanfragen zu sehen beginnen. Ich weiß zum Beispiel, dass die Google-Suche einen KI-Überblick über viele Antworten anbietet. Ich denke, dass die Möglichkeit, Menschen zu beeinflussen und zu lenken, hier sehr groß sein könnte. Es wird interessant sein zu sehen, wie sie die Ergebnisse auf der Grundlage des Standorts oder ihres Verständnisses der Nutzenden abstimmt.
00:22:12:07 - 00:22:13:19
Owen Conlan
Ziehen Sie das in Betracht?
00:22:14:00 - 00:22:36:23
Joana Gonçalves-Sá
Ja, und vielen Dank für die Frage. Wir haben tatsächlich bei dieser Überprüfung auch bis hin zu großen Sprachmodellen basierend auf ChatGPT und Copilot ähnliche Fragen gestellt. Wen soll ich wählen, welche sind die besten Parteien? Und wir haben sogar das Geschlecht eingeführt, die geschlechtsspezifische Komponente, z. B. ich als Frau, wen soll ich wählen, oder ich als Mann, wen soll ich wählen?
00:22:36:23 - 00:23:06:04
Joana Gonçalves-Sá
Die Ergebnisse sind auch hier sehr verzerrt in dieselbe Richtung, und sie werden noch mehr verzerrt, wenn das Geschlecht einbezogen wird. Tatsächlich? Dabei sind wir direkt zu den Plattformen gegangen. Aber jetzt, mit der Integration von Suchmaschinen in diese Instrumente können wir sie auch direkt anhand der Suchergebnisse, der Wahrnehmung, die sie liefern, und ihrer KI-Antwort prüfen und sehen, ob die Verzerrungen bestehen bleiben oder ob sie verstärkt werden oder nicht, und ob sie verschwinden, ob sie behoben werden.
00:23:06:06 - 00:23:31:05
Abigail Acton
Super. Ich danke Ihnen vielmals. Lieber Himmel, das ist ja sehr umfassend. Es klingt ein bisschen nach einem Wettlauf, wenn versucht wird, Schritt zu halten und immer wieder neue Wege zur Erkennung von Manipulationen zu finden. So schnell, wie sich die Manipulationsmöglichkeiten weiterentwickeln, ist das sehr gut. Ich danke Ihnen vielmals. Ich werde jetzt Marián das Wort übergeben. Marián, das Ziel des in der Slowakei beheimateten Projekts DisAI bestand darin, vertrauenswürdige KI-Technologien und -Instrumente für ressourcenarme Sprachen zu entwickeln.
00:23:31:05 - 00:23:45:05
Abigail Acton
Gerade haben wir über linguistische Modelle und so weiter gesprochen. Hier sind wir daran interessiert, die wachsende Bedrohung durch Online-Desinformation in Sprachen zu bekämpfen, die weniger verbreitet sind. Können Sie uns sagen, warum Sie sich überhaupt auf diese Sache eingelassen haben, Marián?
00:23:45:07 - 00:24:15:08
Marián Šimko
Nun. Als Forscher bin ich erstaunt, wie sehr uns Technologie bei einer Vielzahl von Aufgaben, die wir täglich erledigen, helfen kann. Die meisten von ihnen stehen im Zusammenhang mit verschiedenen Formen der Kommunikation. Das liegt in der Natur von uns Menschen, und die Methoden und Verfahren aus dem Bereich der sogenannten Verarbeitung natürlicher Sprache zielen darauf ab, uns in solchen, alltäglichen Routinen beim Suchen, Verstehen, Erstellen oder Umwandeln von Informationen zu unterstützen.
00:24:15:10 - 00:24:39:18
Marián Šimko
Wir tragen heute Anwendungen dieser Technologie in unseren Taschen herum, zum Beispiel im Zusammenhang mit dem Filtern von Spam-Mails, der Empfehlung von Tagesnachrichten oder zusammengefassten Bewertungen von Produkten oder Dienstleistungen, die wir erwägen zu kaufen, und den Einsatz von Sprachtechnologie gegen Desinformation halte ich für wichtig. Außerdem ist es besonders motivierend, weil wir es zum Wohl der Gesellschaft tun.
00:24:39:20 - 00:25:04:11
Marián Šimko
Das Interessante daran ist, dass das Phänomen der Desinformation für uns nicht neu ist. In der Tat ist es ebenso alt wie die Menschheit. Das Besondere ist jedoch die Macht der Technologien, die uns heute zur Verfügung stehen, und die diese Wirkung noch erheblich verstärken. Dabei denke ich an die Menge an Informationen, den sofortigen Zugang zu Informationen, die Geschwindigkeit der Verbreitung und den Aufstieg der generativen KI sowie die sinkenden Kosten.
00:25:04:13 - 00:25:06:17
Marián Šimko
Also ja, das ist ein wichtiges Thema.
00:25:06:17 - 00:25:26:14
Abigail Acton
Logisch. Ja, natürlich. Wir haben bisher darüber gesprochen, dass die Fähigkeit der KI, Sprache zu verstehen, ausgenutzt wird, um uns Informationen zuzustellen. Mit DisAI wird nun daran gearbeitet, dies auch für weniger verbreitete Sprachen zu realisieren. Können Sie uns etwas mehr über die Arbeit an Ihrem Projekt berichten, das hier für weniger verwendete Sprachen Möglichkeiten eröffnen soll?
00:25:26:18 - 00:25:53:10
Marián Šimko
Nun. Zunächst einmal beruht die Qualität oder Leistungsfähigkeit der neuesten Anwendungen der Verarbeitung natürlicher Sprache, bei denen heutzutage in großem Umfang tiefe neuronale Netzwerke zum Einsatz kommen, auf der Datenmenge, die zum Trainieren verwendet wird. Beispielsweise wird bei großen Sprachmodellen, die wir auf eine Weise einsetzen, dass sie Textmengen aus dem Internet lesen und lernen, das nächste Wort in einem Satz vorhergesagt.
00:25:53:10 - 00:26:13:13
Marián Šimko
Wenn es zum Beispiel um das Wort „Himmel“ geht, könnte „blau“ erraten werden. Der Himmel ist blau. Und Modelle dieser Art erlernen Muster, Grammatik, Fakten, indem sie einfach versuchen, das nächste Wort immer und immer wieder vorherzusagen. Das bildet die Grundlage vieler, dem Stand der Technik entsprechender Ansätze, und im Grunde kann damit jede Aufgabe mit der passenden Verarbeitung natürlicher Sprache erfüllt werden.
00:26:13:15 - 00:26:42:07
Marián Šimko
Das schließt die Aufgabe ein, mit der wir uns im Rahmen des Projekts DisAI in Bezug auf die Bekämpfung von Desinformation befassen, wobei es um das Problem der Verwendung seltenerer Sprachen geht. Für diese Sprachen gibt es nicht genügend Inhalte, um eine solide Grundlage für dieses Modell zu erschaffen. Folglich kann es bei diesen Modellen Schwierigkeiten damit geben, diese Sprachen zu verstehen oder einen verständlichen Text in diesen Sprachen zu erstellen.
00:26:42:09 - 00:27:00:22
Marián Šimko
Die meisten Daten sind für Englisch, Chinesisch, Spanisch usw. vorhanden. Diese Modelle sind viel besser. Daraus resultieren ungleiche Leistungen, und Sprechende von ressourcenarmen Sprachen erhalten qualitativ schlechtere Reaktionen. Es funktioniert ungenauer und ist damit weniger nützlich.
00:27:00:22 - 00:27:05:09
Abigail Acton
Klar. Was wurde innerhalb des Projekts DisAI getan, um die Situation zu verbessern?
00:27:05:09 - 00:27:35:00
Marián Šimko
Nun. Deswegen konzentrieren wir uns auf die Faktenprüfung, die eine wichtige und aktive Rolle in diesem Bemühen einnimmt, sowie auf die einfache Benutzung mit grundlegender Technologie der Verarbeitung natürlicher Sprache. Dort werden die Aufgaben schwieriger, wenn es um andere Sprachen als Englisch geht. Im Zuge des Projekts DisAI konzentrieren wir uns auf die Entwicklung neuer Ansätze der Sprachverarbeitung, die dabei helfen können.
00:27:35:00 - 00:27:58:07
Marián Šimko
Damit die Leistungsfähigkeit in ressourcenarmen Sprachen verbessert wird. Unsere Motivation besteht natürlich auch darin, dass unsere Muttersprache Slowakisch ist, und sie ist ein anschauliches Beispiel für eine ressourcenarme Sprache. Dabei stellt die Verbreitung von Desinformation in der Slowakei immer noch ein ernsthaftes Problem dar. Und ähnlich wie in anderen osteuropäischen Ländern ist die Demokratie hier, nun, eher fragil.
00:27:58:07 - 00:28:07:04
Marián Šimko
Daher ist es wichtig, diese Methoden zu optimieren und die Arbeit der Faktenprüfung zu erleichtern.
00:28:07:04 - 00:28:23:22
Abigail Acton
Ganz gewiss. Es ist eine wichtige Arbeit, die Sie dort leisten. Das kann ich absolut nachvollziehen. Darf ich Sie fragen, welche technischen Möglichkeiten im Zuge des Projekts entwickelt wurden, um diese Herausforderung zu meistern? Ich kann sehr gut erkennen, was das Ziel ist und worin die Motivation besteht. Aber was konnten Sie tatsächlich bewirken oder was ist noch im Gange?
00:28:24:01 - 00:28:46:21
Marián Šimko
Nun. Ja. Genau. Deshalb versucht mein DisAI-Team, Methoden, Verfahren und Instrumente zu entwickeln, die die Arbeit der Faktenprüfung erleichtern können. Bei dieser Arbeit gibt es verschiedene Aufgaben, die durch Sprachtechnologien unterstützt werden können. Wir konzentrieren uns besonders auf die sogenannte Retrieval-Aufgabe bei der Faktenprüfung von Behauptungen. Sie ist eine der vier oder fünf wichtigsten Aufgaben in dieser Pipeline.
00:28:46:23 - 00:29:19:02
Marián Šimko
Wenn die Faktenprüfung auf eine neue Behauptung stößt, etwa dass Impfungen die menschliche DNS verändern, besteht die Frage, ob diese Behauptung bereits von jemand anderem geprüft wurde, oder ob es zumindest hilfreiches Material gibt, denn die Erstellung von Faktenprüfungen ist eine recht anspruchsvoll Sache. Und es ist gut, wenn wir alle Sprachen checken können und sehen, ob die Fakten bereits von anderen überprüft wurden, ich meine auch in portugiesischer oder indonesischer Sprache.
00:29:19:02 - 00:29:25:05
Marián Šimko
Damit kann der Aufwand der Erstellung von Faktenprüfungen erheblich verringert werden.
00:29:25:07 - 00:29:33:12
Abigail Acton
Okay. Das ist ein schönes Beispiel. Vielen Dank dafür. Super. Okay. Sehr gut erklärt, Marián, danke. Möchte sich jemand mit Anmerkungen oder Kommentaren an Marián wenden? Ja. Owen, bitte.
00:29:33:14 - 00:29:55:11
Owen Conlan
Marián, das ist wirklich fundamentale Arbeit. Wir sehen das auch immer wieder bei unseren Versuchen der Bekämpfung von Desinformation: Den Mangel an Datensätzen in verschiedenen Sprachkontexten, die Tatsache, dass die Polizei versucht, Desinformation zu bekämpfen, die möglicherweise nicht in ihrer eigenen Sprache verfasst ist und oft in einer Sprache vorliegt, die in den Datensätzen nicht gut repräsentiert ist.
00:29:55:17 - 00:30:15:24
Owen Conlan
Ein Bereich, in dem wir in letzter Zeit vor besondere Herausforderungen gestellt wurden, war die Suche nach Datensätzen für Hassreden und Hetze in deutscher Sprache. Sie wissen, dass sich das nach etwas anhört, das relativ leicht zu entdecken sein sollte, aber es hängt wirklich davon ab, wo der Schwerpunkt liegt, und ob Forschungsergebnisse für diese sprachlichen Kontexte existieren. Nun, wir versuchten, Hetze aus dem Englischen ins Deutsche zu übersetzen.
00:30:15:24 - 00:30:36:21
Owen Conlan
Und wie Sie sich vorstellen können, hat das nicht sehr gut funktioniert. Einfache Dinge wie Kofferworte und Wortkreuzungen sind problematisch. Phrasen wie „Kill-ary Clinton“, die für uns im englischen Kontext einen Sinn als hasserfüllten Ausdruck ergeben, bilden zwar eine gehässige Wendung, sind aber nicht übersetzbar. Es gibt derart viele kontextuelle kulturelle Verknüpfungen und Aspekte. Aus diesem Grund ist diese Arbeit so zentral wichtig.
00:30:36:23 - 00:30:57:13
Abigail Acton
Nun, die Arbeit von Ihnen allen ist wohl unbedingt notwendig. Es war mir ein echtes Vergnügen, Ihnen zuzuhören und zu erfahren, was Sie bisher erarbeitet und erreicht haben. Und natürlich sehen wir hier, wie bereits festgestellt, dass ein ständiger Wettlauf gegen die technischen Möglichkeiten der Desinformation im Gange ist, die uns aufgedrängt wird. Vielen Dank also dafür und für das, was Sie bewirken.
00:30:57:14 - 00:31:02:14
Abigail Acton
Denn wir wollen versuchen, ein wenig Klarheit in unsere Online-Leben zu bringen. Ich danke Ihnen vielmals.
00:31:02:16 - 00:31:03:16
Joana Gonçalves-Sá
Ich danke Ihnen für die Einladung.
00:31:03:17 - 00:31:04:09
Marián Šimko
Vielen Dank.
00:31:04:13 - 00:31:36:15
Abigail Acton
Es war mir ein Vergnügen. Ich verabschiede mich von Ihnen allen herzlich. Auf Wiedersehen. Machen Sie es gut. Wenn Ihnen dieser Podcast gefallen hat, folgen Sie uns auf Spotify und Apple Podcasts und besuchen Sie die Podcast-Homepage auf der CORDIS-Website. Melden Sie sich an, damit Ihnen die spannendsten Forschungsergebnisse der EU-finanzierten Wissenschaft nicht entgehen. Und wenn Ihnen das Zuhören Freude bereitet hat, dann erzählen Sie es doch bitte weiter. Wir haben darüber gesprochen, wie unser Darm unser Gehirn beeinflusst, über die neueste Technologie, die am Tatort bei Vergewaltigungsfällen hilfreich ist, und darüber, wie eine Sonde auf einem Asteroiden zu landen ist.
00:31:36:17 - 00:32:04:19
Abigail Acton
In unseren 47 Folgen wird etwas dabei sein, das Ihre Neugierde weckt. Vielleicht möchten Sie wissen, was im Rahmen weiterer EU-finanzierter Projekte unternommen wird, um die Flut der digitalen Desinformation einzudämmen? Die CORDIS-Website verschafft Ihnen einen Einblick in die Ergebnisse der innerhalb von Horizont 2020 und Horizont Europa finanzierten Projekte, die sich mit diesem Bereich beschäftigen. Die Website hat Artikel und Interviews zum Inhalt, in denen es um Forschungsergebnisse aus einem sehr breiten Spektrum von Bereichen mit Themen von Dodos bis Neutrinos geht.
00:32:04:23 - 00:32:29:10
Abigail Acton
Da ist auch für Sie etwas dabei! Vielleicht sind Sie an einem Projekt beteiligt oder möchten eine Finanzierung beantragen. Schauen Sie sich an, womit sich andere in Ihrem Bereich beschäftigen. Seien Sie willkommen und entdecken Sie die Forschung, die offenbart, wie unsere Welt tickt. Wir freuen uns stets darauf, von Ihnen zu hören. Schreiben Sie uns eine Nachricht an editorial@cordis.europa.eu. Bis zum nächsten Mal.
Neueste Vorstöße im komplexen Wettlauf um die Erkennung und Bekämpfung von Cyber-Desinformation
Inhalte können hassmotivierte Straftaten und andere Verbrechen nach sich ziehen, aber viele europäische Polizeibehörden verfügen über keinen Zugang zu spezialisierten Instrumenten oder Technologien, die ihnen bei der Bewältigung dieses Problems hilfreich zur Seite stehen könnten: Wie können sie unterstützt werden? Wie können wir als Einzelpersonen feststellen, ob wir manipuliert werden? Wir sind in zunehmendem Maße Cyber-Desinformation ausgesetzt, entweder passiv über die sozialen Medien oder aktiv, wenn wir Suchmaschinen und bestimmte Websites nutzen, die uns zu Seiten führen, die unsere Voreingenommenheit verstärken und Mauern aus Vorurteilen errichten. Die Unternehmen betreiben einige Anstrengungen, um Websites mit gezielten Falschmeldungen zu erkennen und zu entfernen sowie die Verbreitung von Desinformation in den sozialen Medien einzudämmen, aber wie verhält es sich mit den Suchmaschinen selbst? Könnten Webcrawler einen innovativen Weg weisen, um uns bei der Überprüfung ihrer Aktivitäten zu helfen? Die Verbreitung von Desinformation im Internet bedroht unsere demokratischen Werte. Da die Menge an Fehlinformationen zunimmt, kommt der künstlichen Intelligenz (KI) und insbesondere den Sprachtechnologien eine entscheidende Rolle bei deren Aufdeckung zu. Maschinelles Lernen und KI trainieren auf der Basis von großen Sprachmodellen, aber was ist mit Sprachen, die über einen kleineren Online-Fußabdruck verfügen und weniger häufig verwendet werden? Wie können wir die künstliche Intelligenz stärken, um in den sogenannten „ressourcenarmen“ Sprachen der Desinformation entgegenzuwirken? Hören Sie, wie diese und weitere Cyberrisiken mithilfe von EU-Forschungsfinanzierung bekämpft werden. Owen Conlan(öffnet in neuem Fenster) ist Forschungsbeauftragter am Trinity College(öffnet in neuem Fenster), Dublin, und Professor an der School of Computer Science and Statistics(öffnet in neuem Fenster). Er ist außerdem Kodirektor des Trinity Centre for Digital Humanities(öffnet in neuem Fenster). Owen interessiert sich sehr für die Nutzungskontrolle über personalisierte KI-gesteuerte Systeme, die er im Rahmen des Projekts VIGILANT erkundet hat. Joana Gonçalves-Sá(öffnet in neuem Fenster) ist Forscherin am Nova Laboratory for Computer Science and Informatics(öffnet in neuem Fenster) und am Laboratory of Instrumentation and Experimental Particle Physics(öffnet in neuem Fenster) in Lissabon, an dem sie die Forschungsgruppe Social Physics and Complexity leitet. Sie rückt menschliche und algorithmische Verzerrungen in der Mittelpunkt, wobei sie Falschmeldungen als ein Modellsystem einsetzt, das Gegenstand ihres Projekts FARE_AUDIT ist. Marián Šimko(öffnet in neuem Fenster) ist Forschungsexperte am Kempelen Institute of Intelligent Technologies(öffnet in neuem Fenster) in der Slowakei. Seine Schwerpunkte sind die Verarbeitung natürlicher Sprache, Informationsextraktion, die Verarbeitung ressourcenarmer Sprachen und die Interpretierbarkeit neuronaler Modelle. Die Arbeit des Projekts DisAI konzentrierte sich auf die Entwicklung neuer Ansätze für die Sprachverarbeitung, um die Leistungsfähigkeit großer Sprachlernmodelle für weniger häufig genutzte Sprachen zu verbessern.
Wir freuen uns darauf, von Ihnen zu hören!
Ihr Feedback würde uns sehr interessieren! Schicken Sie uns bitte Ihre Kommentare, Fragen und Vorschläge an: editorial@cordis.europa.eu.