Projektbeschreibung
Kampf gegen kognitive Verzerrungen im postfaktischen Zeitalter
In unserem digitalen Zeitalter wird es immer schwieriger, Fakten von Fiktion zu unterscheiden, was uns in eine postfaktische Ära drängt. Dieses Problem ist darauf zurückzuführen, dass wir uns auf mentale Abkürzungen verlassen, die Voreingenommenheit und schlechte Entscheidungsfindung nach sich ziehen, die in unserer vernetzten Welt noch verstärkt werden. Das Aufkommen der generativen künstlichen Intelligenz, mit der überzeugende falsche Informationen erzeugt werden können, verschärft dieses Problem und kann zu einer epistemischen Krise führen. Das Team des ERC-finanzierten Projekts VIGILIA zielt darauf ab, diese Bedrohung mit der Entwicklung automatisierter Verfahren zur Erkennung kognitiver Verzerrungen bei der Informationsverarbeitung zu bekämpfen. Durch den Einsatz von KI und fortgeschrittener Nutzungsmodellierung wird das Team von VIGILIA Werkzeuge mit der Bezeichnung VIrtual GuardIan AngeLs (VIGILs; virtuelle Schutzengel) für den Nachrichtenkonsum, den journalistischen Bereich, die Forschung und die Verantwortlichen der Politik erarbeiten. Während der gesamten Arbeit des Projekts werden ethische Überlegungen im Vordergrund stehen.
Ziel
This project is motivated by the hypothesis that we are approaching a post-truth society, where it becomes practically impossible for anyone to distinguish fact from fiction in all but the most trivial questions. A main cause of this evolution is people’s innate dependence on cognitive heuristics to process information, which may lead to biases and poor decision making. These biases risk being amplified in a networked society, where people depend on others to form their opinions and judgments and to determine their actions. Contemporary generative Artificial Intelligence technologies may further exacerbate this risk, given their ability to fabricate and efficiently spread false but highly convincing information at an unprecedented scale. Combined with expected advances in virtual, augmented, mixed, and extended reality technologies, this may create an epistemic crisis with consequences that are hard to fully fathom: a post-truth era on steroids.
In the VIGILIA project, we will investigate a possible mitigation strategy. We propose to develop automated techniques for detecting triggers of cognitive biases and heuristics in humans when facing information, as well as their effect at an interpersonal level (their effect on trust, reputation, and information propagation), and at a societal level (in terms of possible irrational behaviour and polarization). We aim to achieve this by leveraging techniques from AI itself, in particular Large Language Models, as well as by building on advanced user modelling approaches from the past ERC Consolidator Grant FORSIED. Our results will be integrated within tools that we refer to as VIrtual GuardIan AngeLs (VIGILs), aimed at news and social media consumers, journalists, scientific researchers, and political decision makers. Ethical questions arising will be identified and dealt with as first-class questions within the research project.
Wissenschaftliches Gebiet (EuroSciVoc)
CORDIS klassifiziert Projekte mit EuroSciVoc, einer mehrsprachigen Taxonomie der Wissenschaftsbereiche, durch einen halbautomatischen Prozess, der auf Verfahren der Verarbeitung natürlicher Sprache beruht.
CORDIS klassifiziert Projekte mit EuroSciVoc, einer mehrsprachigen Taxonomie der Wissenschaftsbereiche, durch einen halbautomatischen Prozess, der auf Verfahren der Verarbeitung natürlicher Sprache beruht.
- SozialwissenschaftenMedien und KommunikationJournalismus
- NaturwissenschaftenInformatik und Informationswissenschaftenkünstliche Intelligenzheuristische Programmierung
Sie müssen sich anmelden oder registrieren, um diese Funktion zu nutzen
Schlüsselbegriffe
Programm/Programme
- HORIZON.1.1 - European Research Council (ERC) Main Programme
Thema/Themen
Finanzierungsplan
HORIZON-ERC - HORIZON ERC GrantsGastgebende Einrichtung
9000 Gent
Belgien