Opis projektu
Walka z błędami poznawczymi w epoce postprawdy
Odkąd wkroczyliśmy w erę cyfrową, odróżnienie faktów od fikcji staje się coraz trudniejsze, prowadząc nas nieuchronnie w kierunku epoki postprawdy. Jedną z przyczyn tego problemu jest fakt, że umysł ludzki w dużej mierze polega na skrótach myślowych, co może rodzić błędne przekonania i prowadzić do podejmowania złych decyzji. Dodatkowo jest to potęgowane przez istnienie globalnych sieci społecznych. Niestety, wykorzystanie generatywnej sztucznej inteligencji, zdolnej do tworzenia przekonujących nieprawdziwych informacji, jeszcze bardziej pogłębiło ten problem, potencjalnie prowadząc do kryzysu epistemicznego. Finansowany przez Europejską Radę ds. Badań Naukowych projekt VIGILIA powstał z myślą o zwalczeniu tego zagrożenia poprzez opracowanie zautomatyzowanych technik wykrywania błędów poznawczych w procesie przetwarzania informacji. Dzięki wykorzystaniu AI i zaawansowanych metod modelowania użytkowników zespół projektu VIGILIA stworzy narzędzia o nazwie VIrtual GuardIan AngeLs (VIGILs) przeznaczone dla odbiorców treści, dziennikarzy, naukowców i decydentów. Podczas prac główny nacisk zostanie położony na kwestie etyczne.
Cel
This project is motivated by the hypothesis that we are approaching a post-truth society, where it becomes practically impossible for anyone to distinguish fact from fiction in all but the most trivial questions. A main cause of this evolution is people’s innate dependence on cognitive heuristics to process information, which may lead to biases and poor decision making. These biases risk being amplified in a networked society, where people depend on others to form their opinions and judgments and to determine their actions. Contemporary generative Artificial Intelligence technologies may further exacerbate this risk, given their ability to fabricate and efficiently spread false but highly convincing information at an unprecedented scale. Combined with expected advances in virtual, augmented, mixed, and extended reality technologies, this may create an epistemic crisis with consequences that are hard to fully fathom: a post-truth era on steroids.
In the VIGILIA project, we will investigate a possible mitigation strategy. We propose to develop automated techniques for detecting triggers of cognitive biases and heuristics in humans when facing information, as well as their effect at an interpersonal level (their effect on trust, reputation, and information propagation), and at a societal level (in terms of possible irrational behaviour and polarization). We aim to achieve this by leveraging techniques from AI itself, in particular Large Language Models, as well as by building on advanced user modelling approaches from the past ERC Consolidator Grant FORSIED. Our results will be integrated within tools that we refer to as VIrtual GuardIan AngeLs (VIGILs), aimed at news and social media consumers, journalists, scientific researchers, and political decision makers. Ethical questions arising will be identified and dealt with as first-class questions within the research project.
Dziedzina nauki (EuroSciVoc)
Klasyfikacja projektów w serwisie CORDIS opiera się na wielojęzycznej taksonomii EuroSciVoc, obejmującej wszystkie dziedziny nauki, w oparciu o półautomatyczny proces bazujący na technikach przetwarzania języka naturalnego.
Klasyfikacja projektów w serwisie CORDIS opiera się na wielojęzycznej taksonomii EuroSciVoc, obejmującej wszystkie dziedziny nauki, w oparciu o półautomatyczny proces bazujący na technikach przetwarzania języka naturalnego.
- nauki społecznemedia i komunikacjadziennikarstwo
- nauki przyrodniczeinformatykasztuczna inteligencjaprogramowanie heurystyczne
Aby użyć tej funkcji, musisz się zalogować lub zarejestrować
Słowa kluczowe
Program(-y)
- HORIZON.1.1 - European Research Council (ERC) Main Programme
Temat(-y)
System finansowania
HORIZON-ERC - HORIZON ERC GrantsInstytucja przyjmująca
9000 Gent
Belgia