European Commission logo
polski polski
CORDIS - Wyniki badań wspieranych przez UE
CORDIS

Explainable and Robust Automatic Fact Checking

Opis projektu

Automatyczne określanie faktów i fałszu

Coraz większy zasięg internetu oraz mediów, a także najnowsze wydarzenia sprawiają, że coraz częściej stajemy przed koniecznością szybkiej i łatwej weryfikacji informacji, które widzimy w sieci. Problem stanowi jednak ogromna ilość danych, która powoduje, że nawet mechanizmy weryfikacji oparte na algorytmach uczenia maszynowego mają trudności z efektywnym działaniem lub wyjaśnieniem procesu weryfikacji. Nad rozwiązaniem tego problemu pracuje zespół finansowanego przez Europejską Radę ds. Badań Naukowych projektu ExplainYourself, który dąży do opracowania wytłumaczalnego mechanizmu weryfikacji faktów. Ze względu na to, że istniejące metody automatycznego sprawdzania faktów często wykorzystują nieprzejrzyste głębokie sieci neuronowe, badacze skupiają się przede wszystkim na wyjaśnialności działania algorytmu weryfikującego, rozwiązując tym samym problem istniejących podejść, które nie są w stanie tworzyć zróżnicowanych wyjaśnień, dostosowanych do użytkowników o różnych poziomach zapotrzebowania na informacje.

Cel

ExplainYourself proposes to study explainable automatic fact checking, the task of automatically predicting the veracity of textual claims using machine learning (ML) methods, while also producing explanations about how the model arrived at the prediction. Automatic fact checking methods often use opaque deep neural network models, whose inner workings cannot easily be explained. Especially for complex tasks such as automatic fact checking, this hinders greater adoption, as it is unclear to users when the models' predictions can be trusted. Existing explainable ML methods partly overcome this by reducing the task of explanation generation to highlighting the right rationale. While a good first step, this does not fully explain how a ML model arrived at a prediction. For knowledge intensive natural language understanding (NLU) tasks such as fact checking, a ML model needs to learn complex relationships between the claim, multiple evidence documents, and common sense knowledge in addition to retrieving the right evidence. There is currently no explainability method that aims to illuminate this highly complex process. In addition, existing approaches are unable to produce diverse explanations, geared towards users with different information needs.
ExplainYourself radically departs from existing work in proposing methods for explainable fact checking that more accurately reflect how fact checking models make decisions, and are useful to diverse groups of end users. It is expected that these innovations will apply to explanation generation for other knowledge-intensive NLU tasks, such as question answering or entity linking. To achieve this, ExplainYourself builds on my pioneering work on explainable fact checking as well as my interdisciplinary expertise.

Instytucja przyjmująca

KOBENHAVNS UNIVERSITET
Wkład UE netto
€ 1 498 616,00
Adres
NORREGADE 10
1165 Kobenhavn
Dania

Zobacz na mapie

Region
Danmark Hovedstaden Byen København
Rodzaj działalności
Higher or Secondary Education Establishments
Linki
Koszt całkowity
€ 1 498 616,00

Beneficjenci (1)