Skip to main content
Przejdź do strony domowej Komisji Europejskiej (odnośnik otworzy się w nowym oknie)
polski polski
CORDIS - Wyniki badań wspieranych przez UE
CORDIS

Evaluating the Robustness of Non-Credible Text Identification by Anticipating Adversarial Actions

CORDIS oferuje możliwość skorzystania z odnośników do publicznie dostępnych publikacji i rezultatów projektów realizowanych w ramach programów ramowych HORYZONT.

Odnośniki do rezultatów i publikacji związanych z poszczególnymi projektami 7PR, a także odnośniki do niektórych konkretnych kategorii wyników, takich jak zbiory danych i oprogramowanie, są dynamicznie pobierane z systemu OpenAIRE .

Rezultaty

Communication, Dissemination & Outreach Plan (odnośnik otworzy się w nowym oknie)

The plan describes the planned measures to maximize the impact of the project, including the dissemination and exploitation measures that are planned, and the target group(s) addressed. Regarding communication measures and public engagement strategy, the aim is to inform and reach out to society and show the activities performed, and the use and the benefits the project will have for citizens.

Data Management Plan (odnośnik otworzy się w nowym oknie)

The Data Management Plan describes the data management life cycle for all data sets that will be collected processed or generated by the action It is a document describing what data will be collected processed or generated and following what methodology and standards whether and how this data will be shared andor made open and how it will be curated and preserved

Publikacje

Attacking Misinformation Detection Using Adversarial Examples Generated by Language Models (odnośnik otworzy się w nowym oknie)

Autorzy: Piotr Przybyła
Opublikowane w: arXiv preprint, 2024
Wydawca: arXiv
DOI: 10.48550/ARXIV.2410.20940

Deanthropomorphising NLP: Can a Language Model Be Conscious? (odnośnik otworzy się w nowym oknie)

Autorzy: Piotr Przybyła, Matthew Shardlow
Opublikowane w: arXiv preprint, 2022
Wydawca: arXiv
DOI: 10.48550/ARXIV.2211.11483

Verifying the Robustness of Automatic Credibility Assessment (odnośnik otworzy się w nowym oknie)

Autorzy: Piotr Przybyła, Alexander Shvets, Horacio Saggion
Opublikowane w: arXiv preprint, 2023
Wydawca: arXiv
DOI: 10.48550/ARXIV.2303.08032

AffilGood: Building reliable institution name disambiguation tools to improve scientific literature analysis

Autorzy: Nicolau Duran-Silva, Pablo Accuosto, Piotr Przybyła, Horacio Saggion
Opublikowane w: Proceedings of the Fourth Workshop on Scholarly Document Processing (SDP 2024), 2024
Wydawca: Association for Computational Linguistics

ERINIA: Evaluating the Robustness of Non-Credible Text Identification by Anticipating Adversarial Actions

Autorzy: Piotr Przybyła, Horacio Saggion
Opublikowane w: Proceedings of the Workshop on NLP applied to Misinformation co-located with 39th International Conference of the Spanish Society for Natural Language Processing (SEPLN 2023), 2023, ISSN 1613-0073
Wydawca: CEUR Workshop Proceedings

Overview of the CLEF-2024 CheckThat! Lab Task 6 on Robustness of Credibility Assessment with Adversarial Examples (InCrediblAE)

Autorzy: Piotr Przybyła, Ben Wu, Alexander Shvets, Yida Mu, Kim Chaeng Sheang, Xingyi Song, Horacio Saggion
Opublikowane w: Working Notes of CLEF 2024 - Conference and Labs of the Evaluation Forum, 2024
Wydawca: CEUR Workshop Proceedings

Know Thine Enemy: Adaptive Attacks on Misinformation Detection Using Reinforcement Learning

Autorzy: Piotr Przybyła, Euan McGill, Horacio Saggion
Opublikowane w: Proceedings of the 14th Workshop on Computational Approaches to Subjectivity, Sentiment, & Social Media Analysis, 2024
Wydawca: Association for Computational Linguistics

I've Seen Things You Machines Wouldn't Believe: Measuring Content Predictability to Identify Automatically-Generated Text

Autorzy: Piotr Przybyła, Nicolau Duran-Silva, Santiago Egea-Gómez
Opublikowane w: Proceedings of the 5th Workshop on Iberian Languages Evaluation Forum (IberLEF 2023), 2023
Wydawca: CEUR Workshop Proceedings

The CLEF-2024 CheckThat! Lab: Check-Worthiness, Subjectivity, Persuasion, Roles, Authorities, and Adversarial Robustness (odnośnik otworzy się w nowym oknie)

Autorzy: Alberto Barrón-Cedeño, Firoj Alam, Tanmoy Chakraborty, Tamer Elsayed, Preslav Nakov, Piotr Przybyła, Julia Maria Struß, Fatima Haouari, Maram Hasanain, Federico Ruggeri, Xingyi Song, Reem Suwaileh
Opublikowane w: Lecture Notes in Computer Science, Advances in Information Retrieval, 2024
Wydawca: Springer Nature Switzerland
DOI: 10.1007/978-3-031-56069-9_62

Overview of the CLEF-2024 CheckThat! Lab: Check-Worthiness, Subjectivity, Persuasion, Roles, Authorities, and Adversarial Robustness (odnośnik otworzy się w nowym oknie)

Autorzy: Alberto Barrón-Cedeño, Firoj Alam, Julia Maria Struß, Preslav Nakov, Tanmoy Chakraborty, Tamer Elsayed, Piotr Przybyła, Tommaso Caselli, Giovanni Da San Martino, Fatima Haouari, Maram Hasanain, Chengkai Li, Jakub Piskorski, Federico Ruggeri, Xingyi Song, Reem Suwaileh
Opublikowane w: Lecture Notes in Computer Science, Experimental IR Meets Multilinguality, Multimodality, and Interaction, 2024
Wydawca: Springer Nature Switzerland
DOI: 10.1007/978-3-031-71908-0_2

Wyszukiwanie danych OpenAIRE...

Podczas wyszukiwania danych OpenAIRE wystąpił błąd

Brak wyników

Moja broszura 0 0