Skip to main content
Aller à la page d’accueil de la Commission européenne (s’ouvre dans une nouvelle fenêtre)
français français
CORDIS - Résultats de la recherche de l’UE
CORDIS

Evaluating the Robustness of Non-Credible Text Identification by Anticipating Adversarial Actions

CORDIS fournit des liens vers les livrables publics et les publications des projets HORIZON.

Les liens vers les livrables et les publications des projets du 7e PC, ainsi que les liens vers certains types de résultats spécifiques tels que les jeux de données et les logiciels, sont récupérés dynamiquement sur OpenAIRE .

Livrables

Communication, Dissemination & Outreach Plan (s’ouvre dans une nouvelle fenêtre)

The plan describes the planned measures to maximize the impact of the project, including the dissemination and exploitation measures that are planned, and the target group(s) addressed. Regarding communication measures and public engagement strategy, the aim is to inform and reach out to society and show the activities performed, and the use and the benefits the project will have for citizens.

Data Management Plan (s’ouvre dans une nouvelle fenêtre)

The Data Management Plan describes the data management life cycle for all data sets that will be collected processed or generated by the action It is a document describing what data will be collected processed or generated and following what methodology and standards whether and how this data will be shared andor made open and how it will be curated and preserved

Publications

Attacking Misinformation Detection Using Adversarial Examples Generated by Language Models (s’ouvre dans une nouvelle fenêtre)

Auteurs: Piotr Przybyła
Publié dans: arXiv preprint, 2024
Éditeur: arXiv
DOI: 10.48550/ARXIV.2410.20940

Deanthropomorphising NLP: Can a Language Model Be Conscious? (s’ouvre dans une nouvelle fenêtre)

Auteurs: Piotr Przybyła, Matthew Shardlow
Publié dans: arXiv preprint, 2022
Éditeur: arXiv
DOI: 10.48550/ARXIV.2211.11483

Verifying the Robustness of Automatic Credibility Assessment (s’ouvre dans une nouvelle fenêtre)

Auteurs: Piotr Przybyła, Alexander Shvets, Horacio Saggion
Publié dans: arXiv preprint, 2023
Éditeur: arXiv
DOI: 10.48550/ARXIV.2303.08032

AffilGood: Building reliable institution name disambiguation tools to improve scientific literature analysis

Auteurs: Nicolau Duran-Silva, Pablo Accuosto, Piotr Przybyła, Horacio Saggion
Publié dans: Proceedings of the Fourth Workshop on Scholarly Document Processing (SDP 2024), 2024
Éditeur: Association for Computational Linguistics

ERINIA: Evaluating the Robustness of Non-Credible Text Identification by Anticipating Adversarial Actions

Auteurs: Piotr Przybyła, Horacio Saggion
Publié dans: Proceedings of the Workshop on NLP applied to Misinformation co-located with 39th International Conference of the Spanish Society for Natural Language Processing (SEPLN 2023), 2023, ISSN 1613-0073
Éditeur: CEUR Workshop Proceedings

Overview of the CLEF-2024 CheckThat! Lab Task 6 on Robustness of Credibility Assessment with Adversarial Examples (InCrediblAE)

Auteurs: Piotr Przybyła, Ben Wu, Alexander Shvets, Yida Mu, Kim Chaeng Sheang, Xingyi Song, Horacio Saggion
Publié dans: Working Notes of CLEF 2024 - Conference and Labs of the Evaluation Forum, 2024
Éditeur: CEUR Workshop Proceedings

Know Thine Enemy: Adaptive Attacks on Misinformation Detection Using Reinforcement Learning

Auteurs: Piotr Przybyła, Euan McGill, Horacio Saggion
Publié dans: Proceedings of the 14th Workshop on Computational Approaches to Subjectivity, Sentiment, & Social Media Analysis, 2024
Éditeur: Association for Computational Linguistics

I've Seen Things You Machines Wouldn't Believe: Measuring Content Predictability to Identify Automatically-Generated Text

Auteurs: Piotr Przybyła, Nicolau Duran-Silva, Santiago Egea-Gómez
Publié dans: Proceedings of the 5th Workshop on Iberian Languages Evaluation Forum (IberLEF 2023), 2023
Éditeur: CEUR Workshop Proceedings

The CLEF-2024 CheckThat! Lab: Check-Worthiness, Subjectivity, Persuasion, Roles, Authorities, and Adversarial Robustness (s’ouvre dans une nouvelle fenêtre)

Auteurs: Alberto Barrón-Cedeño, Firoj Alam, Tanmoy Chakraborty, Tamer Elsayed, Preslav Nakov, Piotr Przybyła, Julia Maria Struß, Fatima Haouari, Maram Hasanain, Federico Ruggeri, Xingyi Song, Reem Suwaileh
Publié dans: Lecture Notes in Computer Science, Advances in Information Retrieval, 2024
Éditeur: Springer Nature Switzerland
DOI: 10.1007/978-3-031-56069-9_62

Overview of the CLEF-2024 CheckThat! Lab: Check-Worthiness, Subjectivity, Persuasion, Roles, Authorities, and Adversarial Robustness (s’ouvre dans une nouvelle fenêtre)

Auteurs: Alberto Barrón-Cedeño, Firoj Alam, Julia Maria Struß, Preslav Nakov, Tanmoy Chakraborty, Tamer Elsayed, Piotr Przybyła, Tommaso Caselli, Giovanni Da San Martino, Fatima Haouari, Maram Hasanain, Chengkai Li, Jakub Piskorski, Federico Ruggeri, Xingyi Song, Reem Suwaileh
Publié dans: Lecture Notes in Computer Science, Experimental IR Meets Multilinguality, Multimodality, and Interaction, 2024
Éditeur: Springer Nature Switzerland
DOI: 10.1007/978-3-031-71908-0_2

Recherche de données OpenAIRE...

Une erreur s’est produite lors de la recherche de données OpenAIRE

Aucun résultat disponible

Mon livret 0 0