Skip to main content
Aller à la page d’accueil de la Commission européenne (s’ouvre dans une nouvelle fenêtre)
français français
CORDIS - Résultats de la recherche de l’UE
CORDIS

A prototype system for obtaining and managing training data for multilingual learning

CORDIS fournit des liens vers les livrables publics et les publications des projets HORIZON.

Les liens vers les livrables et les publications des projets du 7e PC, ainsi que les liens vers certains types de résultats spécifiques tels que les jeux de données et les logiciels, sont récupérés dynamiquement sur OpenAIRE .

Livrables

Publications

EXECUTE: A Multilingual Benchmark for LLM Token Understanding (s’ouvre dans une nouvelle fenêtre)

Auteurs: Lukas Edman, Helmut Schmid, Alexander Fraser
Publié dans: Findings of the Association for Computational Linguistics: ACL 2025, 2025
Éditeur: Association for Computational Linguistics
DOI: 10.18653/V1/2025.FINDINGS-ACL.95

From Unaligned to Aligned: Scaling Multilingual LLMs with Multi-Way Parallel Corpora (s’ouvre dans une nouvelle fenêtre)

Auteurs: Yingli Shen, Wen Lai, Shuo Wang, Ge Gao, Kangyang Luo, Alexander Fraser, Maosong Sun
Publié dans: Proceedings of the 2025 Conference on Empirical Methods in Natural Language Processing, 2025
Éditeur: Association for Computational Linguistics
DOI: 10.18653/V1/2025.EMNLP-MAIN.374

Improving Parallel Sentence Mining for Low-Resource and Endangered Languages (s’ouvre dans une nouvelle fenêtre)

Auteurs: Shu Okabe, Katharina Hämmerl, Alexander Fraser
Publié dans: Proceedings of the 63rd Annual Meeting of the Association for Computational Linguistics (Volume 2: Short Papers), 2025
Éditeur: Association for Computational Linguistics
DOI: 10.18653/V1/2025.ACL-SHORT.17

Mask and You Shall Receive: Optimizing Masked Language Modeling For Pretraining BabyLMs (s’ouvre dans une nouvelle fenêtre)

Auteurs: Lukas Edman, Alexander Fraser
Publié dans: Proceedings of the First BabyLM Workshop, 2025
Éditeur: Association for Computational Linguistics
DOI: 10.18653/V1/2025.BABYLM-MAIN.31

Findings of the WMT 2025 Shared Task LLMs with Limited Resources for Slavic Languages: MT and QA (s’ouvre dans une nouvelle fenêtre)

Auteurs: Shu Okabe, Daryna Dementieva, Marion Di Marco, Lukas Edman, Katharina Haemmerl, Marko Měškank, Anita Hendrichowa, Alexander Fraser
Publié dans: Proceedings of the Tenth Conference on Machine Translation, 2025
Éditeur: Association for Computational Linguistics
DOI: 10.18653/V1/2025.WMT-1.27

Recherche de données OpenAIRE...

Une erreur s’est produite lors de la recherche de données OpenAIRE

Aucun résultat disponible

Mon livret 0 0