Skip to main content
Przejdź do strony domowej Komisji Europejskiej (odnośnik otworzy się w nowym oknie)
polski pl
CORDIS - Wyniki badań wspieranych przez UE
CORDIS

A prototype system for obtaining and managing training data for multilingual learning

CORDIS oferuje możliwość skorzystania z odnośników do publicznie dostępnych publikacji i rezultatów projektów realizowanych w ramach programów ramowych HORYZONT.

Odnośniki do rezultatów i publikacji związanych z poszczególnymi projektami 7PR, a także odnośniki do niektórych konkretnych kategorii wyników, takich jak zbiory danych i oprogramowanie, są dynamicznie pobierane z systemu OpenAIRE .

Rezultaty

Publikacje

EXECUTE: A Multilingual Benchmark for LLM Token Understanding (odnośnik otworzy się w nowym oknie)

Autorzy: Lukas Edman, Helmut Schmid, Alexander Fraser
Opublikowane w: Findings of the Association for Computational Linguistics: ACL 2025, 2025
Wydawca: Association for Computational Linguistics
DOI: 10.18653/V1/2025.FINDINGS-ACL.95

From Unaligned to Aligned: Scaling Multilingual LLMs with Multi-Way Parallel Corpora (odnośnik otworzy się w nowym oknie)

Autorzy: Yingli Shen, Wen Lai, Shuo Wang, Ge Gao, Kangyang Luo, Alexander Fraser, Maosong Sun
Opublikowane w: Proceedings of the 2025 Conference on Empirical Methods in Natural Language Processing, 2025
Wydawca: Association for Computational Linguistics
DOI: 10.18653/V1/2025.EMNLP-MAIN.374

Improving Parallel Sentence Mining for Low-Resource and Endangered Languages (odnośnik otworzy się w nowym oknie)

Autorzy: Shu Okabe, Katharina Hämmerl, Alexander Fraser
Opublikowane w: Proceedings of the 63rd Annual Meeting of the Association for Computational Linguistics (Volume 2: Short Papers), 2025
Wydawca: Association for Computational Linguistics
DOI: 10.18653/V1/2025.ACL-SHORT.17

Mask and You Shall Receive: Optimizing Masked Language Modeling For Pretraining BabyLMs (odnośnik otworzy się w nowym oknie)

Autorzy: Lukas Edman, Alexander Fraser
Opublikowane w: Proceedings of the First BabyLM Workshop, 2025
Wydawca: Association for Computational Linguistics
DOI: 10.18653/V1/2025.BABYLM-MAIN.31

Findings of the WMT 2025 Shared Task LLMs with Limited Resources for Slavic Languages: MT and QA (odnośnik otworzy się w nowym oknie)

Autorzy: Shu Okabe, Daryna Dementieva, Marion Di Marco, Lukas Edman, Katharina Haemmerl, Marko Měškank, Anita Hendrichowa, Alexander Fraser
Opublikowane w: Proceedings of the Tenth Conference on Machine Translation, 2025
Wydawca: Association for Computational Linguistics
DOI: 10.18653/V1/2025.WMT-1.27

Wyszukiwanie danych OpenAIRE...

Podczas wyszukiwania danych OpenAIRE wystąpił błąd

Brak wyników

Moja broszura 0 0