Skip to main content
Aller à la page d’accueil de la Commission européenne (s’ouvre dans une nouvelle fenêtre)
français fr
CORDIS - Résultats de la recherche de l’UE
CORDIS

High Performance Language Technologies

CORDIS fournit des liens vers les livrables publics et les publications des projets HORIZON.

Les liens vers les livrables et les publications des projets du 7e PC, ainsi que les liens vers certains types de résultats spécifiques tels que les jeux de données et les logiciels, sont récupérés dynamiquement sur OpenAIRE .

Livrables

Initial release of monolingual and parallel data sets (s’ouvre dans une nouvelle fenêtre)

This deliverable consists of initial set of textual data acquired from web and non-web sources, both in monolingual and parallel parts, after cleaning done in WP2.

Software for cleaning data sets (s’ouvre dans une nouvelle fenêtre)

Free and open-source software will be released on GitHub.

First language models trained (s’ouvre dans une nouvelle fenêtre)

Language models will be made available for download however it may not have all or the cleanest data.

Translation models for select language pairs (s’ouvre dans une nouvelle fenêtre)

Models available for download trained using the pipeline.

Publications

A New Massive Multilingual Dataset for High-Performance Language Technologies (s’ouvre dans une nouvelle fenêtre)

Auteurs: de Gibert, Ona; Nail, Graeme; Arefyev, Nikolay; Bañón, Marta; van der Linde, Jelmer; Ji, Shaoxiong; Zaragoza-Bernabeu, Jaume; Aulamo, Mikko; Ramírez-Sánchez, Gema; Kutuzov, Andrey; Pyysalo, Sampo; Oepen, Stephan; Tiedemann, Jörg
Publié dans: Proceedings of the 2024 Joint International Conference on Computational Linguistics, Language Resources and Evaluation (LREC-COLING 2024), 2024, ISSN 1530-9312
Éditeur: ELRA and ICCL
DOI: 10.48550/ARXIV.2403.14009

SpringerPlus (s’ouvre dans une nouvelle fenêtre)

Auteurs: Tiedemann J.; Aulamo M.; Bakshandaeva D.; Boggia M.; Grönroos S. A.; Nieminen T.; Raganato A.; Scherrer Y.; Vázquez R.; Virpioja S.
Publié dans: Springer, 2023, ISSN 2193-1801
Éditeur: Springer Science and Business Media Deutschland GmbH
DOI: 10.48550/ARXIV.2212.01936

EMMA-500: Enhancing Massively Multilingual Adaptation of Large Language Models (s’ouvre dans une nouvelle fenêtre)

Auteurs: Shaoxiong Ji; Zihao Li; Indraneil Paul; Jaakko Paavola; Peiqin Lin; Pinzhen Chen; Dayyán O'Brien; Hengyu Luo; Hinrich Schütze; Jörg Tiedemann; Barry Haddow
Publié dans: CoRR, 2024, ISSN 2331-8422
Éditeur: ArXiv
DOI: 10.48550/ARXIV.2409.17892

Can Machine Translation Bridge Multilingual Pretraining and Cross-lingual Transfer Learning? (s’ouvre dans une nouvelle fenêtre)

Auteurs: Shaoxiong Ji; Timothee Mickus; Vincent Segonne; Jörg Tiedemann
Publié dans: Proceedings of the 2024 Joint International Conference on Computational Linguistics, Language Resources and Evaluation (LREC-COLING 2024), 2024, ISSN 1530-9312
Éditeur: ELRA and ICCL
DOI: 10.48550/ARXIV.2403.16777

An Expanded Massive Multilingual Dataset for High-Performance Language Technologies (HPLT) (s’ouvre dans une nouvelle fenêtre)

Auteurs: Laurie Burchell; Ona de Gibert; Nikolay Arefyev; Mikko Aulamo; Marta Bañón; Pinzhen Chen; Mariia Fedorova; Liane Guillou; Barry Haddow; Jan Hajic; Jindrich Helcl; Erik Henriksson; Mateusz Klimaszewski; Ville Komulainen; Andrey Kutuzov; Joona Kytöniemi; Veronika Laippala; Petter Mæhlum; Bhavitvya Malik; Farrokh Mehryary; Vladislav Mikhailov; Nikita Moghe; Amanda Myntti; Dayyán O'Brien; Stephan Oepen; Proyag Pal; Jousia Piha; Sampo Pyysalo; Gema Ramírez-Sánchez; David Samuel; Pavel Stepachev; Jörg Tiedemann; Dusan Varis; Tereza Vojtechová; Jaume Zaragoza-Bernabeu
Publié dans: Proceedings of the 63rd Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), 2025, ISSN 1530-9312
Éditeur: Association for Computational Linguistics
DOI: 10.48550/ARXIV.2503.10267

Is It Good Data for Multilingual Instruction Tuning or Just Bad Multilingual Evaluation for Large Language Models? (s’ouvre dans une nouvelle fenêtre)

Auteurs: Pinzhen Chen; Simon Yu; Zhicheng Guo; Barry Haddow
Publié dans: Proceedings of the 2024 Conference on Empirical Methods in Natural Language Processing, 2024, ISSN 1530-9312
Éditeur: Association for Computational Linguistics
DOI: 10.48550/ARXIV.2406.12822

Poro 34B and the Blessing of Multilinguality (s’ouvre dans une nouvelle fenêtre)

Auteurs: Luukkonen, Risto; Burdge, Jonathan; Zosa, Elaine; Talman, Aarne; Komulainen, Ville; Hatanpää, Väinö; Sarlin, Peter; Pyysalo, Sampo
Publié dans: CoRR, 2024, ISSN 2331-8422
Éditeur: ArXiv
DOI: 10.48550/ARXIV.2404.01856

How Many Languages Make Good Multilingual Instruction Tuning? A Case Study on BLOOM (s’ouvre dans une nouvelle fenêtre)

Auteurs: Ji, Shaoxiong; Chen, Pinzhen
Publié dans: CoRR, 2024, ISSN 2331-8422
Éditeur: ArXiv
DOI: 10.48550/ARXIV.2404.04850

GPT or BERT: why not both?

Auteurs: Lucas Georges Gabriel Charpentier, David Samuel
Publié dans: The 2nd BabyLM Challenge at the 28th Conference on Computational Natural Language Learning, 2024, ISSN 1530-9312
Éditeur: Association for Computational Linguistics

Four Approaches to Low-Resource Multilingual NMT: The Helsinki Submission to the AmericasNLP 2023 Shared Task (s’ouvre dans une nouvelle fenêtre)

Auteurs: Ona De Gibert, Raúl Vázquez, Mikko Aulamo, Yves Scherrer, Sami Virpioja, Jörg Tiedemann
Publié dans: 2023, ISBN 978-1-959429-91-3
Éditeur: Association for Computational Linguistics
DOI: 10.18653/V1/2023.AMERICASNLP-1.20

CUNI Systems for the WMT22 Czech-Ukrainian Translation Task (s’ouvre dans une nouvelle fenêtre)

Auteurs: Popel, Martin; Libovický, Jindřich; Helcl, Jindřich
Publié dans: 2022, ISBN 978-1-959429-29-6
Éditeur: Association for Computational Linguistics
DOI: 10.48550/ARXIV.2212.00486

PMIndiaSum: Multilingual and Cross-lingual Headline Summarization for Languages in India (s’ouvre dans une nouvelle fenêtre)

Auteurs: Ashok Urlana, Pinzhen Chen, Zheng Zhao, Shay Cohen, Manish Shrivastava, Barry Haddow
Publié dans: 2023, ISBN 979-8-89176-061-5
Éditeur: Association for Computational Linguistics
DOI: 10.18653/V1/2023.FINDINGS-EMNLP.777

Towards Effective Disambiguation for Machine Translation with Large Language Models (s’ouvre dans une nouvelle fenêtre)

Auteurs: Vivek Iyer, Pinzhen Chen, and Alexandra Birch
Publié dans: 2023, ISBN 979-8-89176-041-7
Éditeur: Association for Computational Linguistics
DOI: 10.18653/V1/2023.WMT-1.44

DocHPLT: A Massively Multilingual Document-Level Translation Dataset (s’ouvre dans une nouvelle fenêtre)

Auteurs: Dayyán O’Brien, Bhavitvya Malik, Ona de Gibert, Pinzhen Chen, Barry Haddow, Jörg Tiedemann
Publié dans: Proceedings of the Tenth Conference on Machine Translation, 2025
Éditeur: Association for Computational Linguistics
DOI: 10.18653/V1/2025.WMT-1.17

Findings of the 2023 Conference on Machine Translation (WMT23): LLMs Are Here but Not Quite There Yet (s’ouvre dans une nouvelle fenêtre)

Auteurs: Tom Kocmi, Eleftherios Avramidis, Rachel Bawden, Ondřej Bojar, Anton Dvorkovich, Christian Federmann, Mark Fishel, Markus Freitag, Thamme Gowda, Roman Grundkiewicz, Barry Haddow, Philipp Koehn, Benjamin Marie, Christof Monz, Makoto Morishita, Kenton Murray, Makoto Nagata, Toshiaki Nakazawa, Martin Popel, Maja Popović, Mariya Shmatova
Publié dans: Proceedings of the Eighth Conference on Machine Translation, 2023, ISSN 1530-9312
Éditeur: Association for Computational Linguistics
DOI: 10.18653/V1/2023.WMT-1.1

FinGPT: Large Generative Models for a Small Language (s’ouvre dans une nouvelle fenêtre)

Auteurs: Luukkonen, Risto; Komulainen, Ville; Luoma, Jouni; Eskelinen, Anni; Kanerva, Jenna; Kupari, Hanna-Mari; Ginter, Filip; Laippala, Veronika; Muennighoff, Niklas; Piktus, Aleksandra; Wang, Thomas; Tazi, Nouamane; Scao, Teven Le; Wolf, Thomas; Suominen, Osma; Sairanen, Samuli; Merioksa, Mikko; Heinonen, Jyrki; Vahtola, Aija; Antao, Samuel; Pyysalo, Sampo
Publié dans: Proceedings of the 2023 Conference on Empirical Methods in Natural Language Processing, 2023, ISBN 979-8-89176-060-8
Éditeur: Association for Computational Linguistics
DOI: 10.48550/arxiv.2311.05640

Abstractive Event Analysis of Armed Conflicts: Introducing the UCDP-AEC Dataset

Auteurs: Étienne Simon, Helene Bøsei Olsen, Ramón Carreño, Rahul Mishra, Nikolay Arefyev, Mert Can Yilmaz, Lilja Øvrelid, Erik Velldal
Publié dans: Proceedings of the 21st Conference on Natural Language Processing (KONVENS 2025): Workshops, 2025
Éditeur: HsH Applied Academics

Scaling Low-Resource MT via Synthetic Data Generation with LLMs (s’ouvre dans une nouvelle fenêtre)

Auteurs: Ona de Gibert, Joseph Attieh, Teemu Vahtola, Mikko Aulamo, Zihao Li, Raúl Vázquez, Tiancheng Hu, Jörg Tiedemann
Publié dans: Proceedings of the 2025 Conference on Empirical Methods in Natural Language Processing, 2025, ISSN 1530-9312
Éditeur: Association for Computational Linguistics
DOI: 10.18653/V1/2025.EMNLP-MAIN.1408

Mean BERTs make erratic language teachers: the effectiveness of latent bootstrapping in low-resource settings (s’ouvre dans une nouvelle fenêtre)

Auteurs: David Samuel
Publié dans: Proceedings of the BabyLM Challenge at the 27th Conference on Computational Natural Language Learning, 2023, ISSN 1530-9312
Éditeur: Association for Computational Linguistics
DOI: 10.18653/V1/2023.CONLL-BABYLM.19

NorBench – A Benchmark for Norwegian Language Models

Auteurs: David Samuel, Andrey Kutuzov, Samia Touileb, Erik Velldal, Lilja Øvrelid, Egil Rønningstad, Elina Sigdel, Anna Palatkina
Publié dans: Proceedings of the 24th Nordic Conference on Computational Linguistics (NoDaLiDa), 2023
Éditeur: University of Tartu Library

Got Compute, but No Data: Lessons From Post-training a Finnish LLM

Auteurs: Elaine Zosa, Ville Komulainen, Sampo Pyysalo
Publié dans: : Proceedings of the Joint 25th Nordic Conference on Computational Linguistics and 11th Baltic Conference on Human Language Technologies (NoDaLiDa/Baltic-HLT 2025), 2025
Éditeur: University of Tartu Library

Findings of the WMT25 General Machine Translation Shared Task: Time to Stop Evaluating on Easy Test Sets (s’ouvre dans une nouvelle fenêtre)

Auteurs: Tom Kocmi, Ekaterina Artemova, Eleftherios Avramidis, Rachel Bawden, Ondřej Bojar, Konstantin Dranch, Anton Dvorkovich, Sergey Dukanov, Mark Fishel, Markus Freitag, Thamme Gowda, Roman Grundkiewicz, Barry Haddow, Marzena Karpinska, Philipp Koehn, Howard Lakougna, Jessica Lundin, Christof Monz, Kenton Murray, Masaaki Nagata, Stefano Perrella, Lorenzo Proietti, Martin Popel, Maja Popović, Parker Riley, Mariya Shmatova, Steinthór Steingrímsson, Lisa Yankovskaya, Vilém Zouhar
Publié dans: Proceedings of the Tenth Conference on Machine Translation, 2025, ISSN 1530-9312
Éditeur: Association for Computational Linguistics
DOI: 10.18653/V1/2025.WMT-1.22

Tokenization with Factorized Subword Encoding (s’ouvre dans une nouvelle fenêtre)

Auteurs: David Samuel and Lilja Øvrelid
Publié dans: 2023, ISBN 978-1-959429-62-3
Éditeur: Association for Computational Linguistics
DOI: 10.18653/V1/2023.FINDINGS-ACL.890

FinerWeb-10BT: Refining Web Data with LLM-Based Line-Level Filtering

Auteurs: Erik Henriksson, Otto Tarkka, Filip Ginter
Publié dans: Proceedings of the Joint 25th Nordic Conference on Computational Linguistics and 11th Baltic Conference on Human Language Technologies (NoDaLiDa/Baltic-HLT 2025), 2025
Éditeur: University of Tartu Library

Cher at KSAA-CAD 2024: Compressing Words and Definitions into the Same Space for Arabic Reverse Dictionary (s’ouvre dans une nouvelle fenêtre)

Auteurs: Pinzhen Chen, Zheng Zhao, Shun Shao
Publié dans: Proceedings of The Second Arabic Natural Language Processing Conference, 2024, ISSN 1530-9312
Éditeur: Association for Computational Linguistics
DOI: 10.18653/V1/2024.ARABICNLP-1.75

Towards Interpretable Mental Health Analysis with Large Language Models (s’ouvre dans une nouvelle fenêtre)

Auteurs: Yang, Kailai; Ji, Shaoxiong; Zhang, Tianlin; Xie, Qianqian; Kuang, Ziyan; Ananiadou, Sophia
Publié dans: Proceedings of the 2023 Conference on Empirical Methods in Natural Language Processing, 2023, ISBN 979-8-89176-060-8
Éditeur: Association for Computational Linguistics
DOI: 10.48550/arxiv.2304.03347

Findings of the AmericasNLP 2025 Shared Tasks on Machine Translation, Creation of Educational Material, and Translation Metrics for Indigenous Languages of the Americas (s’ouvre dans une nouvelle fenêtre)

Auteurs: Ona De Gibert, Robert Pugh, Ali Marashian, Raul Vazquez, Abteen Ebrahimi, Pavel Denisov, Enora Rice, Edward Gow-Smith, Juan Prieto, Melissa Robles, Rubén Manrique, Oscar Moreno, Angel Lino, Rolando Coto-Solano, Aldo Alvarez, Marvin Agüero-Torales, John E. Ortega, Luis Chiruzzo, Arturo Oncevay, Shruti Rijhwani, Katharina Von Der Wense, Manuel Mager
Publié dans: Proceedings of the Fifth Workshop on NLP for Indigenous Languages of the Americas (AmericasNLP), 2025, ISSN 1530-9312
Éditeur: Association for Computational Linguistics
DOI: 10.18653/V1/2025.AMERICASNLP-1.16

The OPUS-MT Dashboard – A Toolkit for a Systematic Evaluation of Open Machine Translation Models (s’ouvre dans une nouvelle fenêtre)

Auteurs: Jörg Tiedemann and Ona de Gibert
Publié dans: 2023, ISBN 978-1-959429-70-8
Éditeur: Association for Computational Linguistics
DOI: 10.18653/V1/2023.ACL-DEMO.30

Terminology-Aware Translation with Constrained Decoding and Large Language Model Prompting (s’ouvre dans une nouvelle fenêtre)

Auteurs: Bogoychev, Nikolay and Chen, Pinzhen
Publié dans: 2023, ISBN 979-8-89176-041-7
Éditeur: Association for Computational Linguistics
DOI: 10.18653/V1/2023.WMT-1.80

Monolingual or Multilingual Instruction Tuning: Which Makes a Better Alpaca (s’ouvre dans une nouvelle fenêtre)

Auteurs: Chen, Pinzhen; Ji, Shaoxiong; Bogoychev, Nikolay; Kutuzov, Andrey; Haddow, Barry; Heafield, Kenneth
Publié dans: EACL, 2023, ISBN 979-8-89176-088-2
Éditeur: Association for Computational Linguistics
DOI: 10.48550/arxiv.2309.08958

Fine-Tuning Large Language Models with Sequential Instructions (s’ouvre dans une nouvelle fenêtre)

Auteurs: Hanxu Hu, Simon Yu, Pinzhen Chen, Edoardo Ponti
Publié dans: Proceedings of the 2025 Conference of the Nations of the Americas Chapter of the Association for Computational Linguistics: Human Language Technologies (Volume 1: Long Papers), 2025, ISSN 1530-9312
Éditeur: Association for Computational Linguistics
DOI: 10.18653/V1/2025.NAACL-LONG.288

HPLT 3.0: Very Large-Scale Multilingual Resources for LLMs and MT. Mono- and Bi-lingual Data, Multilingual Evaluation, and Pre-Trained Models

Auteurs: Stephan Oepen and Nikolay Arefev and Mikko Aulamo and Marta Bañón and Maja Buljan and Laurie Burchell and Lucas Charpentier and Pinzhen Chen and Mariya Fedorova and Ona de Gibert and Barry Haddow and Jan Hajič and Jindřich Helcl and Andrey Kutuzov and Ver
Publié dans: Proceedings of the Fifteenth Language Resources and Evaluation Conference, 2026, ISSN 2522-2686
Éditeur: International Conference on Language Resources and Evaluation

An Open Dataset and Model for Language Identification (s’ouvre dans une nouvelle fenêtre)

Auteurs: Laurie Burchell, Alexandra Birch, Nikolay Bogoychev, Kenneth Heafield
Publié dans: Proceedings of the 61st Annual Meeting of the Association for Computational Linguistics (Volume 2: Short Papers), 2023, ISSN 1530-9312
Éditeur: Association for Computational Linguistics
DOI: 10.18653/V1/2023.ACL-SHORT.75

Unsupervised Feature Selection for Effective Parallel Corpus Filtering

Auteurs: Mikko Aulamo, Ona de Gibert, Sami Virpioja, and Jörg Tiedemann
Publié dans: Proceedings of the 24th Annual Conference of the European Association for Machine Translation, 2023, ISBN 978-952-03-2947-1
Éditeur: European Association for Machine Translation

Exploring Data Augmentation for Code Generation Tasks

Auteurs: Pinzhen Chen, Gerasimos Lampouras
Publié dans: 2023, ISBN 978-1-959429-47-0
Éditeur: Association for Computational Linguistics

Scaling Data-Constrained Language Models (s’ouvre dans une nouvelle fenêtre)

Auteurs: Muennighoff, Niklas; Rush, Alexander M.; Barak, Boaz; Scao, Teven Le; Piktus, Aleksandra; Tazi, Nouamane; Pyysalo, Sampo; Wolf, Thomas; Raffel, Colin
Publié dans: 2023, ISSN 2331-8422
Éditeur: NeurIPS'23
DOI: 10.48550/arxiv.2305.16264

CUNI Non-Autoregressive System for the WMT 22 Efficient Translation Shared Task (s’ouvre dans une nouvelle fenêtre)

Auteurs: Helcl, Jindřich
Publié dans: 2022, ISBN 978-1-959429-29-6
Éditeur: Association for Computational Linguistics
DOI: 10.48550/ARXIV.2212.00477

Code-Switched Language Identification is Harder Than You Think

Auteurs: Burchell, Laurie and Birch, Alexandra and Thompson, Robert and Heafield, Kenneth
Publié dans: Proceedings of the 18th Conference of the European Chapter of the Association for Computational Linguistics (Volume 1: Long Papers), 2024, ISSN 1530-9312
Éditeur: Association for Computational Linguistics

CUNI Non-Autoregressive System for the WMT 22 Efficient Translation Shared Task

Auteurs: Jindřich Helcl
Publié dans: Proceedings of the Seventh Conference on Machine Translation (WMT), 2022, ISSN 1530-9312
Éditeur: Association for Computational Linguistics

HPLT’s First Release of Data and Models

Auteurs: Ramírez-Sánchez, Gema; Chen, Pinzhen; Helcl, Jindřich; Zaragoza-Bernabeu, Jaume; Malik, Bhavitvya; De Gibert Bonet, Ona; Stepachev, Pavel; Variš, Dušan; Haddow, Barry; Arefyev, Nikolay; Tiedemann, Jörg
Publié dans: 2024, ISSN 1530-9312
Éditeur: European Association for Machine Translation (EAMT)

OpusDistillery: A Configurable End-to-End Pipeline for Systematic Multilingual Distillation of Open NMT Models

Auteurs: Ona de Gibert, Tommi Nieminen, Yves Scherrer, Jörg Tiedemann
Publié dans: Proceedings of the Joint 25th Nordic Conference on Computational Linguistics and 11th Baltic Conference on Human Language Technologies (NoDaLiDa/Baltic-HLT 2025), 2025
Éditeur: University of Tartu Library

HPLT’s Second Data Release

Auteurs: Nikolay Arefyev, Mikko Aulamo, Marta Bañón, Laurie Burchell, Pinzhen Chen, Mariia Fedorova, Ona de Gibert, Liane Guillou, Barry Haddow, Jan Hajič, Jindřich Helcl, Erik Henriksson, Andrey Kutuzov, Veronika Laippala, Bhavitvya Malik, Farrokh Mehryary, Vladi
Publié dans: Proceedings of Machine Translation Summit XX: Volume 2, 2025
Éditeur: European Association for Machine Translation

Mind the Gap: Diverse NMT Models for Resource-Constrained Environments

Auteurs: Ona de Gibert, Dayyán O’Brien, Dušan Variš, Jörg Tiedemann
Publié dans: Proceedings of the Joint 25th Nordic Conference on Computational Linguistics and 11th Baltic Conference on Human Language Technologies (NoDaLiDa/Baltic-HLT 2025), 2025
Éditeur: University of Tartu Library

Cheating to Identify Hard Problems for Neural Machine Translation (s’ouvre dans une nouvelle fenêtre)

Auteurs: Proyag Pal, Kenneth Heafield
Publié dans: 2023, ISBN 978-1-959429-47-0
Éditeur: Association for Computational Linguistics
DOI: 10.18653/V1/2023.FINDINGS-EACL.120

The Ups and Downs of Large Language Model Inference with Vocabulary Trimming by Language Heuristics (s’ouvre dans une nouvelle fenêtre)

Auteurs: Nikolay Bogoychev, Pinzhen Chen, Barry Haddow, Alexandra Birch
Publié dans: Proceedings of the Fifth Workshop on Insights from Negative Results in NLP, 2024, ISSN 1530-9312
Éditeur: Association for Computational Linguistics
DOI: 10.18653/V1/2024.INSIGHTS-1.17

Large Language Model Inference with Lexical Shortlisting (s’ouvre dans une nouvelle fenêtre)

Auteurs: Nikolay Bogoychev and Pinzhen Chen and Barry Haddow and Alexandra Birch
Publié dans: AAAI Workshop on Deployable AI, 2024, ISSN 2331-8422
Éditeur: arXiv
DOI: 10.48550/ARXIV.2311.09709

Not all layers are equally as important: Every Layer Counts BERT (s’ouvre dans une nouvelle fenêtre)

Auteurs: Lucas Georges Gabriel Charpentier, David Samuel
Publié dans: Proceedings of the BabyLM Challenge at the 27th Conference on Computational Natural Language Learning, 2023, ISSN 1530-9312
Éditeur: Association for Computational Linguistics
DOI: 10.18653/V1/2023.CONLL-BABYLM.20

HPLT High-Performance Language Technology: Building LLMs and TMs in European languages

Auteurs: Hajič, Jan
Publié dans: 2023
Éditeur: Oral presentation at Skeikampen, Norway

Iterative Translation Refinement with Large Language Models (s’ouvre dans une nouvelle fenêtre)

Auteurs: Chen, Pinzhen and Guo, Zhicheng and Haddow, Barry and Heafield, Kenneth
Publié dans: 2023, ISSN 2331-8422
Éditeur: arXiv
DOI: 10.48550/ARXIV.2306.03856

{EEE-QA}: Exploring effective and efficient question-answer representations (s’ouvre dans une nouvelle fenêtre)

Auteurs: Zhanghao Hu and Yijun Yang and Junjie Xu and Yifu Qiu and Pinzhen Chen
Publié dans: 2024, ISSN 2331-8422
Éditeur: arXiv
DOI: 10.48550/ARXIV.2403.02176

Velké jazykové modely: Co znamená velké a co jazykové?

Auteurs: Libovický, Jindřich
Publié dans: 2023
Éditeur: Talk at FI MUNI, Brno, Czechia

OpusCleaner and OpusTrainer, open source toolkits for training Machine Translation and Large language models (s’ouvre dans une nouvelle fenêtre)

Auteurs: Nikolay Bogoychev and Jelmer van der Linde and Graeme Nail and Barry Haddow and Jaume Zaragoza-Bernabeu and Gema Ramírez-Sánchez and Lukas Weymann and Tudor Nicolae Mateiu and Jindřich Helcl and Mikko Aulamo
Publié dans: 2023, ISSN 2331-8422
Éditeur: arXiv
DOI: 10.48550/ARXIV.2311.14838

Recherche de données OpenAIRE...

Une erreur s’est produite lors de la recherche de données OpenAIRE

Aucun résultat disponible

Mon livret 0 0