Skip to main content
Aller à la page d’accueil de la Commission européenne (s’ouvre dans une nouvelle fenêtre)
français français
CORDIS - Résultats de la recherche de l’UE
CORDIS

High Performance Language Technologies

CORDIS fournit des liens vers les livrables publics et les publications des projets HORIZON.

Les liens vers les livrables et les publications des projets du 7e PC, ainsi que les liens vers certains types de résultats spécifiques tels que les jeux de données et les logiciels, sont récupérés dynamiquement sur OpenAIRE .

Livrables

Initial release of monolingual and parallel data sets (s’ouvre dans une nouvelle fenêtre)

This deliverable consists of initial set of textual data acquired from web and non-web sources, both in monolingual and parallel parts, after cleaning done in WP2.

Software for cleaning data sets (s’ouvre dans une nouvelle fenêtre)

Free and open-source software will be released on GitHub.

First language models trained (s’ouvre dans une nouvelle fenêtre)

Language models will be made available for download however it may not have all or the cleanest data.

Translation models for select language pairs (s’ouvre dans une nouvelle fenêtre)

Models available for download trained using the pipeline.

Publications

Four Approaches to Low-Resource Multilingual NMT: The Helsinki Submission to the AmericasNLP 2023 Shared Task (s’ouvre dans une nouvelle fenêtre)

Auteurs: Ona De Gibert, Raúl Vázquez, Mikko Aulamo, Yves Scherrer, Sami Virpioja, Jörg Tiedemann
Publié dans: 2023, ISBN 978-1-959429-91-3
Éditeur: Association for Computational Linguistics
DOI: 10.18653/V1/2023.AMERICASNLP-1.20

CUNI Systems for the WMT22 Czech-Ukrainian Translation Task (s’ouvre dans une nouvelle fenêtre)

Auteurs: Popel, Martin; Libovický, Jindřich; Helcl, Jindřich
Publié dans: 2022, ISBN 978-1-959429-29-6
Éditeur: Association for Computational Linguistics
DOI: 10.48550/ARXIV.2212.00486

PMIndiaSum: Multilingual and Cross-lingual Headline Summarization for Languages in India (s’ouvre dans une nouvelle fenêtre)

Auteurs: Ashok Urlana, Pinzhen Chen, Zheng Zhao, Shay Cohen, Manish Shrivastava, Barry Haddow
Publié dans: 2023, ISBN 979-8-89176-061-5
Éditeur: Association for Computational Linguistics
DOI: 10.18653/V1/2023.FINDINGS-EMNLP.777

Towards Effective Disambiguation for Machine Translation with Large Language Models (s’ouvre dans une nouvelle fenêtre)

Auteurs: Vivek Iyer, Pinzhen Chen, and Alexandra Birch
Publié dans: 2023, ISBN 979-8-89176-041-7
Éditeur: Association for Computational Linguistics
DOI: 10.18653/V1/2023.WMT-1.44

FinGPT: Large Generative Models for a Small Language (s’ouvre dans une nouvelle fenêtre)

Auteurs: Luukkonen, Risto; Komulainen, Ville; Luoma, Jouni; Eskelinen, Anni; Kanerva, Jenna; Kupari, Hanna-Mari; Ginter, Filip; Laippala, Veronika; Muennighoff, Niklas; Piktus, Aleksandra; Wang, Thomas; Tazi, Nouamane; Scao, Teven Le; Wolf, Thomas; Suominen, Osma; Sairanen, Samuli; Merioksa, Mikko; Heinonen, Jyrki; Vahtola, Aija; Antao, Samuel; Pyysalo, Sampo
Publié dans: Proceedings of the 2023 Conference on Empirical Methods in Natural Language Processing, 2023, ISBN 979-8-89176-060-8
Éditeur: Association for Computational Linguistics
DOI: 10.48550/arxiv.2311.05640

Tokenization with Factorized Subword Encoding (s’ouvre dans une nouvelle fenêtre)

Auteurs: David Samuel and Lilja Øvrelid
Publié dans: 2023, ISBN 978-1-959429-62-3
Éditeur: Association for Computational Linguistics
DOI: 10.18653/V1/2023.FINDINGS-ACL.890

Towards Interpretable Mental Health Analysis with Large Language Models (s’ouvre dans une nouvelle fenêtre)

Auteurs: Yang, Kailai; Ji, Shaoxiong; Zhang, Tianlin; Xie, Qianqian; Kuang, Ziyan; Ananiadou, Sophia
Publié dans: Proceedings of the 2023 Conference on Empirical Methods in Natural Language Processing, 2023, ISBN 979-8-89176-060-8
Éditeur: Association for Computational Linguistics
DOI: 10.48550/arxiv.2304.03347

The OPUS-MT Dashboard – A Toolkit for a Systematic Evaluation of Open Machine Translation Models (s’ouvre dans une nouvelle fenêtre)

Auteurs: Jörg Tiedemann and Ona de Gibert
Publié dans: 2023, ISBN 978-1-959429-70-8
Éditeur: Association for Computational Linguistics
DOI: 10.18653/V1/2023.ACL-DEMO.30

Terminology-Aware Translation with Constrained Decoding and Large Language Model Prompting (s’ouvre dans une nouvelle fenêtre)

Auteurs: Bogoychev, Nikolay and Chen, Pinzhen
Publié dans: 2023, ISBN 979-8-89176-041-7
Éditeur: Association for Computational Linguistics
DOI: 10.18653/V1/2023.WMT-1.80

Monolingual or Multilingual Instruction Tuning: Which Makes a Better Alpaca (s’ouvre dans une nouvelle fenêtre)

Auteurs: Chen, Pinzhen; Ji, Shaoxiong; Bogoychev, Nikolay; Kutuzov, Andrey; Haddow, Barry; Heafield, Kenneth
Publié dans: EACL, 2023, ISBN 979-8-89176-088-2
Éditeur: Association for Computational Linguistics
DOI: 10.48550/arxiv.2309.08958

Unsupervised Feature Selection for Effective Parallel Corpus Filtering

Auteurs: Mikko Aulamo, Ona de Gibert, Sami Virpioja, and Jörg Tiedemann
Publié dans: Proceedings of the 24th Annual Conference of the European Association for Machine Translation, 2023, ISBN 978-952-03-2947-1
Éditeur: European Association for Machine Translation

Exploring Data Augmentation for Code Generation Tasks

Auteurs: Pinzhen Chen, Gerasimos Lampouras
Publié dans: 2023, ISBN 978-1-959429-47-0
Éditeur: Association for Computational Linguistics

Scaling Data-Constrained Language Models (s’ouvre dans une nouvelle fenêtre)

Auteurs: Muennighoff, Niklas; Rush, Alexander M.; Barak, Boaz; Scao, Teven Le; Piktus, Aleksandra; Tazi, Nouamane; Pyysalo, Sampo; Wolf, Thomas; Raffel, Colin
Publié dans: 2023, ISSN 2331-8422
Éditeur: NeurIPS'23
DOI: 10.48550/arxiv.2305.16264

CUNI Non-Autoregressive System for the WMT 22 Efficient Translation Shared Task (s’ouvre dans une nouvelle fenêtre)

Auteurs: Helcl, Jindřich
Publié dans: 2022, ISBN 978-1-959429-29-6
Éditeur: Association for Computational Linguistics
DOI: 10.48550/ARXIV.2212.00477

Cheating to Identify Hard Problems for Neural Machine Translation (s’ouvre dans une nouvelle fenêtre)

Auteurs: Proyag Pal, Kenneth Heafield
Publié dans: 2023, ISBN 978-1-959429-47-0
Éditeur: Association for Computational Linguistics
DOI: 10.18653/V1/2023.FINDINGS-EACL.120

Large Language Model Inference with Lexical Shortlisting (s’ouvre dans une nouvelle fenêtre)

Auteurs: Nikolay Bogoychev and Pinzhen Chen and Barry Haddow and Alexandra Birch
Publié dans: AAAI Workshop on Deployable AI, 2024, ISSN 2331-8422
Éditeur: arXiv
DOI: 10.48550/ARXIV.2311.09709

SpringerPlus (s’ouvre dans une nouvelle fenêtre)

Auteurs: Tiedemann J.; Aulamo M.; Bakshandaeva D.; Boggia M.; Grönroos S. A.; Nieminen T.; Raganato A.; Scherrer Y.; Vázquez R.; Virpioja S.
Publié dans: Springer, 2023, ISSN 2193-1801
Éditeur: Springer Science and Business Media Deutschland GmbH
DOI: 10.48550/ARXIV.2212.01936

HPLT High-Performance Language Technology: Building LLMs and TMs in European languages

Auteurs: Hajič, Jan
Publié dans: 2023
Éditeur: Oral presentation at Skeikampen, Norway

Iterative Translation Refinement with Large Language Models (s’ouvre dans une nouvelle fenêtre)

Auteurs: Chen, Pinzhen and Guo, Zhicheng and Haddow, Barry and Heafield, Kenneth
Publié dans: 2023, ISSN 2331-8422
Éditeur: arXiv
DOI: 10.48550/ARXIV.2306.03856

{EEE-QA}: Exploring effective and efficient question-answer representations (s’ouvre dans une nouvelle fenêtre)

Auteurs: Zhanghao Hu and Yijun Yang and Junjie Xu and Yifu Qiu and Pinzhen Chen
Publié dans: 2024, ISSN 2331-8422
Éditeur: arXiv
DOI: 10.48550/ARXIV.2403.02176

Velké jazykové modely: Co znamená velké a co jazykové?

Auteurs: Libovický, Jindřich
Publié dans: 2023
Éditeur: Talk at FI MUNI, Brno, Czechia

OpusCleaner and OpusTrainer, open source toolkits for training Machine Translation and Large language models (s’ouvre dans une nouvelle fenêtre)

Auteurs: Nikolay Bogoychev and Jelmer van der Linde and Graeme Nail and Barry Haddow and Jaume Zaragoza-Bernabeu and Gema Ramírez-Sánchez and Lukas Weymann and Tudor Nicolae Mateiu and Jindřich Helcl and Mikko Aulamo
Publié dans: 2023, ISSN 2331-8422
Éditeur: arXiv
DOI: 10.48550/ARXIV.2311.14838

Recherche de données OpenAIRE...

Une erreur s’est produite lors de la recherche de données OpenAIRE

Aucun résultat disponible

Mon livret 0 0