Skip to main content
Aller à la page d’accueil de la Commission européenne (s’ouvre dans une nouvelle fenêtre)
français français
CORDIS - Résultats de la recherche de l’UE
CORDIS

Democratize Trustworthy and Efficient Large Language Model Technology for Europe

CORDIS fournit des liens vers les livrables publics et les publications des projets HORIZON.

Les liens vers les livrables et les publications des projets du 7e PC, ainsi que les liens vers certains types de résultats spécifiques tels que les jeux de données et les logiciels, sont récupérés dynamiquement sur OpenAIRE .

Livrables

Language-specific adapters for multilingual LLMs (s’ouvre dans une nouvelle fenêtre)

Pre-trained adapters for Germanic languages, to be used with existing LLMs and the TrustLLM models.

Data formatting pipeline (s’ouvre dans une nouvelle fenêtre)

Pipeline for formatting data as a preparation for LLM training.

Initial training code (s’ouvre dans une nouvelle fenêtre)

First version of parallel training code for training LLMs on European HPC systems

Multi-dimensional evaluation metric for text generation (s’ouvre dans une nouvelle fenêtre)

An evaluation process usable in an online environment for generated texts testing reliability, accuracy, fluency, etc.

Methods for factual correctness based on retriever modelling (s’ouvre dans une nouvelle fenêtre)

Report and software framework for LLM with factual correctness (Version 1) based on retriever-based modelling.

Quality filtering and deduplication pipeline (s’ouvre dans une nouvelle fenêtre)

Pipeline for doing quality filtering and deduplication of data as a preparation for LLM training.

Alignment data (s’ouvre dans une nouvelle fenêtre)

Multilingual datasets for instruction fine-tuning.

Bias Dataset (s’ouvre dans une nouvelle fenêtre)

An evaluation dataset quantifying the models’ potential biases toward minority groups

Benchmarking Platform (s’ouvre dans une nouvelle fenêtre)

Open-source software package allowing for automatic benchmarking using the evaluation datasets developed in the project.

Germanic Language Modelling Evaluation Dataset (s’ouvre dans une nouvelle fenêtre)

An evaluation dataset quantifying the models’ general Germanic linguistic capabilities.

Communication and dissemination toolkit (s’ouvre dans une nouvelle fenêtre)

Printed and digital material for C&D, for example flyers, posters, social media posts and videos

Project Handbook (s’ouvre dans une nouvelle fenêtre)

Outline of planned management procedures, tools, project roles and responsibilities.

IPR Management Plan (s’ouvre dans une nouvelle fenêtre)

Detailed IPR management plan

Strategic plan for communication and dissemination (s’ouvre dans une nouvelle fenêtre)

Initial plan for strategic communication and dissemination, to be yearly updated (internally)

Design Five Use Cases (s’ouvre dans une nouvelle fenêtre)

A report detailing the design for each of the use cases

Data Management Plan, V2 (s’ouvre dans une nouvelle fenêtre)

Detailed data management plan, including the plans for open source and open access publishing, V2

Data Management Plan (s’ouvre dans une nouvelle fenêtre)

Detailed data management plan, including the plans for open source and open access publishing

Publications

How Reliable Are Automatic Evaluation Methods for Instruction-Tuned LLMs? (s’ouvre dans une nouvelle fenêtre)

Auteurs: Ehsan Doostmohammadi, Oskar Holmström, Marco Kuhlmann
Publié dans: Findings of the Association for Computational Linguistics: EMNLP 2024, 2024
Éditeur: Association for Computational Linguistics
DOI: 10.18653/V1/2024.FINDINGS-EMNLP.367

FoQA: A Faroese Question-Answering Dataset

Auteurs: Annika Simonsen, Dan Saattrup Nielsen, Hafsteinn Einarsson
Publié dans: 2025
Éditeur: Proceedings of the Third Workshop on Resources and Representations for Under-Resourced Languages and Domains (RESOURCEFUL-2025)

Tokenizer Choice For LLM Training: Negligible or Crucial? (s’ouvre dans une nouvelle fenêtre)

Auteurs: Mehdi Ali, Michael Fromm, Klaudia Thellmann, Richard Rutmann, Max Lübbering, Johannes Leveling, Katrin Klug, Jan Ebert, Niclas Doll, Jasper Buschhoff, Charvi Jain, Alexander Weber, Lena Jurkschat, Hammam Abdelwahab, Chelsea John, Pedro Ortiz Suarez, Malte
Publié dans: Findings of the Association for Computational Linguistics: NAACL 2024, 2024
Éditeur: Association for Computational Linguistics
DOI: 10.18653/V1/2024.FINDINGS-NAACL.247

Investigating Multilingual Instruction-Tuning: Do Polyglot Models Demand for Multilingual Instructions? (s’ouvre dans une nouvelle fenêtre)

Auteurs: Alexander Arno Weber, Klaudia Thellmann, Jan Ebert, Nicolas Flores-Herr, Jens Lehmann, Michael Fromm, Mehdi Ali
Publié dans: Proceedings of the 2024 Conference on Empirical Methods in Natural Language Processing, 2024
Éditeur: Association for Computational Linguistics
DOI: 10.18653/V1/2024.EMNLP-MAIN.1159

From text to knowledge graph: Comparing relation extraction methods in a practical context

Auteurs: Bakker, R. M., & Di Scala, D. L.
Publié dans: First International Workshop on Generative Neuro-Symbolic AI, co-located with ESWC, Numéro Vol. 4, p. 7, 2024
Éditeur: CEUR-WS

Memory and Bandwidth are All You Need for Fully Sharded Data Parallel (s’ouvre dans une nouvelle fenêtre)

Auteurs: Jiangtao Wang, Jan Ebert, Oleg Filatov, Stefan Kesselheim
Publié dans: ICML'24 Workshop on Advancing Neural Network Training (WANT), 2025
Éditeur: arXiV
DOI: 10.48550/ARXIV.2504.03655

How to Tune a Multilingual Encoder Model for Germanic Languages: A Study of PEFT, Full Fine-Tuning, and Language Adapters

Auteurs: Romina Oji, Jenny Kunz
Publié dans: Proceedings of the Joint 25th Nordic Conference on Computational Linguistics and 11th Baltic Conference on Human Language Technologies (NoDaLiDa/Baltic-HLT 2025), 2025
Éditeur: University of Tartu Library

Do Multilingual Large Language Models Mitigate Stereotype Bias? (s’ouvre dans une nouvelle fenêtre)

Auteurs: Shangrui Nie, Michael Fromm, Charles Welch, Rebekka Görge, Akbar Karimi, Joan Plepi, Nazia Mowmita, Nicolas Flores-Herr, Mehdi Ali, Lucie Flek
Publié dans: 2024
Éditeur: Association for Computational Linguistics
DOI: 10.18653/V1/2024.C3NLP-1.6

Train More Parameters But Mind Their Placement: Insights into Language Adaptation with PEFT

Auteurs: Jenny Kunz
Publié dans: Proceedings of the Joint 25th Nordic Conference on Computational Linguistics and 11th Baltic Conference on Human Language Technologies (NoDaLiDa/Baltic-HLT 2025), 2025
Éditeur: University of Tartu Library

The Impact of Language Adapters in Cross-Lingual Transfer for NLU

Auteurs: Jenny Kunz, Oskar Holmström
Publié dans: Proceedings of the 1st Workshop on Modular and Open Multilingual NLP (MOOMIN 2024), 2024
Éditeur: Association for Computational Linguistics

Encoder vs Decoder: Comparative Analysis of Encoder and Decoder Language Models on Multilingual NLU Tasks

Auteurs: Dan Saattrup Nielsen, Kenneth Enevoldsen, Peter Schneider-Kamp
Publié dans: 2025
Éditeur: Proceedings of the Joint 25th Nordic Conference on Computational Linguistics and 11th Baltic Conference on Human Language Technologies (NoDaLiDa/Baltic-HLT 2025)

Ontology Learning from Text: an Analysis on LLM Performance

Auteurs: Bakker, R. M., Di Scala, D. L., & de Boer, M. H. T.
Publié dans: Proceedings of the 3rd NLP4KGC International Workshop on Natural Language Processing for Knowledge Graph Creation, colocated with Semantics, Numéro pp. 17-19, 2024
Éditeur: CEUR-WS

Recherche de données OpenAIRE...

Une erreur s’est produite lors de la recherche de données OpenAIRE

Aucun résultat disponible

Mon livret 0 0