Descripción del proyecto
Una solución para entrenar de forma sostenible modelos de lenguaje de código
A medida que los grandes modelos de lenguaje (LLM, por sus siglas en inglés) transforman la ingeniería del «software», su consumo energético se convierte en un problema acuciante. Dichos modelos, entrenados en vastos conjuntos de datos de plataformas como GitHub, ofrecen una ayuda inestimable, pero a un coste medioambiental significativo. El gran volumen de datos necesarios genera importantes emisiones de CO2, lo cual pone en entredicho la sostenibilidad de los LLM. Con el apoyo de las acciones Marie Skłodowska-Curie, el equipo del proyecto condenSE propone un método para reducir los datos utilizados en el entrenamiento de modelos de lenguaje de código. En concreto, la reducción pretende disminuir el consumo de energía sin comprometer la eficacia. Su método innovador está en consonancia con los objetivos del Pacto Verde Europeo y los Objetivos de Desarrollo Sostenible de las Naciones Unidas. La solución del proyecto es un paso hacia un futuro tecnológico más ecológico.
Objetivo
"Large language models (LLMs) have gained widespread attention and user adoption. These models, when trained on source code from platforms like GitHub, acquire a deep understanding of both the semantic and syntactic structures of code (i.e. code language models or CLMs). This understanding has paved the way for significant advancements in software engineering, offering developers valuable assistance in labor-intensive tasks like bug fixing and code writing. While CLMs offer tremendous assistance in software engineering tasks, their massive data requirements result in substantial energy consumption and CO2 emissions.
This proposal challenges the conventional wisdom that ""more data is better"" and instead advocates for a refined approach to data in the training of CLMs. We propose that by intentionally decreasing training data volume while simultaneously enhancing data quality through data refinement techniques, we can reduce energy consumption while maintaining or even improving performance on software engineering tasks. The condenSE project represents a pioneering effort to advance sustainable training practices for CLMs. Unlike existing methods, which are often non-systematic or limited to natural languages, condenSE promises a comprehensive approach to achieve sustainability via data refinement for CLMs.
This initiative is well-aligned with the EU Green Deal initiative and UN Sustainable Development Goals, and the increasing attention for LLMs and CLMs means that now is the right time to address their sustainability. The proposal's potential for success is further strengthened by the host institution's international standing, providing a wide range of collaborative opportunities, as well as by the complementary expertise of the applicant and supervisor, spanning the fields of software engineering, machine learning, dataset creation, and language model application."
Ámbito científico (EuroSciVoc)
CORDIS clasifica los proyectos con EuroSciVoc, una taxonomía plurilingüe de ámbitos científicos, mediante un proceso semiautomático basado en técnicas de procesamiento del lenguaje natural.
CORDIS clasifica los proyectos con EuroSciVoc, una taxonomía plurilingüe de ámbitos científicos, mediante un proceso semiautomático basado en técnicas de procesamiento del lenguaje natural.
Para utilizar esta función, debe iniciar sesión o registrarse
Palabras clave
Programa(s)
- HORIZON.1.2 - Marie Skłodowska-Curie Actions (MSCA) Main Programme
Régimen de financiación
HORIZON-TMA-MSCA-PF-EF - HORIZON TMA MSCA Postdoctoral Fellowships - European FellowshipsCoordinador
0164 Oslo
Noruega