European Commission logo
polski polski
CORDIS - Wyniki badań wspieranych przez UE
CORDIS

Integrated Data Analysis Pipelines for Large-Scale Data Management, HPC, and Machine Learning

Opis projektu

Nowe systemy dla współczesnych rozwiązań opartych na danych

Infrastruktura do zarządzania danymi rozwija się w karkołomnym tempie. W celu uzyskiwania precyzyjnych prognoz nowoczesne rozwiązania oparte na danych wykorzystują duże i różnorodne zbiory danych, by na ich podstawie ustalać interesujące wzorce. Zajmujący się tą dziedziną eksperci budują również w tym celu zaawansowane modele uczenia maszynowego. W wyniku tych działań powstają nowe systemy oparte na tradycyjnych obliczeniach o dużej wydajności oraz architekturze klastrów sprzętowych. Ponadto coraz częściej obserwujemy trend tworzenia złożonych procesów przetwarzania i analizy danych, wykorzystujących zróżnicowane systemy. Uczestnicy finansowanego ze środków Unii Europejskiej projektu DAPHNE zamierzają opracować otwartą i możliwą do rozszerzenia infrastrukturę systemową na potrzeby zintegrowanych procesów analizy danych. Zespół zbuduje w tym celu referencyjną implementację abstrakcji językowych w postaci API oraz języka specyficznego dla danej domeny, a także techniki pośredniej reprezentacji, kompilacji i wykonywania.

Cel

Modern data-driven applications leverage large, heterogeneous data collections to find interesting patterns, and build robust machine learning (ML) models for accurate predictions. Large data sizes and advanced analytics spurred the development and adoption of data-parallel computation frameworks like Apache Spark or Flink as well as distributed ML systems like MLlib, TensorFlow, or PyTorch. A key observation is that these new systems share many techniques with traditional high-performance computing (HPC), and the architecture of underlying HW clusters converges. Yet, the programming paradigms, cluster resource management, as well as data formats and representations differ substantially across data management, HPC, and ML software stacks. There is a trend though, toward complex data analysis pipelines that combine these different systems. Examples are workflows of distributed data pre-processing, tuned HPC libraries, and dedicated ML systems, but also HPC applications that leverage ML models for more cost-effective simulation. Major obstacles are (1) limited development productivity for integrated analysis pipelines due to different programming models, and separated cluster environments, (2) unnecessary data movement overhead and underutilization due to separate, statically provisioned clusters, and (3) lack of a common system infrastructure with good interoperability. For these reasons, DAPHNE’s overall objective is the definition of an open and extensible systems infrastructure for integrated data analysis pipelines. We aim at building a reference implementation of language abstractions (i.e. APIs and a domain-specific language), an intermediate representation, as well as compilation and runtime techniques with support for integrating and scheduling heterogeneous accelerator and storage devices. A variety of real-world, high-impact use cases, datasets, and a new benchmark will be used for qualitative and quantitative analysis compared to state-of-the-art.

Zaproszenie do składania wniosków

H2020-ICT-2018-20

Zobacz inne projekty w ramach tego zaproszenia

Szczegółowe działanie

H2020-ICT-2020-1

Koordynator

KNOW-CENTER GMBH RESEARCH CENTER FOR DATA-DRIVEN BUSINESS & BIG DATA ANALYTICS
Wkład UE netto
€ 737 732,50
Adres
SANDGASSE 36/4
8010 Graz
Austria

Zobacz na mapie

Region
Südösterreich Steiermark Graz
Rodzaj działalności
Research Organisations
Linki
Koszt całkowity
€ 737 732,50

Uczestnicy (13)