Descripción del proyecto
Uso de métodos analíticos extremos en la asistencia sanitaria
Los volúmenes a exaescala de diversos datos sanitarios destacan por su tamaño (su generación en 2020 superó los 2 000 EB), heterogeneidad (múltiples medios y métodos de adquisición), información (informes de diagnóstico) y valor comercial. La naturaleza supervisada de los modelos de aprendizaje profundo requiere grandes volúmenes de datos etiquetados y anotados, lo que evita que los modelos extraigan información y valor. El proyecto EXA MODE, financiado con fondos europeos, se propone permitir extraer información de forma fácil, rápida y con una baja supervisión de datos heterogéneos a exaescala, lo que reduce la implicación de personas. Los objetivos del proyecto incluyen el desarrollo y la presentación de nuevos métodos y herramientas para análisis a escala extrema para realizar predicciones precisas, lo que respaldará la toma de decisiones por parte de la industria y los hospitales. El «middleware» semántico multimodal ofrecerá una gestión y un análisis más fáciles y rápidos de datos heterogéneos, lo que mejorará las arquitecturas para sistemas distribuidos complejos y aumentará la velocidad del rendimiento y el acceso a los datos.
Objetivo
Exascale volumes of diverse data from distributed sources are continuously produced. Healthcare data stand out in the size produced (production 2020 >2000 exabytes), heterogeneity (many media, acquisition methods), included knowledge (e.g. diagnostic reports) and commercial value. The supervised nature of deep learning models requires large labeled, annotated data, which precludes models to extract knowledge and value. EXA MODE solves this by allowing easy & fast, weakly supervised knowledge discovery of exascale heterogeneous data provided by the partners, limiting human interaction. Its objectives include the development and release of extreme analytic methods and tools, that are adopted in decision making by industry and hospitals. Deep learning naturally allows to build semantic representations of entities and relations in multimodal data. Knowledge discovery is performed via document-level semantic networks in text and the extraction of homogeneous features in heterogeneous images. The results are fused, aligned to medical ontologies, visualized and refined. Knowledge is then applied using a semantic middleware to compress, segment and classify images and it is exploited in decision support and semantic knowledge management prototypes. EXA MODE is relevant to ICT12 in several aspects: 1) Challenge: it extracts knowledge and value from heterogeneous quickly increasing data volumes. 2) Scope: the consortium develops and releases new methods and concepts for extreme scale analytics to accelerate deep analysis also via data compression, for precise predictions, support decision making and visualize multi-modal knowledge. 3) Impact: the multi-modal/media semantic middleware makes heterogeneous data management & analysis easier & faster, it improves architectures for complex distributed systems with better tools increasing speed of data throughput and access, as resulting from tests in extreme analysis by industry and in hospitals.
Ámbito científico
Palabras clave
Programa(s)
Convocatoria de propuestas
Consulte otros proyectos de esta convocatoriaConvocatoria de subcontratación
H2020-ICT-2018-2
Régimen de financiación
RIA - Research and Innovation actionCoordinador
2800 Delemont
Suiza