European Commission logo
español español
CORDIS - Resultados de investigaciones de la UE
CORDIS

Efficient Explainable Learning on Knowledge Graphs

Descripción del proyecto

La mejora de los grafos de conocimiento es clave para trabajar de forma más eficaz con los datos de la inteligencia artificial

La inteligencia artificial explicable es un conjunto de herramientas y procesos que permiten a las personas entender e interpretar las predicciones realizadas por los modelos de aprendizaje automático. Los grafos de conocimiento, junto con la inteligencia artificial, pueden mejorar la precisión y la fiabilidad de los resultados de los modelos. Sin embargo, los grafos de conocimiento actuales poseen una capacidad limitada para mapear datos complejos e interconectados a escala. Basándose en los recientes avances en la representación del conocimiento y la inteligencia artificial, el equipo del proyecto financiado con fondos europeos ENEXA creará algoritmos de aprendizaje automático escalables, transparentes y explicables para los grafos de conocimiento. Se hará especial hincapié en el diseño de técnicas de explicabilidad centradas en las personas y basadas en la construcción conjunta, en las que personas y máquinas inicien un diálogo para producir conjuntamente explicaciones comprensibles para el ser humano. Para validar los métodos propuestos, los investigadores cubrirán tres casos de uso: servicios de «software» empresarial, inteligencia geoespacial y comunicaciones de marca basadas en datos.

Objetivo

Explainable Artificial Intelligence (AI) is key to achieving a human-centred and ethical development of digital and industrial solutions. ENEXA builds upon novel and promising results in knowledge representation and machine learning to develop scalable, transparent and explainable machine learning algorithms for knowledge graphs. The project focuses on knowledge graphs because of their critical role as enabler of new solutions across domains and industries in Europe. Some of the existing machine learning approaches for knowledge graphs are known to already provide guarantees with respect to their completeness and correctness. However, they are still impossible or impractical to deploy on real-world data due to the scale, incompleteness and inconsistency of knowledge graphs in the wild. We devise approaches that maintain formal guarantees pertaining to completeness and correctness while being able to exploit different representations of knowledge graphs in a concurrent fashion. With our new methods, we plan to achieve significant advances in the efficiency and scalability of machine learning, especially on knowledge graphs. A supplementary innovation of ENEXA lies in its approach to explainability. Here, we focus on devising human-centred explainability techniques based on the concept of co-construction, where human and machine enter a conversation to jointly produce human-understandable explanations. Three use cases on business software services, geospatial intelligence and data-driven brand communication have been chosen to apply and validate this new approach. Given their expected growth rates, these sectors will play a major role in future European data value chains.

Coordinador

UNIVERSITAET PADERBORN
Aportación neta de la UEn
€ 1 279 625,00
Dirección
WARBURGER STRASSE 100
33098 Paderborn
Alemania

Ver en el mapa

Región
Nordrhein-Westfalen Detmold Paderborn
Tipo de actividad
Higher or Secondary Education Establishments
Enlaces
Coste total
€ 1 279 625,00

Participantes (5)