European Commission logo
français français
CORDIS - Résultats de la recherche de l’UE
CORDIS

Efficient Explainable Learning on Knowledge Graphs

Description du projet

Des graphes de connaissances améliorés sont essentiels pour tirer un meilleur parti des données d’intelligence artificielle

L’intelligence artificielle explicable est un ensemble d’outils et de processus qui permettent aux humains de comprendre et d’interpréter les prévisions formulées par les modèles d’apprentissage automatique. Les graphes de connaissances, conjugués à l’intelligence artificielle, peuvent améliorer la précision et la fiabilité des résultats des modèles. La capacité des graphes de connaissances actuels à effectuer la cartographie à grande échelle de données complexes et interconnectées est toutefois limitée. S’appuyant sur les récentes avancées dans le domaine de la représentation des connaissances et de l’intelligence artificielle, le projet ENEXA, financé par l’UE, développera des algorithmes d’apprentissage automatique évolutifs, transparents et explicables destinés aux graphes de connaissances. Il se concentrera sur la conception de techniques d’explicabilité centrées sur l’humain et fondées sur la coconstruction, où humains et machines engagent une conversation pour produire conjointement des explications compréhensibles pour l’homme. Afin de valider les approches proposées, les chercheurs examineront trois cas d’utilisation: les services de logiciels pour entreprise, l’intelligence géospatiale et les communications de marque axées sur les données.

Objectif

Explainable Artificial Intelligence (AI) is key to achieving a human-centred and ethical development of digital and industrial solutions. ENEXA builds upon novel and promising results in knowledge representation and machine learning to develop scalable, transparent and explainable machine learning algorithms for knowledge graphs. The project focuses on knowledge graphs because of their critical role as enabler of new solutions across domains and industries in Europe. Some of the existing machine learning approaches for knowledge graphs are known to already provide guarantees with respect to their completeness and correctness. However, they are still impossible or impractical to deploy on real-world data due to the scale, incompleteness and inconsistency of knowledge graphs in the wild. We devise approaches that maintain formal guarantees pertaining to completeness and correctness while being able to exploit different representations of knowledge graphs in a concurrent fashion. With our new methods, we plan to achieve significant advances in the efficiency and scalability of machine learning, especially on knowledge graphs. A supplementary innovation of ENEXA lies in its approach to explainability. Here, we focus on devising human-centred explainability techniques based on the concept of co-construction, where human and machine enter a conversation to jointly produce human-understandable explanations. Three use cases on business software services, geospatial intelligence and data-driven brand communication have been chosen to apply and validate this new approach. Given their expected growth rates, these sectors will play a major role in future European data value chains.

Coordinateur

UNIVERSITAET PADERBORN
Contribution nette de l'UE
€ 1 279 625,00
Adresse
WARBURGER STRASSE 100
33098 Paderborn
Allemagne

Voir sur la carte

Région
Nordrhein-Westfalen Detmold Paderborn
Type d’activité
Higher or Secondary Education Establishments
Liens
Coût total
€ 1 279 625,00

Participants (5)