European Commission logo
italiano italiano
CORDIS - Risultati della ricerca dell’UE
CORDIS

Efficient Explainable Learning on Knowledge Graphs

Descrizione del progetto

Grafici della conoscenza migliorati sono fondamentali per lavorare con i dati dell’intelligenza artificiale in modo più efficiente

L’intelligenza artificiale spiegabile è un insieme di strumenti e processi che consentono agli esseri umani di comprendere e interpretare previsioni prodotte da modelli di apprendimento automatico. I grafici della conoscenza, insieme all’intelligenza artificiale, possono migliorare l’accuratezza e l’affidabilità dei risultati dei modelli. Tuttavia, gli attuali grafici della conoscenza sono limitati nella loro capacità di mappare dati complessi e interconnessi su larga scala. Basandosi sui recenti progressi nella rappresentazione della conoscenza e nell’intelligenza artificiale, il progetto ENEXA, finanziato dall’UE, svilupperà algoritmi di apprendimento automatico scalabili, trasparenti e spiegabili per i grafici della conoscenza. L’attenzione si concentrerà sull’ideazione di tecniche di spiegabilità incentrate sull’uomo basate sulla co-costruzione, in cui esseri umani e macchine avviano una conversazione per produrre congiuntamente spiegazioni comprensibili all’uomo. Per convalidare gli approcci proposti, i ricercatori tratteranno tre casi d’uso: servizi software aziendali, intelligenza geospaziale e comunicazioni di marchi basate sui dati.

Obiettivo

Explainable Artificial Intelligence (AI) is key to achieving a human-centred and ethical development of digital and industrial solutions. ENEXA builds upon novel and promising results in knowledge representation and machine learning to develop scalable, transparent and explainable machine learning algorithms for knowledge graphs. The project focuses on knowledge graphs because of their critical role as enabler of new solutions across domains and industries in Europe. Some of the existing machine learning approaches for knowledge graphs are known to already provide guarantees with respect to their completeness and correctness. However, they are still impossible or impractical to deploy on real-world data due to the scale, incompleteness and inconsistency of knowledge graphs in the wild. We devise approaches that maintain formal guarantees pertaining to completeness and correctness while being able to exploit different representations of knowledge graphs in a concurrent fashion. With our new methods, we plan to achieve significant advances in the efficiency and scalability of machine learning, especially on knowledge graphs. A supplementary innovation of ENEXA lies in its approach to explainability. Here, we focus on devising human-centred explainability techniques based on the concept of co-construction, where human and machine enter a conversation to jointly produce human-understandable explanations. Three use cases on business software services, geospatial intelligence and data-driven brand communication have been chosen to apply and validate this new approach. Given their expected growth rates, these sectors will play a major role in future European data value chains.

Coordinatore

UNIVERSITAET PADERBORN
Contribution nette de l'UE
€ 1 279 625,00
Indirizzo
WARBURGER STRASSE 100
33098 Paderborn
Germania

Mostra sulla mappa

Regione
Nordrhein-Westfalen Detmold Paderborn
Tipo di attività
Higher or Secondary Education Establishments
Collegamenti
Costo totale
€ 1 279 625,00

Partecipanti (5)