CORDIS - Forschungsergebnisse der EU
CORDIS

Interactive Natural Language Technology for Explainable Artificial Intelligence

Projektbeschreibung

Wie Maschinen leichter ihre Entscheidungen erklären können

Gemäß den Verordnungen der Europäischen Union haben alle Bürgerinnen und Bürger das Recht auf Informationen und Erläuterungen zu allen sie betreffenden Entscheidungen. Das gilt auch für die Entscheidungen, die von Systemen mit künstlicher Intelligenz getroffen werden. Letztlich bedeutet das, dass Computersysteme so funktionieren sollten, wie es von ihnen erwartet wird, und transparente Erklärungen und Gründe für ihre Entscheidungen liefern können sollten. Der Fachbegriff dafür lautet „erklärbare künstliche Intelligenz“ (Explainable Artificial Intelligence, XAI). Das EU-finanzierte Projekt NL4XAI wird elf Nachwuchsforscherinnen und -forscher darin ausbilden, ein unterstützendes System für erklärbare künstliche Intelligenz zu schaffen, anhand dessen es sein Wissen in eine natürliche Sprache übersetzen kann. Das Projekt wird auf die Potenziale der Erzeugung und Verarbeitung natürlicher Sprache, der Argumentationstechnologie und interaktiven Technologie für erklärbare künstliche Intelligenz zurückgreifen. Das Ergebnis soll getestet und die Erkenntnisse der quelloffenen Programmierumgebung für erklärbare künstliche Intelligenz hinzugefügt werden.

Ziel

According to Polanyi's paradox, humans know more than they can explain, mainly due to the huge amount of implicit knowledge they unconsciously acquire trough culture, heritage, etc. The same applies for Artificial Intelligence (AI) systems mainly learnt automatically from data. However, in accordance with EU laws, humans have a right to explanation of decisions affecting them, no matter who (or what AI system) makes such decision. NL4XAI will train 11 creative, entrepreneurial and innovative early-stage researchers (ESRs), who will face the challenge of making AI self-explanatory and thus contributing to translate knowledge into products and services for economic and social benefit, with the support of Explainable AI (XAI) systems. Moreover, the focus of NL4XAI is in the automatic generation of interactive explanations in natural language (NL), as humans naturally do, and as a complement to visualization tools. As a result, ESRs are expected to leverage the usage of AI models and techniques even by non-expert users. Namely, all their developments will be validated by humans in specific use cases, and main outcomes publicly reported and integrated into a common open source software framework for XAI that will be accessible to all the European citizens. In addition, those results to be exploited commercially will be protected through licenses or patents. It is worthy to note that we have selected some of the most prominent European researchers (from both academy and industry) in each of the related fundamental topics and created a joint high quality training program that can be seen as a pyramid with the main research objective (designing and building XAI models) on top. It will be achieved as result of jointly addressing the research objectives in the pyramid base (NL generation and processing for XAI; Argumentation Technology for XAI; Interactive Interfaces for XAI). ESRs are also to be trained in Ethical and Legal issues, as well as in transversal skills.

Koordinator

UNIVERSIDAD DE SANTIAGO DE COMPOSTELA
Netto-EU-Beitrag
€ 494 840,18
Adresse
COLEXIO DE SAN XEROME PRAZA DO OBRADOIRO S/N
15782 Santiago De Compostela
Spanien

Auf der Karte ansehen

Region
Noroeste Galicia A Coruña
Aktivitätstyp
Higher or Secondary Education Establishments
Links
Gesamtkosten
€ 494 840,18

Beteiligte (10)