Projektbeschreibung
Die Entwicklung von Lösungen Hand in Hand mit künstlicher Intelligenz
Es ist unmöglich, die inneren Vorgänge in bestehenden Modellen auf Basis von künstlicher Intelligenz zu verfolgen, daher ist es schwierig, sie zu interpretieren und folglich auch ihnen zu vertrauen. Praktische, real umsetzbare Lösungen dieses Problems dürfen nicht nur aus der Welt der Computerwissenschaften stammen. Das EU-finanzierte Projekt TRUST-AI beteiligt die menschliche Intelligenz an der Suche nach Lösungen. Es wird symbolische Modelle und Lernalgorithmen verwenden, deren Aufbau nachvollziehbar ist, und die einen menschenorientierten, „geführten empirischen“ Lernvorgang verfolgen, der die Kognition miteinbezieht. Das Projekt wird TRUST, eine vertrauenswürdige und kollaborative Plattform der künstlichen Intelligenz, entwickeln, ihre Eignung zur Bewältigung prädiktiver und präskriptiver Probleme sicherstellen und ein Innovationsökosystem schaffen, in dem die akademische Welt und Unternehmen sowohl gemeinsam als auch unabhängig voneinander an Lösungen arbeiten können.
Ziel
Artificial intelligence is single-handedly changing decision-making at different levels and sectors in often unpredictable and uncontrolled ways. Due to their black-box nature, existing models are difficult to interpret, and hence trust. Explainable AI is an emergent field, but, to ensure no loss of predictive power, many of the proposed approaches just build local explanators on top of powerful black-box models. To change this paradigm and create an equally powerful, yet fully explainable model, we need to be able to learn its structure. However, searching for both structure and parameters is extremely challenging. Moreover, there is the risk that the necessary variables and operators are not provided to the algorithm, which leads to more complex and less general models.
It is clear that state-of-the-art, yet practical, real-world solutions cannot come only from the computer science world. Our approach therefore consists in involving human intelligence in the discovery process, resulting in AI and humans working in concert to find better solutions (i.e. models that are effective, comprehensible and generalisable). This is made possible by employing ‘explainable-by-design’ symbolic models and learning algorithms, and by adopting a human-centric, ‘guided empirical’ learning process that integrates cognition, machine learning and human-machine interaction, ultimately resulting in a Transparent, Reliable and Unbiased Smart Tool.
This proposal aims to design TRUST, ensure its adequacy to tackle predictive and prescriptive problems, and create an innovation ecosystem around it, whereby academia and companies can further exploit it, independently or in collaboration. The proposed ‘human-guided symbolic learning’ should be the next ‘go-to paradigm’ for a wide range of sectors, where human agency / accountability is essential. These include healthcare, retail, energy, banking, insurance and public administration (of which the first three are explored in this project).
Wissenschaftliches Gebiet
Schlüsselbegriffe
Programm/Programme
Aufforderung zur Vorschlagseinreichung
Andere Projekte für diesen Aufruf anzeigenUnterauftrag
H2020-EIC-FETPROACT-2019
Finanzierungsplan
RIA - Research and Innovation actionKoordinator
4200 465 Porto
Portugal