Skip to main content
Aller à la page d’accueil de la Commission européenne (s’ouvre dans une nouvelle fenêtre)
français français
CORDIS - Résultats de la recherche de l’UE
CORDIS
CORDIS Web 30th anniversary CORDIS Web 30th anniversary

SAFE AND EXPLAINABLE CRITICAL EMBEDDED SYSTEMS BASED ON AI

Description du projet

Rendre l’intelligence artificielle explicable et traçable pour les systèmes autonomes critiques

L’intelligence artificielle (IA) nécessaire à la réalisation de tâches autonomes complexes, comme les voitures à conduite autonome, dépend de techniques d’apprentissage profond. Cependant, les exigences de sécurité impliquent que ces techniques soient également explicables et traçables. Le projet SAFEXPLAIN, financé par l’UE, prévoit de résoudre ce problème en concevant de nouvelles solutions d’apprentissage profond explicables, avec une traçabilité de bout en bout, conformes aux exigences de sécurité fonctionnelle pour les systèmes autonomes critiques basés sur l’IA, et conservant des performances élevées. Les travaux du projet incluront de nouvelles approches pour expliquer pourquoi les prédictions sont dignes de confiance et de nouvelles stratégies pour démontrer le bon fonctionnement. Ce projet, qui repose sur une collaboration entre trois éminents centres de recherche européens, mènera trois études de cas dans les secteurs automobile, spatial et ferroviaire.

Objectif

Deep Learning (DL) techniques are key for most future advanced software functions in Critical Autonomous AI-based Systems (CAIS) in cars, trains and satellites. Hence, those CAIS industries depend on their ability to design, implement, qualify, and certify DL-based software products under bounded effort/cost.
There is a fundamental gap between Functional Safety (FUSA) requirements of CAIS and the nature of DL solutions needed to satisfy those requirements. The lack of transparency (mainly explainability and traceability), and the data-dependent and stochastic nature of DL software clash against the need for deterministic, verifiable and pass/fail test-based software solutions for CAIS.
SAFEXPLAIN tackles this challenge by providing a novel and flexible approach to allow the certification – hence adoption – of DL-based solutions in CAIS by (1) architecting transparent DL solutions that allow explaining why they satisfy FUSA requirements, with end-to-end traceability, with specific approaches to explain whether predictions can be trusted, and with strategies to reach (and prove) correct operation, in accordance with certification standards. SAFEXPLAIN will also (2) devise alternative and increasingly complex FUSA design safety patterns for different DL usage levels (i.e. with varying safety requirements) that will allow using DL in any CAIS functionality, for varying levels of criticality and fault tolerance.
SAFEXPLAIN brings together a highly skilled and complementary consortium to successfully tackle this endeavor including 3 research centers, RISE (AI expertise), IKR (FUSA expertise), and BSC (platform expertise); and 3 CAIS case studies, automotive (NAV), space (AIKO), and railway (IKR). SAFEXPLAIN DL-based solutions are assessed in an industrial toolset (EXI). Finally, to prove that transparency levels are fully compliant with FUSA, solutions are reviewed by internal certification experts (EXI), and external ones subcontracted for an independent assessment.

Champ scientifique (EuroSciVoc)

CORDIS classe les projets avec EuroSciVoc, une taxonomie multilingue des domaines scientifiques, grâce à un processus semi-automatique basé sur des techniques TLN. Voir: https://op.europa.eu/en/web/eu-vocabularies/euroscivoc.

Vous devez vous identifier ou vous inscrire pour utiliser cette fonction

Coordinateur

BARCELONA SUPERCOMPUTING CENTER CENTRO NACIONAL DE SUPERCOMPUTACION
Contribution nette de l'UE
€ 809 375,00
Coût total
€ 809 375,00

Participants (5)