Descrizione del progetto
Rendere l’IA spiegabile e tracciabile per i sistemi autonomi critici
L’intelligenza artificiale (IA) necessaria per svolgere compiti autonomi complessi come le auto a guida autonoma si basa sulle tecniche di apprendimento profondo. Tuttavia, i requisiti di sicurezza impongono che tali tecniche siano anche spiegabili e tracciabili. Il progetto SAFEXPLAIN, finanziato dall’UE, intende risolvere questo problema creando nuove soluzioni di apprendimento profondo spiegabili con tracciabilità end-to-end che soddisfino i requisiti di sicurezza funzionale per i sistemi autonomi critici basati sull’intelligenza artificiale, mantenendo al contempo prestazioni elevate. Il lavoro del progetto includerà nuovi approcci per spiegare se le previsioni possono essere attendibili e nuove strategie per dimostrare la correttezza delle operazioni. Il progetto consiste in una collaborazione tra tre eminenti centri di ricerca europei e condurrà tre casi di studio nei settori automobilistico, spaziale e ferroviario.
Obiettivo
Deep Learning (DL) techniques are key for most future advanced software functions in Critical Autonomous AI-based Systems (CAIS) in cars, trains and satellites. Hence, those CAIS industries depend on their ability to design, implement, qualify, and certify DL-based software products under bounded effort/cost.
There is a fundamental gap between Functional Safety (FUSA) requirements of CAIS and the nature of DL solutions needed to satisfy those requirements. The lack of transparency (mainly explainability and traceability), and the data-dependent and stochastic nature of DL software clash against the need for deterministic, verifiable and pass/fail test-based software solutions for CAIS.
SAFEXPLAIN tackles this challenge by providing a novel and flexible approach to allow the certification – hence adoption – of DL-based solutions in CAIS by (1) architecting transparent DL solutions that allow explaining why they satisfy FUSA requirements, with end-to-end traceability, with specific approaches to explain whether predictions can be trusted, and with strategies to reach (and prove) correct operation, in accordance with certification standards. SAFEXPLAIN will also (2) devise alternative and increasingly complex FUSA design safety patterns for different DL usage levels (i.e. with varying safety requirements) that will allow using DL in any CAIS functionality, for varying levels of criticality and fault tolerance.
SAFEXPLAIN brings together a highly skilled and complementary consortium to successfully tackle this endeavor including 3 research centers, RISE (AI expertise), IKR (FUSA expertise), and BSC (platform expertise); and 3 CAIS case studies, automotive (NAV), space (AIKO), and railway (IKR). SAFEXPLAIN DL-based solutions are assessed in an industrial toolset (EXI). Finally, to prove that transparency levels are fully compliant with FUSA, solutions are reviewed by internal certification experts (EXI), and external ones subcontracted for an independent assessment.
Campo scientifico (EuroSciVoc)
CORDIS classifica i progetti con EuroSciVoc, una tassonomia multilingue dei campi scientifici, attraverso un processo semi-automatico basato su tecniche NLP. Cfr.: https://op.europa.eu/en/web/eu-vocabularies/euroscivoc.
CORDIS classifica i progetti con EuroSciVoc, una tassonomia multilingue dei campi scientifici, attraverso un processo semi-automatico basato su tecniche NLP. Cfr.: https://op.europa.eu/en/web/eu-vocabularies/euroscivoc.
- scienze naturaliinformatica e scienze dell'informazionesoftware
- ingegneria e tecnologiaingegneria meccanicaingegneria dei veicoliingegneria aerospazialetecnologia satellitare
È necessario effettuare l’accesso o registrarsi per utilizzare questa funzione
Siamo spiacenti… si è verificato un errore inatteso durante l’esecuzione.
È necessario essere autenticati. La sessione potrebbe essere scaduta.
Grazie per il tuo feedback. Riceverai presto un'e-mail di conferma dell'invio. Se hai scelto di ricevere una notifica sullo stato della segnalazione, sarai contattato anche quando lo stato della segnalazione cambierà.
Parole chiave
Programma(i)
Invito a presentare proposte
(si apre in una nuova finestra) HORIZON-CL4-2021-HUMAN-01
Vedi altri progetti per questo bandoMeccanismo di finanziamento
HORIZON-RIA -Coordinatore
08034 Barcelona
Spagna