European Commission logo
français français
CORDIS - Résultats de la recherche de l’UE
CORDIS

Security and Privacy Accountable Technology Innovations, Algorithms, and machine Learning

Description du projet

Vers une gouvernance et un cadre réglementaire fiables pour la sécurité pilotée par l’IA en Europe

L’expression «boîte noire de l’IA» désigne les systèmes d’IA qui reçoivent des entrées et produisent des sorties sans que l’utilisateur final ne les comprenne. Les entrées et les sorties ne pouvant être facilement vues et comprises, cela peut entraîner des problèmes intra- et inter-organisationnels. Le projet SPATIAL, financé par l’UE, entend relever les défis de la boîte noire de l’IA et de la gestion des données dans le domaine de la cybersécurité. Pour ce faire, il concevra et développera des mesures de responsabilité résilientes, des méthodes de préservation de la vie privée, des outils de vérification et un cadre de système qui ouvriront la voie à une IA fiable dans les solutions de sécurité. Le projet vise en outre à contribuer à la création de compétences et d’une formation appropriées pour une IA fiable dans le domaine de la cybersécurité, tant sur le plan sociétal que technique.

Objectif

The SPATIAL (Security and Privacy Accountable Technology Innovations, Algorithms, and machine Learning) project seeks to address the challenges of black-box AI and data management in cybersecurity by designing and developing resilient accountable metrics, privacy-preserving methods, verification tools and system framework that will serve as critical building blocks to achieve trustworthy AI in security solutions. The main objectives include: 1) To develop systematic verification and validation software/hardware mechanisms that ensure AI transparency and explainability in security solution development; 2) To develop system solutions, platforms, and standards that enhance resilience in the training and deployment of AI in decentralized, uncontrolled environments; 3) To define effective and practical adoption and adaptation guidelines to ensure streamlined implementation of trustworthy AI solutions; 4) To create an educational modules that provide technical skills, ethical and socio-legal awareness to current and future AI engineers/developers to ensure the accountable development of security solutions; 5) To develop a communication framework that enables accountable and transparent understanding of AI applications for users, software developers and security service providers. Besides technical measures, SPATIAL project aims to facilitate generating appropriate skills and education for AI security to strike a balance among technological complexity, societal complexity and value conflicts in AI deployment. The project covers data privacy, resilience engineering, and legal-ethical accountability that are in line with EU top agenda to achieve trustworthy AI. In addition, the work carried out in SPATIAL on both social and technical aspects will serve as a stepping stone to establish an appropriate governance and regulatory framework for AI-driven security in Europe.

Appel à propositions

H2020-SU-DS-2018-2019-2020

Voir d’autres projets de cet appel

Sous appel

H2020-SU-DS-2020

Coordinateur

TECHNISCHE UNIVERSITEIT DELFT
Contribution nette de l'UE
€ 833 500,00
Adresse
STEVINWEG 1
2628 CN Delft
Pays-Bas

Voir sur la carte

Région
West-Nederland Zuid-Holland Delft en Westland
Type d’activité
Higher or Secondary Education Establishments
Liens
Coût total
€ 833 500,00

Participants (12)