Description du projet
Plateforme de sécurité innovante contre les attaques d’IA adverses
Les systèmes d’IA trouvent des applications dans divers domaines techniques. Cependant, leur adoption expose les premiers utilisateurs à des vulnérabilités, telles que la corruption de données, le vol de modèles et les échantillons contradictoires. Le manque de capacités tactiques et stratégiques pour défendre, identifier et répondre aux attaques de ces systèmes basés sur l’IA est une préoccupation majeure. Les adversaires exploitent cette vulnérabilité, créant ainsi une nouvelle surface offensive qui cible spécifiquement les systèmes d’apprentissage automatique et d’apprentissage profond, ce qui représente une menace importante pour des secteurs critiques tels que la finance et la santé. Pour relever ces défis, le projet AIAS financé par le programme MSCA s’est donné pour objectif de mener des recherches sur l’IA conflictuelle et de développer une plateforme de sécurité innovante pour les organisations. Cette plateforme utilisera des méthodes de défense contre l’IA, des mécanismes de tromperie et des solutions d’IA explicables pour donner aux équipes de sécurité les moyens de renforcer les systèmes d’intelligence artificielle contre les attaques potentielles.
Objectif
In recent years, the digital environment and digital transformation of enterprises of all sizes have made AI-based solutions vital to mission-critical. AI-based systems are used in every technical field, including smart cities, self-driving cars, autonomous ships, 5G/6G, and next-generation intrusion detection systems. The industry's significant exploitation of AI systems exposes early adopters to undiscovered vulnerabilities such as data corruption, model theft, and adversarial samples because of their lack of tactical and strategic capabilities to defend, identify, and respond to attacks on their AI-based systems. Adversaries have created a new attack surface to exploit AI-system vulnerabilities, targeting Machine Learning (ML) and Deep Learning (DL) systems to impair their functionality and performance. Adversarial AI is a new threat that might have serious effects in crucial areas like finance and healthcare, where AI is widely used. AIAS project aims to perform in-depth research on adversarial AI to design and develop an innovative AI-based security platform for the protection of AI systems and AI-based operations of organisations, relying on Adversarial AI defence methods (e.g. adversarial training, adversarial AI attack detection), deception mechanisms (e.g. high-interaction honeypots, digital twins, virtual personas) as well as on explainable AI solutions (XAI) that empower security teams to materialise the concept of “AI for Cybersecurity” (i.e. AI/ML-based tools to enhance the detection performance, defence and respond to attacks) and “Cybersecurity for AI” (i.e. protection of AI systems against adversarial AI attacks).
Champ scientifique (EuroSciVoc)
CORDIS classe les projets avec EuroSciVoc, une taxonomie multilingue des domaines scientifiques, grâce à un processus semi-automatique basé sur des techniques TLN. Voir: https://op.europa.eu/en/web/eu-vocabularies/euroscivoc.
CORDIS classe les projets avec EuroSciVoc, une taxonomie multilingue des domaines scientifiques, grâce à un processus semi-automatique basé sur des techniques TLN. Voir: https://op.europa.eu/en/web/eu-vocabularies/euroscivoc.
Vous devez vous identifier ou vous inscrire pour utiliser cette fonction
Mots‑clés
Programme(s)
- HORIZON.1.2 - Marie Skłodowska-Curie Actions (MSCA) Main Programme
Appel à propositions
(s’ouvre dans une nouvelle fenêtre) HORIZON-MSCA-2022-SE-01
Voir d’autres projets de cet appelRégime de financement
HORIZON-TMA-MSCA-SE - HORIZON TMA MSCA Staff ExchangesCoordinateur
185 33 PIRAEUS
Grèce