Skip to main content
European Commission logo
italiano italiano
CORDIS - Risultati della ricerca dell’UE
CORDIS
CORDIS Web 30th anniversary CORDIS Web 30th anniversary

AI-ASsisted cybersecurity platform empowering SMEs to defend against adversarial AI attacks

Descrizione del progetto

Una piattaforma di sicurezza innovativa contro gli attacchi di intelligenza artificiale avversaria

I sistemi di intelligenza artificiale (IA) trovano applicazione in diversi settori tecnici; tuttavia, la loro adozione espone i primi utenti a vulnerabilità di vario tipo, come corruzione dei dati, furto di modelli e campioni avversari. La mancanza di capacità tattiche e strategiche per difendere e identificare gli attacchi a questi sistemi basati sull’intelligenza artificiale, nonché per rispondere agli stessi, è causa di significative preoccupazioni. Gli avversari sfruttano questa vulnerabilità creando una nuova superficie di attacco che colpisce nello specifico i sistemi di apprendimento automatico e apprendimento profondo, ponendo una minaccia sostanziale per settori critici come la finanza e la sanità. Per affrontare queste sfide, il progetto AIAS, finanziato dal programma di azioni Marie Skłodowska-Curie, si propone di condurre ricerche sull’IA avversaria e di sviluppare un’innovativa piattaforma di sicurezza per le organizzazioni. Questa soluzione impiegherà metodi di difesa dell’IA avversaria, meccanismi di inganno e soluzioni di IA spiegabile per rafforzare le capacità dei team addetti alla sicurezza, incrementando la resilienza dei sistemi di IA ai potenziali attacchi.

Obiettivo

In recent years, the digital environment and digital transformation of enterprises of all sizes have made AI-based solutions vital to mission-critical. AI-based systems are used in every technical field, including smart cities, self-driving cars, autonomous ships, 5G/6G, and next-generation intrusion detection systems. The industry's significant exploitation of AI systems exposes early adopters to undiscovered vulnerabilities such as data corruption, model theft, and adversarial samples because of their lack of tactical and strategic capabilities to defend, identify, and respond to attacks on their AI-based systems. Adversaries have created a new attack surface to exploit AI-system vulnerabilities, targeting Machine Learning (ML) and Deep Learning (DL) systems to impair their functionality and performance. Adversarial AI is a new threat that might have serious effects in crucial areas like finance and healthcare, where AI is widely used. AIAS project aims to perform in-depth research on adversarial AI to design and develop an innovative AI-based security platform for the protection of AI systems and AI-based operations of organisations, relying on Adversarial AI defence methods (e.g. adversarial training, adversarial AI attack detection), deception mechanisms (e.g. high-interaction honeypots, digital twins, virtual personas) as well as on explainable AI solutions (XAI) that empower security teams to materialise the concept of “AI for Cybersecurity” (i.e. AI/ML-based tools to enhance the detection performance, defence and respond to attacks) and “Cybersecurity for AI” (i.e. protection of AI systems against adversarial AI attacks).

Coordinatore

UNIVERSITY OF PIRAEUS RESEARCH CENTER
Contribution nette de l'UE
€ 230 000,00
Indirizzo
AL. PAPANASTASIOU 91
185 33 PIRAEUS
Grecia

Mostra sulla mappa

Regione
Αττική Aττική Πειραιάς
Tipo di attività
Higher or Secondary Education Establishments
Collegamenti
Costo totale
Nessun dato

Partecipanti (9)