CORDIS - Forschungsergebnisse der EU
CORDIS

AI-ASsisted cybersecurity platform empowering SMEs to defend against adversarial AI attacks

Projektbeschreibung

Innovative Sicherheitsplattform zum Schutz vor feindlichen KI-Angriffen

KI-Systeme finden auf verschiedenen technischen Gebieten Anwendung. Ihre Einführung setzt jedoch die frühzeitig Nutzenden Schwachstellen aus, sodass es zur Verletzung der Integrität der Daten, Modelldiebstahl und feindlicher Einflussnahme kommen kann. Fehlende taktische und strategische Ressourcen zur Verteidigung, Identifizierung und Reaktion auf Angriffe auf diese KI-basierten Systeme stellen ein großes Problem dar. Angreifende nutzen diese Schwachstelle aus und schaffen damit eine neue Angriffsfläche, die speziell auf Maschinenlern- und Deep Learning-Systeme abzielt und eine erhebliche Bedrohung für kritische Bereiche wie das Finanz- und Gesundheitswesen darstellt. Das Ziel des im Rahmen der Marie-Skłodowska-Curie-Maßnahmen finanzierten Projekts AIAS besteht darin, diese Herausforderungen zu bewältigen, wobei diese feindliche KI erforscht und eine innovative Sicherheitsplattform für Einrichtungen entwickelt werden sollen. Auf dieser Plattform werden Verteidigungsmethoden gegen feindliche KI, Manipulationsmechanismen und Lösungen mit erklärbarer KI eingesetzt, um Sicherheitsteams zu unterstützen und KI-Systeme gegenüber potenziellen Angriffen zu stärken.

Ziel

In recent years, the digital environment and digital transformation of enterprises of all sizes have made AI-based solutions vital to mission-critical. AI-based systems are used in every technical field, including smart cities, self-driving cars, autonomous ships, 5G/6G, and next-generation intrusion detection systems. The industry's significant exploitation of AI systems exposes early adopters to undiscovered vulnerabilities such as data corruption, model theft, and adversarial samples because of their lack of tactical and strategic capabilities to defend, identify, and respond to attacks on their AI-based systems. Adversaries have created a new attack surface to exploit AI-system vulnerabilities, targeting Machine Learning (ML) and Deep Learning (DL) systems to impair their functionality and performance. Adversarial AI is a new threat that might have serious effects in crucial areas like finance and healthcare, where AI is widely used. AIAS project aims to perform in-depth research on adversarial AI to design and develop an innovative AI-based security platform for the protection of AI systems and AI-based operations of organisations, relying on Adversarial AI defence methods (e.g. adversarial training, adversarial AI attack detection), deception mechanisms (e.g. high-interaction honeypots, digital twins, virtual personas) as well as on explainable AI solutions (XAI) that empower security teams to materialise the concept of “AI for Cybersecurity” (i.e. AI/ML-based tools to enhance the detection performance, defence and respond to attacks) and “Cybersecurity for AI” (i.e. protection of AI systems against adversarial AI attacks).

Koordinator

UNIVERSITY OF PIRAEUS RESEARCH CENTER
Netto-EU-Beitrag
€ 230 000,00
Adresse
AL. PAPANASTASIOU 91
185 33 PIRAEUS
Griechenland

Auf der Karte ansehen

Region
Αττική Aττική Πειραιάς
Aktivitätstyp
Higher or Secondary Education Establishments
Links
Gesamtkosten
Keine Daten

Beteiligte (9)