Projektbeschreibung
Innovative Sicherheitsplattform zum Schutz vor feindlichen KI-Angriffen
KI-Systeme finden auf verschiedenen technischen Gebieten Anwendung. Ihre Einführung setzt jedoch die frühzeitig Nutzenden Schwachstellen aus, sodass es zur Verletzung der Integrität der Daten, Modelldiebstahl und feindlicher Einflussnahme kommen kann. Fehlende taktische und strategische Ressourcen zur Verteidigung, Identifizierung und Reaktion auf Angriffe auf diese KI-basierten Systeme stellen ein großes Problem dar. Angreifende nutzen diese Schwachstelle aus und schaffen damit eine neue Angriffsfläche, die speziell auf Maschinenlern- und Deep Learning-Systeme abzielt und eine erhebliche Bedrohung für kritische Bereiche wie das Finanz- und Gesundheitswesen darstellt. Das Ziel des im Rahmen der Marie-Skłodowska-Curie-Maßnahmen finanzierten Projekts AIAS besteht darin, diese Herausforderungen zu bewältigen, wobei diese feindliche KI erforscht und eine innovative Sicherheitsplattform für Einrichtungen entwickelt werden sollen. Auf dieser Plattform werden Verteidigungsmethoden gegen feindliche KI, Manipulationsmechanismen und Lösungen mit erklärbarer KI eingesetzt, um Sicherheitsteams zu unterstützen und KI-Systeme gegenüber potenziellen Angriffen zu stärken.
Ziel
In recent years, the digital environment and digital transformation of enterprises of all sizes have made AI-based solutions vital to mission-critical. AI-based systems are used in every technical field, including smart cities, self-driving cars, autonomous ships, 5G/6G, and next-generation intrusion detection systems. The industry's significant exploitation of AI systems exposes early adopters to undiscovered vulnerabilities such as data corruption, model theft, and adversarial samples because of their lack of tactical and strategic capabilities to defend, identify, and respond to attacks on their AI-based systems. Adversaries have created a new attack surface to exploit AI-system vulnerabilities, targeting Machine Learning (ML) and Deep Learning (DL) systems to impair their functionality and performance. Adversarial AI is a new threat that might have serious effects in crucial areas like finance and healthcare, where AI is widely used. AIAS project aims to perform in-depth research on adversarial AI to design and develop an innovative AI-based security platform for the protection of AI systems and AI-based operations of organisations, relying on Adversarial AI defence methods (e.g. adversarial training, adversarial AI attack detection), deception mechanisms (e.g. high-interaction honeypots, digital twins, virtual personas) as well as on explainable AI solutions (XAI) that empower security teams to materialise the concept of “AI for Cybersecurity” (i.e. AI/ML-based tools to enhance the detection performance, defence and respond to attacks) and “Cybersecurity for AI” (i.e. protection of AI systems against adversarial AI attacks).
Wissenschaftliches Gebiet
- engineering and technologymechanical engineeringvehicle engineeringautomotive engineeringautonomous vehicles
- engineering and technologycivil engineeringurban engineeringsmart cities
- engineering and technologyelectrical engineering, electronic engineering, information engineeringinformation engineeringtelecommunicationstelecommunications networksmobile network5G
- natural sciencescomputer and information sciencesartificial intelligencemachine learningdeep learning
- natural sciencescomputer and information sciencescomputer security
Schlüsselbegriffe
Programm/Programme
- HORIZON.1.2 - Marie Skłodowska-Curie Actions (MSCA) Main Programme
Aufforderung zur Vorschlagseinreichung
Andere Projekte für diesen Aufruf anzeigenFinanzierungsplan
HORIZON-TMA-MSCA-SE - HORIZON TMA MSCA Staff ExchangesKoordinator
185 33 PIRAEUS
Griechenland