Opis projektu
Innowacyjna platforma chroniąca przed atakami ze strony kontradyktoryjnej SI
Systemy SI znajdują zastosowanie w różnych dziedzinach technologii. Ich upowszechnienie tworzy jednak luki w zabezpieczeniach, takie jak uszkodzenie danych, kradzież modeli i próbki kontradyktoryjne, które stanowią zagrożenie dla pierwszych użytkowników. Brak taktycznych i strategicznych zdolności do obrony, identyfikacji i reagowania na ataki na te systemy oparte na SI stanowi poważny problem. Adwersarze wykorzystują tę lukę, tworząc nową powierzchnię ataku, która celuje w systemy uczenia maszynowego i uczenia głębokiego, przez co stanowi poważne zagrożenie dla krytycznych sektorów takich jak finanse i opieka zdrowotna. Aby umożliwić przeciwstawienie się tym wyzwaniom, finansowany przez MSCA projekt AIAS zakłada przeprowadzenie badań nad kontradyktoryjną sztuczną inteligencją i opracowanie innowacyjnej platformy bezpieczeństwa dla organizacji. Platforma ta będzie wykorzystywać metody obrony przed kontradyktoryjną SI, mechanizmy oszukiwania i rozwiązania w zakresie wyjaśnialnej SI, aby zwiększyć możliwości zespołów ds. bezpieczeństwa i wzmocnić ochronę systemów SI przed potencjalnymi atakami.
Cel
In recent years, the digital environment and digital transformation of enterprises of all sizes have made AI-based solutions vital to mission-critical. AI-based systems are used in every technical field, including smart cities, self-driving cars, autonomous ships, 5G/6G, and next-generation intrusion detection systems. The industry's significant exploitation of AI systems exposes early adopters to undiscovered vulnerabilities such as data corruption, model theft, and adversarial samples because of their lack of tactical and strategic capabilities to defend, identify, and respond to attacks on their AI-based systems. Adversaries have created a new attack surface to exploit AI-system vulnerabilities, targeting Machine Learning (ML) and Deep Learning (DL) systems to impair their functionality and performance. Adversarial AI is a new threat that might have serious effects in crucial areas like finance and healthcare, where AI is widely used. AIAS project aims to perform in-depth research on adversarial AI to design and develop an innovative AI-based security platform for the protection of AI systems and AI-based operations of organisations, relying on Adversarial AI defence methods (e.g. adversarial training, adversarial AI attack detection), deception mechanisms (e.g. high-interaction honeypots, digital twins, virtual personas) as well as on explainable AI solutions (XAI) that empower security teams to materialise the concept of “AI for Cybersecurity” (i.e. AI/ML-based tools to enhance the detection performance, defence and respond to attacks) and “Cybersecurity for AI” (i.e. protection of AI systems against adversarial AI attacks).
Dziedzina nauki
- engineering and technologymechanical engineeringvehicle engineeringautomotive engineeringautonomous vehicles
- engineering and technologycivil engineeringurban engineeringsmart cities
- engineering and technologyelectrical engineering, electronic engineering, information engineeringinformation engineeringtelecommunicationstelecommunications networksmobile network5G
- natural sciencescomputer and information sciencesartificial intelligencemachine learningdeep learning
- natural sciencescomputer and information sciencescomputer security
Słowa kluczowe
Program(-y)
- HORIZON.1.2 - Marie Skłodowska-Curie Actions (MSCA) Main Programme
Zaproszenie do składania wniosków
Zobacz inne projekty w ramach tego zaproszeniaSystem finansowania
HORIZON-TMA-MSCA-SE - HORIZON TMA MSCA Staff ExchangesKoordynator
185 33 PIRAEUS
Grecja