Descripción del proyecto
Un marco normativo y de gobernanza fiable para la seguridad impulsada por inteligencia artificial en Europa
La caja negra de la inteligencia artificial (IA) hace referencia a sistemas de IA que reciben datos y producen resultados sin que el usuario final comprenda su funcionamiento. Dado que los datos y los resultados no se pueden ver o comprender de manera intuitiva, dichos sistemas pueden generar problemas tanto dentro como entre organizaciones. En el proyecto SPATIAL, financiado con fondos europeos, se abordarán estos problemas de la caja negra de la IA y la gestión de datos en ciberseguridad. Para ello, se diseñarán y desarrollarán parámetros fiables, métodos de preservación de la privacidad, herramientas de verificación y un marco de sistemas para posibilitar una IA fiable en las tecnologías de seguridad. Además, el objetivo del proyecto es ayudar a generar las habilidades y la formación propicias para una IA fiable en materia de ciberseguridad, tanto en los aspectos sociales como en los técnicos.
Objetivo
The SPATIAL (Security and Privacy Accountable Technology Innovations, Algorithms, and machine Learning) project seeks to address the challenges of black-box AI and data management in cybersecurity by designing and developing resilient accountable metrics, privacy-preserving methods, verification tools and system framework that will serve as critical building blocks to achieve trustworthy AI in security solutions. The main objectives include: 1) To develop systematic verification and validation software/hardware mechanisms that ensure AI transparency and explainability in security solution development; 2) To develop system solutions, platforms, and standards that enhance resilience in the training and deployment of AI in decentralized, uncontrolled environments; 3) To define effective and practical adoption and adaptation guidelines to ensure streamlined implementation of trustworthy AI solutions; 4) To create an educational modules that provide technical skills, ethical and socio-legal awareness to current and future AI engineers/developers to ensure the accountable development of security solutions; 5) To develop a communication framework that enables accountable and transparent understanding of AI applications for users, software developers and security service providers. Besides technical measures, SPATIAL project aims to facilitate generating appropriate skills and education for AI security to strike a balance among technological complexity, societal complexity and value conflicts in AI deployment. The project covers data privacy, resilience engineering, and legal-ethical accountability that are in line with EU top agenda to achieve trustworthy AI. In addition, the work carried out in SPATIAL on both social and technical aspects will serve as a stepping stone to establish an appropriate governance and regulatory framework for AI-driven security in Europe.
Ámbito científico
Palabras clave
Programa(s)
Convocatoria de propuestas
Consulte otros proyectos de esta convocatoriaConvocatoria de subcontratación
H2020-SU-DS-2020
Régimen de financiación
RIA - Research and Innovation actionCoordinador
2628 CN Delft
Países Bajos