Description du projet
Examiner l’utilisation éthique de l’intelligence artificielle
De nos jours, l’intelligence artificielle (IA) alimente un nombre croissant de systèmes. C’est pourquoi il est important de s’assurer du bon fonctionnement des algorithmes d’IA. Dans ce contexte, le projet AutoFair, financé par l’UE, se concentrera sur la question de l’équité. Il s’intéressera plus particulièrement à la conception d’algorithmes d’IA explicables et transparents. AutoFair entend améliorer les algorithmes eux-mêmes tout en éduquant les utilisateurs finaux. Il s’appuie sur les connaissances issues de l’informatique et de la science des données, de la théorie du contrôle, de l’optimisation et d’autres disciplines scientifiques, y compris l’éthique et le droit. Trois études de cas seront menées pour tester les conclusions sur l’automatisation de l’évaluation équitable dans le recrutement, ainsi que dans l’élimination de l’inégalité entre les sexes dans la publicité et de la discrimination à l’égard des clients des banques.
Objectif
In this proposal, we address the matter of transparency and explainability of AI using approaches inspired by control theory. Notably, we consider a comprehensive and flexible certification of properties of AI pipelines, certain closed-loops and more complicated interconnections. At one extreme, one could consider risk averse a priori guarantees via hard constraints on certain bias measures in the training process. At the other extreme, one could consider nuanced communication of the exact tradeoffs involved in AI pipeline choices and their effect on industrial and bias outcomes, post hoc. Both extremes offer little in terms of optimizing the pipeline and inflexibility in explaining the pipelines fairness-related qualities. Seeking the middle-ground, we suggest a priori certification of fairness-related qualities in AI pipelines via modular compositions of pre-processing, training, inference, and post-processing steps with certain properties. Furthermore, we present an extensive programme in explainability of fairness-related qualities. We seek to inform both the developer and the user thoroughly in regards to the possible algorithmic choices and their expected effects. Overall, this will effectively support the development of AI pipelines with guaranteed levels of performance, explained clearly. Three use cases (in Human Resources automation, Financial Technology, and Advertising) will be used to assess the effectiveness of our approaches.
Champ scientifique (EuroSciVoc)
CORDIS classe les projets avec EuroSciVoc, une taxonomie multilingue des domaines scientifiques, grâce à un processus semi-automatique basé sur des techniques TLN. Voir: https://op.europa.eu/en/web/eu-vocabularies/euroscivoc.
CORDIS classe les projets avec EuroSciVoc, une taxonomie multilingue des domaines scientifiques, grâce à un processus semi-automatique basé sur des techniques TLN. Voir: https://op.europa.eu/en/web/eu-vocabularies/euroscivoc.
Vous devez vous identifier ou vous inscrire pour utiliser cette fonction
Mots‑clés
Programme(s)
Appel à propositions
(s’ouvre dans une nouvelle fenêtre) HORIZON-CL4-2021-HUMAN-01
Voir d’autres projets de cet appelRégime de financement
HORIZON-RIA - HORIZON Research and Innovation ActionsCoordinateur
160 00 Praha
Tchéquie