European Commission logo
français français
CORDIS - Résultats de la recherche de l’UE
CORDIS

Bayesian Models and Algorithms for Fairness and Transparency

Description du projet

Nouvelle approche bayésienne pour un traitement des données licite, loyal et transparent

Le règlement général sur la protection des données (RGPD) stipule que les données doivent être traitées de manière licite, loyale et transparente. C’est dans cette optique que le projet BayesianGDPR, financé par l’UE, entend intégrer les principes juridiques de non-discrimination du RGPD dans les systèmes d’apprentissage automatique de manière transparente. Pour ce faire, il adoptera une nouvelle approche bayésienne afin de modéliser toutes les sources d’incertitude, en tenant compte de la réaction des humains et des conséquences futures des résultats obtenus. BayesianGDPR va mettre à la disposition des organisations dont le fonctionnement repose sur les technologies d’apprentissage automatique des outils concrets qui leur permettront de respecter les principes de non-discrimination du RGPD et les lois similaires. Les réalisations du projet auront des retombées sur la recherche en droit computationnel et son intégration dans la pratique juridique de droit commun. Par ailleurs, le projet renforcera la confiance du public dans les systèmes d’apprentissage automatique.

Objectif

"EU's GDPR prescribes that ""Personal Data shall be processed lawfully, fairly, and in a transparent manner."" The vision of this BayesianGDPR project is to integrate into automated machine learning systems using a novel Bayesian approach, in a transparent manner, the legal non-discriminatory principles of GDPR, taking into account feedback from humans and future consequences of their outputs. We aim to achieve this ambitious vision by 1) developing a machine learning framework for addressing fairness in classification problems and beyond, and under uncertainty about data, models, and predictions about future data (algorithmic fairness under uncertainty), 2) extending the framework to a setting where data points arrive over time, and models have to be dynamically updated when taking general feedback (feedback-driven setting), and 3) ensuring a human could understand how non-discrimination is defined and achieved by using, among others, uncertainty estimates for building interpretable models and/or explicitly explaining about changes being made to the models to enforce non-discriminatory principles (transparency in fairness). The BayesianGDPR project is ""doubly timely""; not just in terms of the criticality of the fairness and transparency in machine learning at this point in time, but also because recent breakthroughs in scalability have finally made it feasible to explore Bayesian approaches that are uniquely capable of addressing one of the most central aspects of the problem, i.e. uncertainty. BayesianGDPR will, in the short term, ensure that organisations relying on machine learning technologies are provided with concrete tools to comply with the non-discriminatory principles of GDPR and similar laws. In the medium term, it will impact research in computational law, and its integration into mainstream legal practice. In the long term, it will also ensure continued confidence of the general public in the deployment of machine learning systems."

Régime de financement

ERC-STG - Starting Grant

Institution d’accueil

THE UNIVERSITY OF SUSSEX
Contribution nette de l'UE
€ 1 329 947,00
Adresse
SUSSEX HOUSE FALMER
BN1 9RH Brighton
Royaume-Uni

Voir sur la carte

Région
South East (England) Surrey, East and West Sussex Brighton and Hove
Type d’activité
Higher or Secondary Education Establishments
Liens
Coût total
€ 1 329 947,00

Bénéficiaires (2)