European Commission logo
italiano italiano
CORDIS - Risultati della ricerca dell’UE
CORDIS

Fairness and Intersectional Non-Discrimination in Human Recommendation

Descrizione del progetto

Affrontare la discriminazione nei processi di assunzione basati su algoritmi

Per assunzione algoritmica si intende l’impiego di strumenti basati sull’intelligenza artificiale (IA) allo scopo di trovare e selezionare candidati a un lavoro. Come altre applicazioni di IA, tuttavia, tale processo risulta vulnerabile alla perpetuazione della discriminazione. Prendendo in considerazione aspetti tecnologici, giuridici ed etici, il progetto FINDHR, finanziato dall’UE, agevolerà la prevenzione, il rilevamento e la gestione della discriminazione nell’assunzione algoritmica e nei settori strettamente correlati che prevedono i consigli umani. FINDHR intende creare nuove modalità per accertare il rischio di discriminazione, produrre risultati più imparziali e integrare in modo significativo le competenze umane. Inoltre, il progetto si propone di elaborare procedure per lo sviluppo, il monitoraggio e l’addestramento di software. Una volta completati, i software, le pubblicazioni, i materiali formativi e i set di dati di FINDHR verranno messi a libera disposizione del pubblico tramite licenze libere e aperte.

Obiettivo

FINDHR is an interdisciplinary project that seeks to prevent, detect, and mitigate discrimination in AI. Our research will be contextualized within the technical, legal, and ethical problems of algorithmic hiring and the domain of human resources, but will also show how to manage discrimination risks in a broad class of applications involving human recommendation.

Through a context-sensitive, interdisciplinary approach, we will develop new technologies to measure discrimination risks, to create fairness-aware rankings and interventions, and to provide multi-stakeholder actionable interpretability. We will produce new technical guidance to perform impact assessment and algorithmic auditing, a protocol for equality monitoring, and a guide for fairness-aware AI software development. We will also design and deliver specialized skills training for developers and auditors of AI systems.

We ground our project in EU regulation and policy. As tackling discrimination risks in AI requires processing sensitive data, we will perform a targeted legal analysis of tensions between data protection regulation (including the GDPR) and anti-discrimination regulation in Europe. We will engage with underrepresented groups through multiple mechanisms including consultation with experts and participatory action research.

In our research, technology, law, and ethics are interwoven. The consortium includes leaders in algorithmic fairness and explainability research (UPF, UVA, UNIPI, MPI-SP), pioneers in the auditing of digital services (AW, ETICAS), and two industry partners that are leaders in their respective markets (ADE, RAND), complemented by experts in technology regulation (RU) and cross-cultural digital ethics (EUR), as well as worker representatives (ETUC) and two NGOs dedicated to fighting discrimination against women (WIDE+) and vulnerable populations (PRAK).

All outputs will be released as open access publications, open source software, open datasets, and open courseware.

Coordinatore

UNIVERSIDAD POMPEU FABRA
Contribution nette de l'UE
€ 709 838,00
Indirizzo
PLACA DE LA MERCE, 10-12
08002 Barcelona
Spagna

Mostra sulla mappa

Regione
Este Cataluña Barcelona
Tipo di attività
Higher or Secondary Education Establishments
Collegamenti
Costo totale
€ 709 838,00

Partecipanti (12)

Partner (1)