Opis projektu
Jak radzić sobie z dyskryminacją w ramach rekrutacji opartej na algorytmach?
Zatrudnianie pracowników z użyciem algorytmów oznacza wykorzystanie narzędzi opartych na sztucznej inteligencji (SI) celem wyszukiwania i selekcjonowania kandydatów na stanowisko pracy. Podobnie jak w przypadku innych zastosowań SI, tego rodzaju rekrutacja jest podatna na dyskryminację. Uwzględniając aspekty technologiczne, prawne i etyczne, badacze z finansowanego ze środków UE projektu FINDHR chcą usprawnić działania polegające na zapobieganiu, wykrywaniu i zarządzaniu dyskryminacją w procesie algorytmicznej rekrutacji pracowników oraz powiązanego z nią obszaru rekomendacji przez człowieka. Zespół projektu opracuje nowe metody określania ryzyka dyskryminacji, generowania mniej stronniczych wyników oraz włączania istotnej wiedzy ludzkiej. Celem badaczy jest również stworzenie procedur na potrzeby tworzenia programów, monitoringu i szkolenia. Po zakończeniu projektu wszystkie publikacje, programy, materiały szkoleniowe i zestawy danych powstałe w trakcie projektu zostaną udostępnione za darmo opinii publicznej na podstawie darmowej i otwartej licencji.
Cel
FINDHR is an interdisciplinary project that seeks to prevent, detect, and mitigate discrimination in AI. Our research will be contextualized within the technical, legal, and ethical problems of algorithmic hiring and the domain of human resources, but will also show how to manage discrimination risks in a broad class of applications involving human recommendation.
Through a context-sensitive, interdisciplinary approach, we will develop new technologies to measure discrimination risks, to create fairness-aware rankings and interventions, and to provide multi-stakeholder actionable interpretability. We will produce new technical guidance to perform impact assessment and algorithmic auditing, a protocol for equality monitoring, and a guide for fairness-aware AI software development. We will also design and deliver specialized skills training for developers and auditors of AI systems.
We ground our project in EU regulation and policy. As tackling discrimination risks in AI requires processing sensitive data, we will perform a targeted legal analysis of tensions between data protection regulation (including the GDPR) and anti-discrimination regulation in Europe. We will engage with underrepresented groups through multiple mechanisms including consultation with experts and participatory action research.
In our research, technology, law, and ethics are interwoven. The consortium includes leaders in algorithmic fairness and explainability research (UPF, UVA, UNIPI, MPI-SP), pioneers in the auditing of digital services (AW, ETICAS), and two industry partners that are leaders in their respective markets (ADE, RAND), complemented by experts in technology regulation (RU) and cross-cultural digital ethics (EUR), as well as worker representatives (ETUC) and two NGOs dedicated to fighting discrimination against women (WIDE+) and vulnerable populations (PRAK).
All outputs will be released as open access publications, open source software, open datasets, and open courseware.
Dziedzina nauki
- social sciencespolitical sciencespolitical policiescivil societynongovernmental organizations
- natural sciencescomputer and information sciencescomputer securitydata protection
- natural sciencescomputer and information sciencessoftwaresoftware development
- social sciencessociologysocial issuessocial inequalities
- social scienceslaw
Słowa kluczowe
Program(-y)
Zaproszenie do składania wniosków
Zobacz inne projekty w ramach tego zaproszeniaSystem finansowania
HORIZON-RIA - HORIZON Research and Innovation ActionsKoordynator
08002 Barcelona
Hiszpania