Description du projet
Donner la parole aux personnes affectées par l’IA
L’IA promet de révolutionner notre monde, mais elle cause aussi des dommages. Qu’il s’agisse de préjugés raciaux ou sexistes, d’arrestations injustifiées ou de surveillance, les systèmes d’IA renforcent souvent les inégalités existantes. Ces technologies peuvent être discriminatoires à l’égard des groupes marginalisés et entraîner un traitement inéquitable. La plupart des personnes les plus touchées n’ont guère leur mot à dire sur la manière dont l’IA est développée ou utilisée. Dans ce contexte, le projet PARTIALJUSTICE, financé par le CER, vise à changer cet état de fait en plaçant les voix de ces communautés au centre du développement de l’IA. Il se concentre sur la justice algorithmique participative, une nouvelle approche impliquant les groupes marginalisés dans la création de solutions aux effets néfastes de l’IA. Par le biais de travaux sur le terrain et d’ateliers, le projet aide à identifier les problèmes et à concevoir des interventions.
Objectif
AI comes with great promises, but more critically, it comes with demonstrated harms, from racial and gender bias, to discrimination, wrongful arrests, defamation, surveillance, or the extractive labor and practices required for its creation. I contend that the most concerning aspect of AI is the exacerbation of existing structural inequalities and creation of new ones. Two prevailing responses have emerged to the social and ethical problems of AI: ethicists and social scientists have focused largely on principle-based approaches, and developers have focused on technical fixes for addressing problems in AI models. This project speaks to an urgent gap between these approaches: it centers the experiences of marginalized communities and develops interventions into AI concerns that are designed by and for those communities.
This project develops the novel approach of participatory algorithmic justice. Participatory algorithmic justice defines a concept and standards of practice for collaborative research to better understand who and what AI harms, but also how these harms should be redressed. The project investigates how economic, cultural, and political harms from AI are experienced by structurally marginalized groups through multi-sited, intersectional ethnographic fieldwork. This fieldwork informs participatory design workshops to develop specific interventions into problems identified by research collaborators. This research is brought to life through an innovative combination of graphic storytelling and a public-facing mapping platform. Participatory algorithmic justice brings the voices, priorities, and concerns of those affected by AI to the forefront of debates over what kinds of AI people want to live with. Tackling a critical problem of global technology justice, this project is a crucial intervention for communities, researchers, and developers to redress AI harms.
Champ scientifique (EuroSciVoc)
CORDIS classe les projets avec EuroSciVoc, une taxonomie multilingue des domaines scientifiques, grâce à un processus semi-automatique basé sur des techniques TLN. Voir: https://op.europa.eu/en/web/eu-vocabularies/euroscivoc.
CORDIS classe les projets avec EuroSciVoc, une taxonomie multilingue des domaines scientifiques, grâce à un processus semi-automatique basé sur des techniques TLN. Voir: https://op.europa.eu/en/web/eu-vocabularies/euroscivoc.
Vous devez vous identifier ou vous inscrire pour utiliser cette fonction
Mots‑clés
Programme(s)
- HORIZON.1.1 - European Research Council (ERC) Main Programme
Thème(s)
Appel à propositions
(s’ouvre dans une nouvelle fenêtre) ERC-2024-STG
Voir d’autres projets de cet appelRégime de financement
HORIZON-ERC - HORIZON ERC GrantsInstitution d’accueil
80333 Muenchen
Allemagne