Projektbeschreibung
Von KI Betroffenen eine Stimme verleihen
KI könnte die Welt revolutionieren, sie richtet aber auch Schaden an. Von ethnischer und geschlechtsspezifischer Voreingenommenheit zu unrechtmäßiger Inhaftierung und Überwachung verstärken KI-Systeme oft bestehende Ungleichheiten. Diese Technologien können Randgruppen diskriminieren und zu ungerechter Behandlung führen. Viele der am stärksten Betroffenen haben wenig Einfluss auf die Entwicklung und Nutzung von KI. Das soll im ERC-finanzierten Projekt PARTIALJUSTICE geändert werden, indem die Stimmen dieser Gemeinschaften in den Mittelpunkt der KI-Entwicklung gestellt werden. Der Fokus liegt auf partizipativer algorithmischer Gerechtigkeit, einem neuen Ansatz, bei dem Randgruppen in die Findung von Lösungen für die schädlichen Folgen von KI einbezogen werden. Über Feldforschung und Workshops werden Probleme identifiziert und Maßnahmen entwickelt.
Ziel
AI comes with great promises, but more critically, it comes with demonstrated harms, from racial and gender bias, to discrimination, wrongful arrests, defamation, surveillance, or the extractive labor and practices required for its creation. I contend that the most concerning aspect of AI is the exacerbation of existing structural inequalities and creation of new ones. Two prevailing responses have emerged to the social and ethical problems of AI: ethicists and social scientists have focused largely on principle-based approaches, and developers have focused on technical fixes for addressing problems in AI models. This project speaks to an urgent gap between these approaches: it centers the experiences of marginalized communities and develops interventions into AI concerns that are designed by and for those communities.
This project develops the novel approach of participatory algorithmic justice. Participatory algorithmic justice defines a concept and standards of practice for collaborative research to better understand who and what AI harms, but also how these harms should be redressed. The project investigates how economic, cultural, and political harms from AI are experienced by structurally marginalized groups through multi-sited, intersectional ethnographic fieldwork. This fieldwork informs participatory design workshops to develop specific interventions into problems identified by research collaborators. This research is brought to life through an innovative combination of graphic storytelling and a public-facing mapping platform. Participatory algorithmic justice brings the voices, priorities, and concerns of those affected by AI to the forefront of debates over what kinds of AI people want to live with. Tackling a critical problem of global technology justice, this project is a crucial intervention for communities, researchers, and developers to redress AI harms.
Wissenschaftliches Gebiet (EuroSciVoc)
CORDIS klassifiziert Projekte mit EuroSciVoc, einer mehrsprachigen Taxonomie der Wissenschaftsbereiche, durch einen halbautomatischen Prozess, der auf Verfahren der Verarbeitung natürlicher Sprache beruht. Siehe: https://op.europa.eu/en/web/eu-vocabularies/euroscivoc.
CORDIS klassifiziert Projekte mit EuroSciVoc, einer mehrsprachigen Taxonomie der Wissenschaftsbereiche, durch einen halbautomatischen Prozess, der auf Verfahren der Verarbeitung natürlicher Sprache beruht. Siehe: https://op.europa.eu/en/web/eu-vocabularies/euroscivoc.
Sie müssen sich anmelden oder registrieren, um diese Funktion zu nutzen
Schlüsselbegriffe
Programm/Programme
- HORIZON.1.1 - European Research Council (ERC) Main Programme
Thema/Themen
Aufforderung zur Vorschlagseinreichung
(öffnet in neuem Fenster) ERC-2024-STG
Andere Projekte für diesen Aufruf anzeigenFinanzierungsplan
HORIZON-ERC - HORIZON ERC GrantsGastgebende Einrichtung
80333 Muenchen
Deutschland