Description du projet
Étendre le filtrage des discours haineux aux régions à faibles ressources
À l’ère des réseaux sociaux, le discours de haine est devenu un problème mondial alarmant. Alors que les géants de la technologie emploient des modèles d’apprentissage automatique pour filtrer ce type de contenu, la plupart des langues restent mal desservies en raison d’un manque de données d’entraînement. Dans ce contexte, le projet Respond2Hate, financé par le CER, se propose de développer des modèles de représentation multilingue. Son objectif est de créer une extension de navigateur conviviale, permettant aux individus d’éliminer localement et de manière indépendante les contenus haineux de leurs fils d’actualité sur les réseaux sociaux. Plus précisément, Respond2Hate se concentre sur le développement de modèles agiles et adaptatifs qui requièrent un minimum de données pour leur entraînement initial, en utilisant des techniques de pointe de traitement automatique du langage et d’apprentissage profond. En étendant le filtrage des discours haineux aux régions à faibles ressources, souvent négligées par les gouvernements et les ONG, ce projet permet aux utilisateurs de contrôler leur expérience en ligne.
Objectif
"Hate speech is a worldwide phenomenon that is increasingly pervading online spaces, creating an unsafe environment for users. While tech companies address this problem by server-side filtering using machine learning models trained on large datasets, these automatic methods cannot be applied to most languages due to lack of available training data.
Based on recent results of the PI's ERC project on multilingual representation models in low-resource settings, Respond2Hate aims at developing a pilot browser extension that allows users to locally remove hateful content from their social media feeds themselves, without having to rely on the support of tech companies.
Since hate speech is highly dependent on cultural context, responsive classifiers are needed that adapt to the individual environment. Commercial efforts focus on large-scale, general-purpose models which are often burdened with representation and bias problems, and therefore cope poorly with swiftly changing targets or information shift between regional contexts. In contrast, we seek to develop lightweight, adaptive models that require only a small dataset for initial fine-tuning by continuously enhancing model capabilities over time.
This is achieved by applying state-of-the-art Natural Language Processing (NLP) and deep learning techniques for pre-trained language models like low-resource transfer of hate speech representations from high-resource languages and few-shot learning based on limited user feedback. We have already successfully applied these methods in low-resource multilingual settings, and will now validate their use for hate speech filtering.
By making hate speech detection and reduction available in ""low-resource"" countries with little representation in current training datasets, which are currently not served well by governments, industry and NGOs, Respond2Hate will empower users to self-control their exposure to hate speech, fostering a healthier and safer online environment."
Programme(s)
- HORIZON.1.1 - European Research Council (ERC) Main Programme
Appel à propositions
(s’ouvre dans une nouvelle fenêtre) ERC-2022-POC2
Voir d’autres projets de cet appelRégime de financement
HORIZON-ERC-POC - HORIZON ERC Proof of Concept GrantsInstitution d’accueil
80539 MUNCHEN
Allemagne