CORDIS - Forschungsergebnisse der EU
CORDIS

Fairness and Explanations in Group Recommender Systems. Towards Trustworthiness and transparency

Projektbeschreibung

Den Weg zu vertrauenswürdigen und transparenten intelligenten Gruppenempfehlungssystemen ebnen

Ökosysteme im elektronischen Handel und Plattformen der sozialen Medien nutzen intelligente Instrumente für Inhaltsempfehlungen und die Moderation von Beiträgen. Gruppenempfehlungssysteme werden immer beliebter, aber die Forderung nach größerer Transparenz bei den Algorithmen und Entscheidungsprozessen hat negative Auswirkungen auf die Beschäftigungsmöglichkeiten, den elektronischen Handel und den Zugang zu Nachrichten. Die Gewährleistung von Fairness und Erklärbarkeit ist entscheidend für die Schaffung von Transparenz und Vertrauen in KI-basierte Systeme wie Gruppenempfehlungssysteme. Während bei herkömmlichen individuellen Empfehlungssystemen Anstrengungen unternommen wurden, diese Aspekte zu verbessern, wurden sie bei solchen für Gruppen noch nicht erforscht. Das über die Marie-Skłodowska-Curie-Maßnahmen finanzierte Projekt FIDELITY widmet sich der Entwicklung neuer Algorithmen und Instrumente zur Verbesserung von Erklärung, Fairness und Synergie innerhalb der Gruppenempfehlungssysteme. Projektintern werden Post-hoc-Erklärungsverfahren eingesetzt, um die Kluft zwischen Erklärung und Fairness in Empfehlungssystemen zu überbrücken.

Ziel

Today, most social media networks use automated tools to recommend content or products and to rank, curate and moderate posts. Recommender systems (RSs), and in particular Group recommender systems (GRSs), -a specific kind of RSs used to recommend items to a group of users-, are likely to become more ubiquitous, with expected market forecast to reach USD 16.13 billion by 2026.
These automated content governance tools are receiving emerging interest as both algorithms and decision-making processes behind the platforms are not sufficiently transparent, with a negative impact on domains such as fair job opportunities, fair e-commerce or news exposure.
Two of the key requirements that have to be fulfilled to build and keep users’ trust in AI systems while guaranteeing transparency are Fairness and Explainability. But, aside from some previous attempts to enhance both aspects in traditional-individual RS, they have hardly been explored in GRSs.
FIDELITY addresses this challenge by developing novel algorithms and computational tools in GRS to boost explanation, fairness, and synergy between them through a disruptive multidisciplinary research approach that: 1) extensively brings SHAP and LIME, as state-of-the-art post-hoc explanation approaches in AI, into RS and GRS contexts, 2) bridges explanation and fairness in RS and GRS, introducing an explanation paradigm shift moving from “why are the recommendations generated?” to “how fair are the generated recommendations?” and, 3) transversally evaluates the new methods through real-world GRSs and user studies. The ultimate goal is to guarantee greater user trust, and independence of RS output from any of the sociodemographic characteristics of users. The training programme, designed with the aim to fill the existing gaps between computing science, social research and business development reality, will provide the candidate with a multidisciplinary background that will boost his innovation potential and career prospects.

Koordinator

UNIVERSIDAD DE JAEN
Netto-EU-Beitrag
€ 181 152,96
Adresse
CAMPUS LAS LAGUNILLAS SN EDIFICO B1 VICERRECTORADO DE INVESTIGACION DESAR TECN E INNOVACION
23071 Jaen
Spanien

Auf der Karte ansehen

Region
Sur Andalucía Jaén
Aktivitätstyp
Higher or Secondary Education Establishments
Links
Gesamtkosten
Keine Daten

Partner (3)