Description du projet
Renforcer la confiance dans l’IA et les mégadonnées
L’IA est partout autour de nous — dans nos foyers, nos voitures, nos lieux de travail et dans notre poche. Plus l’IA devient omniprésente, plus il est important de s’assurer que ses applications sont dignes de confiance. Il est tout aussi important de renforcer la confiance du grand public. Dans ce contexte, le projet AI4Gov, financé par l’UE, abordera les questions d’éthique, de confiance, de discrimination et de partialité associées à l’IA et aux mégadonnées. En tant que projet collaboratif impliquant un large éventail de parties prenantes, y compris des décideurs politiques, des organisations publiques, des experts juridiques et des chercheurs en sciences sociales, il introduira des solutions et des cadres visant à accroître la confiance dans les processus démocratiques et à fournir aux décideurs politiques des outils de prise de décision automatisés et fondés sur des données probantes. Il s’appuiera également sur des outils de pointe pour fournir une IA impartiale, équitable et fiable.
Objectif
AI4Gov is a joint effort of policy makers, public institutions / organizations, legal, Social Science and Humanities and Big Data/AI experts to unveil the potentials of Artificial Intelligence (AI) and Big Data technologies for developing evidence-based innovations, policies, and policy recommendations to harness the public sphere, political power, and economic power for democratic purposes. The project will also uphold fundamental rights and values standards of individuals when using AI and Big Data technologies. Hence, the project aims to contribute to the promising research landscape that seeks to address ethical, trust, discrimination, and bias issues by providing an in-depth analysis and solutions addressing the challenges that various stakeholders in modern democracies are faced with when attempts are made to mitigate the negative implications of Big Data and AI. In this direction, the project will introduce solutions and frameworks towards a two-fold sense, to facilitate policymakers on the development of automated, educated and evidence-based decisions and to increase the trust of citizens in the democratic processes and institutions. Moreover, the project will leverage the capabilities of state-of-the-art tools for providing un-bias, discrimination-free, fair, and trusted AI. These tools will be validated in terms of their ability to provide technical and/or organisational measures, causal models for bias and discrimination, and standardized methodologies for achieving fairness in AI.
Champ scientifique
Mots‑clés
Programme(s)
Régime de financement
HORIZON-RIA - HORIZON Research and Innovation ActionsCoordinateur
47822 Santarcangelo Di Romagna
Italie