Descrizione del progetto
Un’indagine sull’impiego etico dell’IA
Attualmente l’intelligenza artificiale alimenta un numero crescente di dispositivi: proprio per questo è importante garantire che gli algoritmi di IA funzionino correttamente. Muovendo da tale presupposto, il progetto AutoFair, finanziato dall’UE, si concentrerà sulla questione dell’equità, occupandosi nello specifico della progettazione di algoritmi di IA spiegabili e trasparenti. AutoFair si propone di migliorare gli algoritmi stessi, istruendo al contempo gli utenti finali, e attinge a conoscenze provenienti dall’informatica e dalla scienza dei dati, dalla teoria del controllo, dall’ottimizzazione e da altre discipline scientifiche, tra cui l’etica e il diritto. Saranno condotti tre casi di studio per mettere alla prova i risultati relativi all’automazione della valutazione equa in diversi ambiti: l’assunzione di personale, l’eliminazione della disuguaglianza di genere nella pubblicazione di annunci e l’abolizione della discriminazione nei confronti di clienti bancari.
Obiettivo
In this proposal, we address the matter of transparency and explainability of AI using approaches inspired by control theory. Notably, we consider a comprehensive and flexible certification of properties of AI pipelines, certain closed-loops and more complicated interconnections. At one extreme, one could consider risk averse a priori guarantees via hard constraints on certain bias measures in the training process. At the other extreme, one could consider nuanced communication of the exact tradeoffs involved in AI pipeline choices and their effect on industrial and bias outcomes, post hoc. Both extremes offer little in terms of optimizing the pipeline and inflexibility in explaining the pipelines fairness-related qualities. Seeking the middle-ground, we suggest a priori certification of fairness-related qualities in AI pipelines via modular compositions of pre-processing, training, inference, and post-processing steps with certain properties. Furthermore, we present an extensive programme in explainability of fairness-related qualities. We seek to inform both the developer and the user thoroughly in regards to the possible algorithmic choices and their expected effects. Overall, this will effectively support the development of AI pipelines with guaranteed levels of performance, explained clearly. Three use cases (in Human Resources automation, Financial Technology, and Advertising) will be used to assess the effectiveness of our approaches.
Campo scientifico (EuroSciVoc)
CORDIS classifica i progetti con EuroSciVoc, una tassonomia multilingue dei campi scientifici, attraverso un processo semi-automatico basato su tecniche NLP. Cfr.: https://op.europa.eu/en/web/eu-vocabularies/euroscivoc.
CORDIS classifica i progetti con EuroSciVoc, una tassonomia multilingue dei campi scientifici, attraverso un processo semi-automatico basato su tecniche NLP. Cfr.: https://op.europa.eu/en/web/eu-vocabularies/euroscivoc.
È necessario effettuare l’accesso o registrarsi per utilizzare questa funzione
Parole chiave
Programma(i)
Invito a presentare proposte
(si apre in una nuova finestra) HORIZON-CL4-2021-HUMAN-01
Vedi altri progetti per questo bandoMeccanismo di finanziamento
HORIZON-RIA - HORIZON Research and Innovation ActionsCoordinatore
160 00 Praha
Cechia