Skip to main content
European Commission logo
italiano italiano
CORDIS - Risultati della ricerca dell’UE
CORDIS

Fair predictions in health

Descrizione del progetto

Considerazioni etiche sull’apprendimento automatico nella sanità

Un quinto della popolazione dell’UE ha una qualche forma di disabilità. L’UE si impegna a migliorare la situazione sociale ed economica di questi soggetti. Anche assicurarsi che l’accesso alla cultura, come consumatori o contributori, sia loro garantito è importante. L’apprendimento automatico è sempre più usato nell’assistenza sanitaria per migliorare la diagnosi, le opzioni terapeutiche e l’efficacia del sistema sanitario. Tuttavia, i modelli di apprendimento automatico utilizzano informazioni raccolte nel tempo ed escludono segmenti della popolazione che sono vittima di discriminazione sociale, razziale o di genere, non riuscendo a offrire equità nei modelli predittivi e sollevando preoccupazioni etiche. Il progetto FPH, finanziato dall’UE, mapperà le teorie etiche relative alla distribuzione delle risorse nella sanità e le collegherà all’apprendimento automatico equo. Comprenderà in che modo i concetti morali tradizionali possono essere percepiti in termini probabilistici e se le asserzioni attuali sui modelli equi nell’IA siano fondate in relazione a percezioni filosofiche diverse della probabilità, della causalità e dell’analisi controfattuale, e dimostrerà la rilevanza di queste percezioni filosofiche.

Obiettivo

In clinical care, machine learning is progressively used to enhance diagnosis, therapy choice, and effectiveness of the health system. Because machine-learning models learn from historically gathered information, populations that have suffered past human and structural biases (e.g. unequal access to education or resources) — called protected groups — are susceptible to damage from inaccurate projections or resource allocations, reinforcing health inequalities. For example, racial and gender differences exist in the way clinical data are produced and these can be transferred as biases in the models. Several techniques of algorithmic fairness have been suggested in the literature on machine learning to ameliorate the performance of machine learning with respect to its fairness. The debate in statistics and machine learning has however failed to provide a principled approach for choosing concepts of bias, prejudice, discrimination, and fairness in predictive models, with a clear link to ethical theory discussed within philosophy.
The specific scientific objectives of this research project are:
O1: ethical theory: mapping the ethical theories that are relevant for the allocation of resources in health care and draw connections with the literature in fair machine learning
O2: probabilistic ethics: understand how standard moral concepts such as responsibility, merit, need, talent, equality, and benefit can be understood in probabilistic terms
O3: epistemology of causality: understand if current claims made by counterfactual and causal models of fairness in AI are robust with respect to different philosophical understandings of probability, causality, and counterfactuals
O4: application: to show the relevance these philosophical ideas by applying them to a limited number of paradigmatic cases of the application of predictive algorithms in health care.

Coordinatore

POLITECNICO DI MILANO
Contribution nette de l'UE
€ 183 473,28
Indirizzo
PIAZZA LEONARDO DA VINCI 32
20133 Milano
Italia

Mostra sulla mappa

Regione
Nord-Ovest Lombardia Milano
Tipo di attività
Higher or Secondary Education Establishments
Collegamenti
Costo totale
€ 183 473,28