Skip to main content
European Commission logo
español español
CORDIS - Resultados de investigaciones de la UE
CORDIS
CORDIS Web 30th anniversary CORDIS Web 30th anniversary

Fair predictions in health

Descripción del proyecto

Consideraciones éticas del aprendizaje automático en la asistencia sanitaria

Una quinta parte de la población europea sufre algún tipo de discapacidad. La Unión Europea se ha comprometido a mejorar la situación social y económica de estas personas. También es importante asegurar que tengan acceso a la cultura, como consumidores o contribuyentes. El aprendizaje automático se utiliza cada vez más en la atención médica para mejorar el diagnóstico, las opciones terapéuticas y la eficacia del sistema sanitario. Sin embargo, los modelos de dicho aprendizaje utilizan información recopilada a lo largo de los años y excluyen partes de la población que experimentan discriminación social, racial o por razones de género, lo cual provoca una falta de equidad en los modelos de predicción y plantea cuestiones éticas. En el proyecto FPH, financiado con fondos europeos, se determinarán las teorías éticas relacionadas con la distribución de los recursos en la asistencia sanitaria y se vincularán con un aprendizaje automático justo. Se examinará el modo de concebir los conceptos morales habituales en términos probabilísticos y si las alegaciones en cuanto a modelos justos en inteligencia artificial son robustas con respecto a las diferentes concepciones filosóficas de probabilidad, causalidad y perspectivas contrafactuales y demuestran la pertinencia de dichas concepciones filosóficas.

Objetivo

In clinical care, machine learning is progressively used to enhance diagnosis, therapy choice, and effectiveness of the health system. Because machine-learning models learn from historically gathered information, populations that have suffered past human and structural biases (e.g. unequal access to education or resources) — called protected groups — are susceptible to damage from inaccurate projections or resource allocations, reinforcing health inequalities. For example, racial and gender differences exist in the way clinical data are produced and these can be transferred as biases in the models. Several techniques of algorithmic fairness have been suggested in the literature on machine learning to ameliorate the performance of machine learning with respect to its fairness. The debate in statistics and machine learning has however failed to provide a principled approach for choosing concepts of bias, prejudice, discrimination, and fairness in predictive models, with a clear link to ethical theory discussed within philosophy.
The specific scientific objectives of this research project are:
O1: ethical theory: mapping the ethical theories that are relevant for the allocation of resources in health care and draw connections with the literature in fair machine learning
O2: probabilistic ethics: understand how standard moral concepts such as responsibility, merit, need, talent, equality, and benefit can be understood in probabilistic terms
O3: epistemology of causality: understand if current claims made by counterfactual and causal models of fairness in AI are robust with respect to different philosophical understandings of probability, causality, and counterfactuals
O4: application: to show the relevance these philosophical ideas by applying them to a limited number of paradigmatic cases of the application of predictive algorithms in health care.

Ámbito científico (EuroSciVoc)

CORDIS clasifica los proyectos con EuroSciVoc, una taxonomía plurilingüe de ámbitos científicos, mediante un proceso semiautomático basado en técnicas de procesamiento del lenguaje natural.

Para utilizar esta función, debe iniciar sesión o registrarse

Coordinador

POLITECNICO DI MILANO
Aportación neta de la UEn
€ 183 473,28
Dirección
PIAZZA LEONARDO DA VINCI 32
20133 Milano
Italia

Ver en el mapa

Región
Nord-Ovest Lombardia Milano
Tipo de actividad
Higher or Secondary Education Establishments
Enlaces
Coste total
€ 183 473,28