Opis projektu
Sprawiedliwe algorytmy w krajowych systemach opieki zdrowotnej
Pomimo ogromnego potencjału i wielu przewidywanych korzyści wynikających z wykorzystania dużych zbiorów danych, algorytmów i sztucznej inteligencji w krajowych systemach opieki zdrowotnej, trudno zignorować obawy dotyczące etyki. Dotychczasowe badania zwykle koncentrowały się na zagadnieniach prawnych lub teoretycznych, nie zaś na kontekstach społeczno-kulturowych, w których systemy te są rozwijane i wykorzystywane. Zespół finansowanego ze środków Europejskiej Rady ds. Badań Naukowych projektu Health-AI zbada procesy decyzyjne osób pracujących ze sztuczną inteligencją w sześciu różnych systemach krajowych, aby lepiej zrozumieć, co kieruje osobami, które interweniują w procesy oparte na sztucznej inteligencji lub sprzeciwiają się ich rezultatom. Wykorzystując innowacyjne metody z dziedziny antropologii, badacze zamierzają opracować teorię dotyczącą czynników wpływających na etyczne wykorzystanie sztucznej inteligencji w systemach opieki zdrowotnej. Analizy przyczynią się do zestawienia wniosków w zakresie antropologii z wiedzą specjalistyczną twórców sztucznej inteligencji, decydentów odpowiedzialnych za ochronę zdrowia i przedstawicieli instytucji politycznych w celu dalszego rozwoju sprawiedliwej sztucznej inteligencji.
Cel
This project will study a multi-sited ethnography of a currently evolving revolution in global health systems: big data/AI-informed national health governance. With health data being considered countries future oil, public and scholarly concerns about algorithmic ethics rise. Research has long shown that datasets in AI (re)produce social biases, discriminate and limit personal autonomy. This literature, however, has merely focused on AI design and institutional frameworks, examining the subject through legal, technocratic and philosophical perspectives, whilst overlooking the socio-cultural context in which big data and AI systems are embedded, most particularly organizations in which human agents collaborate with AI. This is problematic, as frameworks for ethical AI currently consider human oversight crucial, assuming that humans will correct or resist AI when needed; while empirical evidence for this assumption is extremely thin. Very little is known about when and why people intervene or resist AI. Research done consists of single, mostly Western studies, making it impossible to generalize findings. The innovative force of our research is fourfold: 1) To empirically analyze decisive moments in which data-analysts follow or deviate AI: moments deeply impacting national health policies and individual human lives. 2) To do research in six national settings with various governmental frameworks and in different organizational contexts, enabling us to contrast findings, eventually leading to a theory on the contextual, organizational factors underlying ethical AI. 3) To use innovative anthropological methods of future-scenarioing, which will enrich the anthropological discipline by developing and finetuning future-focused research. 4) The research connects anthropological insights with the expertise of AI-developers, and partners with relevant health decisionmakers and policy-institutions, allowing to both analyze and contribute to fair AI.
Dziedzina nauki (EuroSciVoc)
Klasyfikacja projektów w serwisie CORDIS opiera się na wielojęzycznej taksonomii EuroSciVoc, obejmującej wszystkie dziedziny nauki, w oparciu o półautomatyczny proces bazujący na technikach przetwarzania języka naturalnego.
Klasyfikacja projektów w serwisie CORDIS opiera się na wielojęzycznej taksonomii EuroSciVoc, obejmującej wszystkie dziedziny nauki, w oparciu o półautomatyczny proces bazujący na technikach przetwarzania języka naturalnego.
Aby użyć tej funkcji, musisz się zalogować lub zarejestrować
Słowa kluczowe
Program(-y)
- HORIZON.1.1 - European Research Council (ERC) Main Programme
Temat(-y)
System finansowania
HORIZON-ERC - HORIZON ERC GrantsInstytucja przyjmująca
1012WX Amsterdam
Niderlandy