European Commission logo
polski polski
CORDIS - Wyniki badań wspieranych przez UE
CORDIS

Assessing Activities of Daily Living from a Wearable RGB-D Camera for In-Home Health Care Applications

Article Category

Article available in the following languages:

Narzędzia wizyjne do noszenia w celu lepszego monitorowania zadań samoopieki pacjentów

Pracownicy służby zdrowia w coraz większym stopniu wykorzystują technologię jako wspomaganie w monitorowaniu czynności życia codziennego, w szczególności u osób starszych i niepełnosprawnych. Inicjatywa unijna polegała na wykorzystaniu technologii opartej na kamerach do noszenia na ciele, aby usprawnić ten proces.

Gospodarka cyfrowa icon Gospodarka cyfrowa
Społeczeństwo icon Społeczeństwo
Zdrowie icon Zdrowie

Pracownicy kliniczni obserwują i oceniają pacjentów w trakcie zadań, wymagających manipulacji dłońmi na obiektach. To pozwala na postawienie diagnozy i ocenę stanu pacjenta. Egocentryczne systemy wizyjne (z perspektywy pierwszoosobowej) z kamerami mocowanymi na ciele pacjenta są uznawane za optymalne narzędzie do monitorowania i oceny czynności codziennych. Ta usprawniająca technologia pozwala na długookresowe monitorowanie i obiecuje zarejestrować pulę danych o czynnościach pacjenta, dorównującą informacjom z całej sieci kamer. Mając to na uwadze, w ramach finansowanego ze środków unijnych projektu EGOVISION4HEALTH (Assessing activities of daily living from a wearable RGB-D camera for in-home health care applications) badano nowe egocentryczne komputerowe techniki wizyjne, aby zapewnić pracownikom służby zdrowia automatyczną ocenę zdolności pacjentów do manipulowania obiektami i wykonywania czynności codziennych. Partnerzy projektowi zastosowali kamery głębokości RGB-D jako nowe urządzenie do noszenia na ciele. Przeanalizowali manipulację obiektami i wykonywanie czynności codziennych za pomocą szczegółowych modeli 3D dłoni, górnej części ciała oraz całego ciała. W szczególności, naukowcy wypracowali nową, opartą na komputerowym systemie wizyjnym, metodę szacowania w czasie rzeczywistym pozycji 3D rąk i dłoni pacjenta na podstawie obrazu z zamocowanej na klatce piersiowej kamery głębokości. Następnie, badali funkcjonalne manipulacje obiektowe podczas wykonywania czynności codziennych, rozpatrując zagadnienie przewidywania punktu styku i siły na podstawie wskazówek percepcyjnych. Na koniec, zespół EGOVISION4HEALTH poradził sobie z bardziej złożonym problemem oszacowania pozycji 3D całego ciała w obrazach RGB, osiągając znakomite wyniki. Sztucznie wzmocniono zbiór danych z prawdziwych obrazów za pomocą obrazów syntetycznych, pokazując, że konwolucyjne sieci neuronowe mogą się uczyć na sztucznych obrazach. Opracowany przez zespół kompletny klasyfikator konwolucyjnych sieci neuronowych, służący do określanie pozycji w 3D, przewyższa najnowocześniejsze rozwiązania w środowisku kontrolowanym - właśnie pod względem możliwości szacowania pozycji w 3D. W projekcie EGOVISION4HEALTH zaproponowano wykorzystanie kamery RGB-D do noszenia na ciele i poczyniono postępy w wiedzy dotyczącej wykrywania dłoni i obiektów w obrazach rejestrowanych z perspektywy pierwszoosobowej. Pracownicy służby zdrowia, tacy jak lekarze medycyny pracy, rehabilitanci i terapeuci geriatryczni zyskają szansę lepszej oceny zdolności funkcjonalnych i ograniczeń swych pacjentów w zakresie wykonywania czynności życia codziennego.

Słowa kluczowe

Technologia do noszenia, czynności życia codziennego, projekt EGOVISION4HEALTH, kamera RGB-D, zastosowania w służbie zdrowia

Znajdź inne artykuły w tej samej dziedzinie zastosowania