Wspólnotowy Serwis Informacyjny Badan i Rozwoju - CORDIS

Narzędzia wizyjne do noszenia w celu lepszego monitorowania zadań samoopieki pacjentów

Pracownicy służby zdrowia w coraz większym stopniu wykorzystują technologię jako wspomaganie w monitorowaniu czynności życia codziennego, w szczególności u osób starszych i niepełnosprawnych. Inicjatywa unijna polegała na wykorzystaniu technologii opartej na kamerach do noszenia na ciele, aby usprawnić ten proces.
Narzędzia wizyjne do noszenia w celu lepszego monitorowania zadań samoopieki pacjentów
Pracownicy kliniczni obserwują i oceniają pacjentów w trakcie zadań, wymagających manipulacji dłońmi na obiektach. To pozwala na postawienie diagnozy i ocenę stanu pacjenta. Egocentryczne systemy wizyjne (z perspektywy pierwszoosobowej) z kamerami mocowanymi na ciele pacjenta są uznawane za optymalne narzędzie do monitorowania i oceny czynności codziennych. Ta usprawniająca technologia pozwala na długookresowe monitorowanie i obiecuje zarejestrować pulę danych o czynnościach pacjenta, dorównującą informacjom z całej sieci kamer.

Mając to na uwadze, w ramach finansowanego ze środków unijnych projektu EGOVISION4HEALTH (Assessing activities of daily living from a wearable RGB-D camera for in-home health care applications) badano nowe egocentryczne komputerowe techniki wizyjne, aby zapewnić pracownikom służby zdrowia automatyczną ocenę zdolności pacjentów do manipulowania obiektami i wykonywania czynności codziennych.

Partnerzy projektowi zastosowali kamery głębokości RGB-D jako nowe urządzenie do noszenia na ciele. Przeanalizowali manipulację obiektami i wykonywanie czynności codziennych za pomocą szczegółowych modeli 3D dłoni, górnej części ciała oraz całego ciała.

W szczególności, naukowcy wypracowali nową, opartą na komputerowym systemie wizyjnym, metodę szacowania w czasie rzeczywistym pozycji 3D rąk i dłoni pacjenta na podstawie obrazu z zamocowanej na klatce piersiowej kamery głębokości. Następnie, badali funkcjonalne manipulacje obiektowe podczas wykonywania czynności codziennych, rozpatrując zagadnienie przewidywania punktu styku i siły na podstawie wskazówek percepcyjnych.

Na koniec, zespół EGOVISION4HEALTH poradził sobie z bardziej złożonym problemem oszacowania pozycji 3D całego ciała w obrazach RGB, osiągając znakomite wyniki. Sztucznie wzmocniono zbiór danych z prawdziwych obrazów za pomocą obrazów syntetycznych, pokazując, że konwolucyjne sieci neuronowe mogą się uczyć na sztucznych obrazach. Opracowany przez zespół kompletny klasyfikator konwolucyjnych sieci neuronowych, służący do określanie pozycji w 3D, przewyższa najnowocześniejsze rozwiązania w środowisku kontrolowanym - właśnie pod względem możliwości szacowania pozycji w 3D.

W projekcie EGOVISION4HEALTH zaproponowano wykorzystanie kamery RGB-D do noszenia na ciele i poczyniono postępy w wiedzy dotyczącej wykrywania dłoni i obiektów w obrazach rejestrowanych z perspektywy pierwszoosobowej. Pracownicy służby zdrowia, tacy jak lekarze medycyny pracy, rehabilitanci i terapeuci geriatryczni zyskają szansę lepszej oceny zdolności funkcjonalnych i ograniczeń swych pacjentów w zakresie wykonywania czynności życia codziennego.

Powiązane informacje

Tematy

Life Sciences

Słowa kluczowe

Technologia do noszenia, czynności życia codziennego, projekt EGOVISION4HEALTH, kamera RGB-D, zastosowania w służbie zdrowia
Śledź nas na: RSS Facebook Twitter YouTube Zarządzany przez Urząd Publikacji UE W górę