Servizio Comunitario di Informazione in materia di Ricerca e Sviluppo - CORDIS

Dispositivi di visione indossabili per un migliore monitoraggio delle attività quotidiane di cura personale dei pazienti

I professionisti sanitari fanno sempre più ricorso alla tecnologia assistiva per monitorare le attività quotidiane (activities of daily living, ADL), in particolare per gli anziani e i disabili. Un’iniziativa dell’UE ha presentato una tecnologia basata su videocamere indossabili che promette interessanti miglioramenti in questo settore.
Dispositivi di visione indossabili per un migliore monitoraggio delle attività quotidiane di cura personale dei pazienti
I medici osservano e valutano i pazienti che svolgono interazioni quotidiane mano-oggetto a fini di diagnosi e valutazione. I sistemi di visione egocentrici, cioè in prima persona, dotati di videocamere applicate ai pazienti sono considerati uno strumento ottimale per il monitoraggio delle ADL. Questa tecnologia permette il monitoraggio a lungo termine e l’acquisizione di tutte le informazioni desiderate sulle attività dei pazienti come farebbe un’intera rete di telecamere di sorveglianza.

In vista di questo obiettivo, il progetto EGOVISION4HEALTH (Assessing activities of daily living from a wearable RGB-D camera for in-home health care applications), finanziato dall’UE, ha esplorato nuove tecniche di visione computerizzata egocentrica per fornire automaticamente ai professionisti sanitari una valutazione della capacità dei pazienti di manipolare gli oggetti e di svolgere le attività ADL.

I partner del progetto hanno adottato le videocamere con sensore di profondità (RGB-D) come nuovo dispositivo indossabile e hanno analizzato la manipolazione degli oggetti e le ADL utilizzando dettagliati modelli 3D della mano, della parte superiore del corpo e del corpo intero.

In particolare, hanno sviluppato un nuovo metodo di visione computerizzato che stima in tempo reale la posa 3D delle braccia e delle mani di un individuo da una videocamera di profondità installata sul petto. Hanno quindi analizzato le manipolazioni degli oggetti funzionali durante le ADL, studiando il problema della previsione del contatto e della forza in base agli indizi percettivi.

Il team EGOVISION4HEALTH, infine, è riuscito ad affrontare il più complesso problema della stima della posa 3D del corpo intero nelle immagini RGB, ottenendo risultati eccellenti. Aumentando artificialmente un dataset di immagini reali con nuove immagini sintetiche, ha mostrato inoltre che le reti neurali convoluzionali (Convolutional neural networks, CNN) possono essere addestrate sulle immagini artificiali. Il classificatore CNN end-to-end del team per la stima della posa 3D fornisce risultati superiori anche rispetto ai dati più avanzati per quanto riguarda la posa 3D in ambienti controllati.

Il consorzio EGOVISION4HEALTH ha proposto l’utilizzo di videocamere RGB-D indossabili e ha migliorato le conoscenze attuali sul rilevamento della mano e dell’oggetto nella vista in prima persona. I medici e i terapisti occupazionali, geriatrici e della riabilitazione potranno avvalersi di questi risultati per migliorare la valutazione della capacità o incapacità funzionale dei pazienti di svolgere attività ADL.

Informazioni correlate

Argomenti

Life Sciences

Keywords

Dispositivi indossabili, attività della vita quotidiana, EGOVISION4HEALTH, videocamera RGB-D, applicazioni sanitarie
Numero di registrazione: 200140 / Ultimo aggiornamento: 2017-06-29