Service Communautaire d'Information sur la Recherche et le Développement - CORDIS

La localisation des membres améliore les interfaces avec les ordinateurs

La capacité à déterminer l'emplacement, l'orientation et les mouvements du corps et de ses parties (le sens de proprioception) nous informe avec précision sur la position de nos membres. Un projet financé par l'UE a étudié ce phénomène afin d'améliorer l'interaction entre les gens et les ordinateurs.
La localisation des membres améliore les interfaces avec les ordinateurs
La proprioception nous permet par exemple de décrire la position de notre main gauche, ou de pointer vers elle avec notre main droite, même les yeux fermés. Mieux encore, nous n'avons jamais la sensation que cette main est à deux endroits à la fois, même si nous déterminons son emplacement à partir d'informations visuelles et proprioceptives.

Le projet LOCANDMOTION (Sensory integration for limb localization and action), financé par l'UE, a étudié comment la vision et la proprioception sont combinées pour estimer l'emplacement de la main et de sa cible. Il est parti de l'hypothèse que la proprioception résiste au réalignement visuel, et que l'alignement entre les sens n'est pas nécessaire pour que l'action soit efficace.

Une étude de la littérature et des expériences sur le sujet a montré que la proprioception pourrait ne pas être très utile pour déterminer la position de la main par rapport à la cible. De fait, des mouvements réalisés dans l'obscurité peuvent faire dévier la main de la cible, à l'insu du sujet.

Les chercheurs ont montré que cette dérive est due à la conviction des sujets qu'ils peuvent aisément trouver la cible, ce qui peut résulter de leur expérience quotidienne de mouvements exacts et bien coordonnés par la vision. Les erreurs dans les mouvements s'accumulent jusqu'à ce que l'erreur résultant de la proprioception réduise la confiance dans la commande motrice (qui déclenche les mouvements de la main).

Une étude séparée, où les participants devaient indiquer la position perçue de leur main cachée, a montré qu'ils s'attendaient à ce que les commandes motrices supplantent les informations sensorielles. Cette étude et la précédente consistaient à déterminer la position d'une main immobile, après un mouvement.

Deux autres études ont porté sur la localisation en mouvement. La première a montré que si la cible était visible, les informations visuelles étaient prédominantes pour le contrôle, mais si la cible était localisée par proprioception, les participants s'en remettaient davantage à ce sens pour contrôler leurs mouvements. La seconde étude a conduit à décrire un modèle expliquant pourquoi les gens ont tendance à surestimer la position de leur main cachée pendant un mouvement, et à la sous-estimer lorsqu'ils veulent atteindre une cible.

Le projet LOCANDMOTION a amélioré la compréhension de l'usage de la proprioception, par rapport à la vision, mieux comprise. Ces connaissances de l'intégration sensorielle contribueront à améliorer l'adaptation des gens à la réalité virtuelle, à la réalité mixte et aux systèmes de télé-opération, au service de meilleures interfaces entre l'homme et les ordinateurs.

Informations connexes

Thèmes

Life Sciences

Mots-clés

Interfaces d'ordinateurs, proprioception, intégration sensorielle, localisation des membres, commande motrice