Service Communautaire d'Information sur la Recherche et le Développement - CORDIS

Un pas de plus vers des robots qui manipulent les objets comme les humains

En matière de manipulation d'objets, les robots s'avèrent performants dans des environnements extrêmement contrôlés. Une initiative de l'UE s'est attachée à améliorer cette capacité pour les robots actuels.
Un pas de plus vers des robots qui manipulent les objets comme les humains
Le projet LIMOMAN (Developmental learning of internal models for robotic manipulation based on motor primitives and multisensory integration), financé par l'UE, a proposé un cadre général d'apprentissage et de contrôle dans des systèmes complexes, et mis au point une solution fonctionnelle de manipulation robotique.

Pour cela, l'équipe a ciblé trois aspects clés du contrôle moteur humain pouvant être combinés pour améliorer les performances robotiques: modèles internes, apprentissage développemental et intégration multisensorielle. Une grande partie du travail a été effectuée sur iCub, un robot humanoïde figurant parmi les plateformes robotiques les plus avancées pour les recherches sur la cognition.

Les partenaires du projet ont proposé un concept de modèle interne allant au-delà des architectures actuelles en intégrant adaptabilité, souplesse et évolutivité. Dans le but de coder la complexité motrice des mains robotisées, ils ont étudié des approches de synergie des mains basées sur des représentations compactes, et exploité le cadre des primitives motrices pour faciliter l'apprentissage par la démonstration.

L'équipe LIMOMAN a développé de nouveaux concepts de capteurs tactiles 3D sensibles et étudié des techniques bayésiennes dans le but d'intégrer différentes modalités sensorielles. Elle a confié à iCub une tâche complexe de manipulation d'objet.

Les chercheurs ont démontré qu'il est possible d'utiliser diverses techniques bayésiennes pour déterminer quels modèles internes aux robots correspondent aux différentes capacités sensorimotrices. Ces modèles peuvent servir à formuler des prévisions afin d'améliorer le contrôle du mouvement, la planification des actions et l'estimation de l'état. Ils ont examiné des stratégies consistant à combiner efficacement différents canaux sensoriels de façon à coder à la fois les mouvements du robot et les structures sensorimotrices à l'aide de représentations compactes.

Les membres de l'équipe ont aussi étudié le concept d'affordances et ainsi pu mettre au point des modèles informatiques de perception visuelle. Ces modèles extraient les informations les plus importantes du flux de données visuelles et prévoient ainsi les effets des actions pour planifier celles qui suivront. Ils ont par ailleurs proposé une technologie innovante de perception tactile centrée sur des caractéristiques fondamentales de la manipulation d'objets à partir des interactions du robot dans un environnement réel non structuré.

Le projet LIMOMAN a montré le chemin à suivre pour parvenir à combiner efficacement des démonstrations humaines à l'apprentissage autonome du robot pour obtenir des résultats optimaux dans le cadre d'opérations de manipulation complexes.

Informations connexes

Mots-clés

Robots, LIMOMAN, apprentissage développemental, modèles internes, manipulation robotique