Der menschenähnlichen Manipulation von Objekten durch Roboter einen Schritt näher
Im Rahmen des EU-finanzierten Projekts LIMOMAN(öffnet in neuem Fenster) (Developmental learning of internal models for robotic manipulation based on motor primitives and multisensory integration) wurde ein allgemeiner Framework für das Lernen und die Steuerung in komplexen Systemen vorgeschlagen und eine funktionierende Lösung für die robotische Manipulation ausgearbeitet. Zur Erreichung der Ziele war LIMOMAN auf drei zentrale Aspekte der motorischen Steuerung beim Menschen ausgerichtet, die sich zur Optimierung der robotischen Leistung nutzen lassen: Interne Modelle, entwicklungsbasiertes Lernen und multisensorische Integration. Der Großteil der Arbeit wurde an iCub durchgeführt, einem humanoiden Roboter, der zu den fortschrittlichsten robotischen Plattformen im Bereich der Kognitionsforschung zählt. Die Projektpartner schlugen das Konzept eines internen Modells vor, das durch die Integration von Anpassungsfähigkeit, Flexibilität und Skalierbarkeit über die bestehenden Architekturen hinausgeht. Es wurden Handsynergieansätze erforscht, um die motorische Komplexität von Roboterhänden mit kompakten Repräsentationen zu kodieren und der Framework zu Bewegungsprimitiven wurde genutzt, um das Lernen anhand von Demonstrationen zu vereinfachen. Das LIMOMAN-Team entwickelte neue Konzepte für taktile 3D-Sensoren und untersuchte bayesianische Techniken, um unterschiedliche sensorische Modalitäten zu integrieren. iCub wurde in eine komplexe Objektmanipulationsaufgabe miteinbezogen. Forscher demonstrierten, dass verschiedene bayesianische Techniken erfolgreich angewandt werden können, um interne Robotermodelle zu erlernen, die unterschiedlichen sensomotorischen Fähigkeiten entsprechen. Diese Modelle können zur Formulierung von Prognosen verwendet werden, welche die Bewegungssteuerung, Handlungsplanung und Zustandseinschätzung verbessern. Es wurden Strategien für die effiziente Kombination unterschiedlicher sensorischer Kanäle sowie für die Kodierung robotischer Bewegungen und sensomotorischer Strukturen mit kompakten Repräsentationen erforscht. Die Teammitglieder untersuchten zudem das Affordanzkonzept. Dies führte zu Rechenmodellen für die visuelle Wahrnehmung. Die Modelle extrahieren die wichtigsten Informationen aus dem Strom visueller Daten und machen Prognosen zu den Auswirkungen der Handlungen, die für die Handlungsplanung genutzt werden können. Es wurde darüber hinaus eine innovative Technologie für die taktile Sensorik vorgeschlagen, das ausgehend von der Roboterinteraktion in einer realen unstrukturierten Umgebung auf grundlegende Merkmale der Objektmanipulation ausgerichtet ist. LIMOMAN ebnete den Weg für eine effektive Kombination menschlicher Demonstrationen mit robotischem autonomem Lernen zur optimalen Ausführung komplexer Manipulationshandlungen.