Forschungs- & Entwicklungsinformationsdienst der Gemeinschaft - CORDIS

Der menschenähnlichen Manipulation von Objekten durch Roboter einen Schritt näher

Was die Manipulation von Objekten angeht, sind Roboter unter sehr kontrollierten Bedingungen erfolgreich. Eine EU-Initiative machte sich daran, diese Fähigkeit bei den Robotern von heute zu verbessern.
Der menschenähnlichen Manipulation von Objekten durch  Roboter einen Schritt näher
Im Rahmen des EU-finanzierten Projekts LIMOMAN (Developmental learning of internal models for robotic manipulation based on motor primitives and multisensory integration) wurde ein allgemeiner Framework für das Lernen und die Steuerung in komplexen Systemen vorgeschlagen und eine funktionierende Lösung für die robotische Manipulation ausgearbeitet.

Zur Erreichung der Ziele war LIMOMAN auf drei zentrale Aspekte der motorischen Steuerung beim Menschen ausgerichtet, die sich zur Optimierung der robotischen Leistung nutzen lassen: Interne Modelle, entwicklungsbasiertes Lernen und multisensorische Integration. Der Großteil der Arbeit wurde an iCub durchgeführt, einem humanoiden Roboter, der zu den fortschrittlichsten robotischen Plattformen im Bereich der Kognitionsforschung zählt.

Die Projektpartner schlugen das Konzept eines internen Modells vor, das durch die Integration von Anpassungsfähigkeit, Flexibilität und Skalierbarkeit über die bestehenden Architekturen hinausgeht. Es wurden Handsynergieansätze erforscht, um die motorische Komplexität von Roboterhänden mit kompakten Repräsentationen zu kodieren und der Framework zu Bewegungsprimitiven wurde genutzt, um das Lernen anhand von Demonstrationen zu vereinfachen.

Das LIMOMAN-Team entwickelte neue Konzepte für taktile 3D-Sensoren und untersuchte bayesianische Techniken, um unterschiedliche sensorische Modalitäten zu integrieren. iCub wurde in eine komplexe Objektmanipulationsaufgabe miteinbezogen.

Forscher demonstrierten, dass verschiedene bayesianische Techniken erfolgreich angewandt werden können, um interne Robotermodelle zu erlernen, die unterschiedlichen sensomotorischen Fähigkeiten entsprechen. Diese Modelle können zur Formulierung von Prognosen verwendet werden, welche die Bewegungssteuerung, Handlungsplanung und Zustandseinschätzung verbessern. Es wurden Strategien für die effiziente Kombination unterschiedlicher sensorischer Kanäle sowie für die Kodierung robotischer Bewegungen und sensomotorischer Strukturen mit kompakten Repräsentationen erforscht.

Die Teammitglieder untersuchten zudem das Affordanzkonzept. Dies führte zu Rechenmodellen für die visuelle Wahrnehmung. Die Modelle extrahieren die wichtigsten Informationen aus dem Strom visueller Daten und machen Prognosen zu den Auswirkungen der Handlungen, die für die Handlungsplanung genutzt werden können. Es wurde darüber hinaus eine innovative Technologie für die taktile Sensorik vorgeschlagen, das ausgehend von der Roboterinteraktion in einer realen unstrukturierten Umgebung auf grundlegende Merkmale der Objektmanipulation ausgerichtet ist.

LIMOMAN ebnete den Weg für eine effektive Kombination menschlicher Demonstrationen mit robotischem autonomem Lernen zur optimalen Ausführung komplexer Manipulationshandlungen.

Verwandte Informationen

Schlüsselwörter

Roboter, LIMOMAN, entwicklungsbasiertes Lernen, interne Modelle, robotische Manipulation
Folgen Sie uns auf: RSS Facebook Twitter YouTube Verwaltet vom Amt für Veröffentlichungen der EU Nach oben