La manipolazione degli oggetti da parte dei robot si avvicina sempre di più a quella umana La manipolazione degli oggetti da parte dei robot rappresenta un’operazione efficace in condizioni altamente controllate. Un’iniziativa finanziata dall’UE ha tentato di migliorare tale abilità per i robot odierni. Economia digitale Ricerca di base © Alexandre José Malheiro Bernardino Il progetto LIMOMAN (Developmental learning of internal models for robotic manipulation based on motor primitives and multisensory integration), finanziato dall’UE, ha delineato un quadro generale per l’apprendimento e il controllo in sistemi complessi, ideando una soluzione efficace per la manipolazione robotica. Per realizzare i suoi obiettivi, LIMOMAN ha concentrato i propri sforzi su tre principali aspetti del controllo motorio umano che, una volta combinati, potrebbero condurre a un miglioramento delle prestazioni dei robot: modelli interni, apprendimento evolutivo e integrazione multisensoriale. Gran parte dei lavori è stata eseguita su iCub, un robot umanoide che rappresenta una delle più avanzate piattaforme robotiche per la ricerca sulla conoscenza. I partner del progetto hanno proposto un’idea di modello interno che supera le architetture esistenti integrando adattabilità, flessibilità e scalabilità. Sono stati esaminati approcci sinergici per la codifica della complessità motoria delle mani dei robot con rappresentazioni compatte ed è stato utilizzato il quadro di primitive motorie allo scopo di facilitare l’apprendimento in base alle dimostrazioni. Il team LIMOMAN ha elaborato nuovi concetti di sensori tattili virtuali tridimensionali ed esplorato tecniche bayesiane allo scopo di integrare varie modalità sensoriali. iCub è stato coinvolto in una complessa attività di manipolazione degli oggetti. I ricercatori hanno dimostrato la possibilità di utilizzare con successo varie tecniche bayesiane ai fini dell’apprendimento dei modelli interni robotici che garantiscono diverse capacità sensomotorie. Tali modelli consentono di formulare previsioni che migliorano il controllo del movimento, la pianificazione delle azioni e la stima dello stato. Sono state esplorate strategie che miravano a una combinazione efficiente di vari canali sensoriali e alla codifica sia dei movimenti dei robot sia delle strutture sensomotorie con rappresentazioni compatte. I membri del team hanno anche analizzato il concetto di “affordance”, che ha condotto all’elaborazione di modelli computazionali della percezione visiva. Questi strumenti consentono di estrarre le informazioni più rilevanti dal flusso di dati visivi e di elaborare previsioni sugli effetti delle azioni da utilizzare per un’eventuale pianificazione. È stata inoltre proposta una nuova tecnologia per il rilevamento tattile incentrata sulle caratteristiche fondamentali della manipolazione degli oggetti basate sull’interazione dei robot in ambienti reali non strutturati. LIMOMAN ha avviato un filone di ricerca basato su una combinazione efficace di dimostrazioni umane e di apprendimento autonomo robotico allo scopo di ottenere prestazioni ottimali nell’ambito di azioni di manipolazione complesse. Parole chiave Robot, LIMOMAN, apprendimento evolutivo, modelli interni, manipolazione robotica