Skip to main content
European Commission logo
italiano italiano
CORDIS - Risultati della ricerca dell’UE
CORDIS

Visually guided grasping and its effects on visual representations

Article Category

Article available in the following languages:

La ricerca decifra il modo in cui il nostro cervello utilizza la visione per pianificare prese stabili

Nella vita di tutti i giorni, afferriamo e raccogliamo senza sforzo oggetti senza pensarci troppo. Per quanto banale possa sembrare, si tratta di una manovra faticosa a livello informatico per i robot. Alcuni ricercatori finanziati dall’UE hanno combinato modellizzazione computazionale, neuroscienze comportamentali e misurazioni dell’attività cerebrale per studiare come il nostro cervello controlla la coordinazione occhio-mano per pianificare movimenti di presa validi.

Ricerca di base icon Ricerca di base
Salute icon Salute

Il nostro senso della vista guida le nostre azioni verso gli oggetti. Ad esempio, se a qualcuno venisse chiesto di passare il sale, questi lo cercherebbe prima sulla tavola e poi lo afferrerebbe con la mano. Il modo in cui il nostro cervello raggiunge questo comportamento apparentemente banale è ancora lontano dall’essere compreso. Per qualsiasi azione desiderata, che sia mescolare una tazzina di caffè o dirigere una penna tra il pollice e l’indice su un pezzo di carta, muoviamo le dita in modi delicati che ci consentono di eseguire prese stabili e comode. Il cervello in qualche modo riesce a capire che tutte le scelte possibili effettivamente riusciranno. «La comprensione di come utilizziamo la visione per raccogliere e interagire efficacemente con oggetti arbitrari rappresenta un’annosa questione nella scienza comportamentale. È anche un’enorme sfida computazionale per i sistemi robotici all’avanguardia, i quali sembrano avere difficoltà a identificare visivamente prese efficaci in quasi il 20 % dei casi», osserva Guido Maiello, coordinatore del progetto VisualGrasping, finanziato dal programma Marie-Curie.

Sbloccare il modo in cui il cervello combina regole diverse in un unico movimento

«Abbiamo ipotizzato che il cervello utilizzi una serie di regole per identificare prese valide. Queste dovrebbero basarsi sulle informazioni sulla forma 3D, sull’orientamento e sulla composizione del materiale dell’oggetto», aggiunge Maiello. Collegando piccoli marcatori alle mani di volontari retribuiti, i ricercatori hanno registrato il modo in cui essi muovevano le mani mentre interagivano con oggetti fatti di materiali diversi. Alcuni oggetti sono stati stampati in 3D per creare forme complesse. Il team ha combinato queste osservazioni comportamentali con modelli informatici che potrebbero prevedere come gli esseri umani afferrerebbero gli oggetti. Le loro simulazioni sembravano corrispondere perfettamente ai risultati sperimentali.

Decodificare il modo in cui il cervello vede il mondo in 3D

Facendo un ulteriore passo avanti, i ricercatori hanno cercato di determinare in che modo il cervello ricostruisce la forma 3D di un oggetto dalle immagini 2D che raggiungono i nostri occhi. Maiello afferma: «La terza dimensione che gli esseri umani percepiscono con la loro visione proviene dal cervello che combina immagini disparate (dalla sinistra e dalla destra) in un insieme, un fenomeno denominato stereopsi (visione binoculare). Tuttavia, la struttura delle nostre retine e le capacità di elaborazione delle informazioni del nostro cervello portano a ricostruzioni imperfette del nostro ambiente 3D». Per indagare ulteriormente su queste limitazioni, i ricercatori hanno chiesto ai partecipanti di visualizzare immagini stereo e riferire sulla profondità percepita. I risultati sono stati trovati coerenti con gli approcci di modellizzazione teorica che tentano di descrivere il modo in cui il nostro cervello estrae ed elabora la profondità dalle immagini 2D. «I nostri modelli sofisticati potrebbero essere gli elementi costitutivi per la costruzione di una teoria completa di come gli esseri umani utilizzano la visione per guidare le capacità motorie della mano. In particolare, ci proponiamo di gettare ulteriore luce su come gli input visivi raccolti e convertiti in segnali elettrochimici nelle retine vengono alimentati ed elaborati dalla complessa rete di cellule nervose presenti nella corteccia visiva e in quella motoria. Questi calcoli neurali spiegano i comandi motori espliciti che governano i movimenti fini di raggiungere e afferrare», spiega Maiello. Le intuizioni del progetto su come gli esseri umani impiegano la visione per pianificare le prese potrebbero avere implicazioni di vasta portata per diverse applicazioni ingegneristiche, quali la progettazione di attuatori robotici più efficaci e di tecnologie di realtà aumentata più coinvolgenti e intuitive. Nel campo della medicina, potrebbero produrre un notevole grado di controllo nei disturbi neurologici e nella neuroriabilitazione e, a quanto pare, aiutare a scoprire i meccanismi di perdita della visione.

Parole chiave

VisualGrasping, cervello, prese, visione, scienze comportamentali, modellizzazione, attuatori robotici, realtà aumentata, disturbi neurologici

Scopri altri articoli nello stesso settore di applicazione