European Commission logo
italiano italiano
CORDIS - Risultati della ricerca dell’UE
CORDIS

Sensory integration for limb localization and action

Article Category

Article available in the following languages:

Il modo in cui localizziamo gli arti migliora le interfacce dei computer

La possibilità di rilevare la posizione, l’orientamento, il movimento del corpo e delle sue parti è conosciuta come propriocezione e ci permette di conoscere la posizione precisa degli arti. Un’iniziativa finanziata dall’UE ha studiato tali fenomeni al fine di migliorare l’interazione tra persone e computer.

Economia digitale icon Economia digitale

Grazie alla propriocezione, si può facilmente descrivere la posizione della nostra mano sinistra o indicarla con la destra, anche a occhi chiusi. Inoltre, non abbiamo mai la sensazione che la nostra mano sia in due posti contemporaneamente, sebbene elaboriamo allo stesso tempo le informazioni visive e propriocettive circa la sua posizione attuale. Il progetto LOCANDMOTION (Sensory integration for limb localization and action), finanziato dall’UE, ha studiato il modo in cui la visione e la propriocezione si combinano per generare stime relative alle posizioni di mano e obiettivo. L’iniziativa ha testato l’ipotesi che la propriocezione resiste al riallineamento visivo e che l’allineamento intersensoriale non è necessario per un’azione efficace. Lo studio della letteratura e degli esperimenti rilevanti ha dimostrato che la propriocezione può non essere molto utile per identificare la posizione della mano rispetto a un obiettivo. Infatti, movimenti multipli eseguiti al buio possono comportare che la mano si allontani dal bersaglio senza rendersene conto. I ricercatori hanno dimostrato che tale deriva è dovuta alla forte convinzione da parte di un individuo di trovare un bersaglio, probabilmente a causa dell’esperienza quotidiana con movimenti accurati in piena visione. Gli errori di movimento si accumulano fino a quando l’errore di propriocezione contrasta la fiducia nel comando motorio (il quale indica alla mano dove andare). Uno studio separato dove i partecipanti sono stati invitati a segnalare la posizione percepita della loro mano non visibile ha rivelato che le aspettative circa la capacità dei comandi motori possono ignorare l’input sensoriale. Tale studio e uno precedente hanno coinvolto l’identificazione della posizione relativa alla mano stazionaria dopo il movimento. Altri due studi si sono concentrati sulla localizzazione durante il movimento. I risultati del primo studio hanno dimostrato che, se l’obiettivo era visivo, l’informazione visiva risultava essere più importante per il controllo in linea, ma se l’obiettivo era propriocettivo i partecipanti si sono affidati maggiormente sulla propriocezione per il controllo in linea. Il secondo studio ha descritto un modello per spiegare il motivo per cui le persone tendono a sovrastimare la posizione della propria mano non visibile durante il movimento e perché sottovalutano tale percezione durante il raggiungimento di un obiettivo. Il progetto LOCANDMOTION ha offerto una maggiore comprensione sull’utilizzo della propriocezione, la quale non è stata compresa tanto quanto la visione. Tale conoscenza di integrazione sensoriale contribuirà a migliorare il modo in cui le persone si adattano a realtà virtuale, realtà mista e sistemi di teleoperazione, offrendo progettazioni migliori per interfacce uomo-computer.

Parole chiave

Interfacce per computer, propriocezione, integrazione sensoriale, localizzazione degli arti, comando motorio

Scopri altri articoli nello stesso settore di applicazione