Servizio Comunitario di Informazione in materia di Ricerca e Sviluppo - CORDIS

Il modo in cui localizziamo gli arti migliora le interfacce dei computer

La possibilità di rilevare la posizione, l’orientamento, il movimento del corpo e delle sue parti è conosciuta come propriocezione e ci permette di conoscere la posizione precisa degli arti. Un’iniziativa finanziata dall’UE ha studiato tali fenomeni al fine di migliorare l’interazione tra persone e computer.
Il modo in cui localizziamo gli arti migliora le interfacce dei computer
Grazie alla propriocezione, si può facilmente descrivere la posizione della nostra mano sinistra o indicarla con la destra, anche a occhi chiusi. Inoltre, non abbiamo mai la sensazione che la nostra mano sia in due posti contemporaneamente, sebbene elaboriamo allo stesso tempo le informazioni visive e propriocettive circa la sua posizione attuale.

Il progetto LOCANDMOTION (Sensory integration for limb localization and action), finanziato dall’UE, ha studiato il modo in cui la visione e la propriocezione si combinano per generare stime relative alle posizioni di mano e obiettivo. L’iniziativa ha testato l’ipotesi che la propriocezione resiste al riallineamento visivo e che l’allineamento intersensoriale non è necessario per un’azione efficace.

Lo studio della letteratura e degli esperimenti rilevanti ha dimostrato che la propriocezione può non essere molto utile per identificare la posizione della mano rispetto a un obiettivo. Infatti, movimenti multipli eseguiti al buio possono comportare che la mano si allontani dal bersaglio senza rendersene conto.

I ricercatori hanno dimostrato che tale deriva è dovuta alla forte convinzione da parte di un individuo di trovare un bersaglio, probabilmente a causa dell’esperienza quotidiana con movimenti accurati in piena visione. Gli errori di movimento si accumulano fino a quando l’errore di propriocezione contrasta la fiducia nel comando motorio (il quale indica alla mano dove andare).

Uno studio separato dove i partecipanti sono stati invitati a segnalare la posizione percepita della loro mano non visibile ha rivelato che le aspettative circa la capacità dei comandi motori possono ignorare l’input sensoriale. Tale studio e uno precedente hanno coinvolto l’identificazione della posizione relativa alla mano stazionaria dopo il movimento.

Altri due studi si sono concentrati sulla localizzazione durante il movimento. I risultati del primo studio hanno dimostrato che, se l’obiettivo era visivo, l’informazione visiva risultava essere più importante per il controllo in linea, ma se l’obiettivo era propriocettivo i partecipanti si sono affidati maggiormente sulla propriocezione per il controllo in linea. Il secondo studio ha descritto un modello per spiegare il motivo per cui le persone tendono a sovrastimare la posizione della propria mano non visibile durante il movimento e perché sottovalutano tale percezione durante il raggiungimento di un obiettivo.

Il progetto LOCANDMOTION ha offerto una maggiore comprensione sull’utilizzo della propriocezione, la quale non è stata compresa tanto quanto la visione. Tale conoscenza di integrazione sensoriale contribuirà a migliorare il modo in cui le persone si adattano a realtà virtuale, realtà mista e sistemi di teleoperazione, offrendo progettazioni migliori per interfacce uomo-computer.

Informazioni correlate

Argomenti

Life Sciences

Keywords

Interfacce per computer, propriocezione, integrazione sensoriale, localizzazione degli arti, comando motorio