Skip to main content

Visually guided grasping and its effects on visual representations

Article Category

Article available in the folowing languages:

Un estudio descifra cómo nuestro encéfalo utiliza la vista para planificar agarres estables

En nuestras vidas diarias, nos agarramos y recogemos objetos sin tener que pensar demasiado. Por mucho que parezca algo trivial, supone una maniobra ardua desde el punto de vista computacional para los robots. Investigadores financiados con fondos europeos combinaron modelización computacional, neurociencia conductual y mediciones de la actividad encefálica para estudiar cómo nuestro encéfalo controla la coordinación ojo-mano para planificar con éxito los movimientos de agarre.

Investigación fundamental
Salud

Nuestro sentido de la vista guía nuestras acciones hacia los objetos. Por ejemplo, si se le pide a alguien que pase la sal, en primer lugar, la buscaría en la mesa y, a continuación, la agarraría con su mano. La forma en que nuestro encéfalo logra este comportamiento aparentemente trivial está todavía lejos de comprenderse. Para cualquier acción deseada, ya sea remover una taza de café o dirigir un bolígrafo entre nuestros dedos pulgar e índice sobre una hoja de papel, movemos nuestros dedos de formas sutiles que nos permiten ejecutar agarres estables y cómodos. De algún modo, el encéfalo calcula qué agarres de entre todas las opciones posibles van a tener éxito realmente. «Comprender cómo utilizamos la vista para coger e interactuar eficazmente con objetos arbitrarios es una antigua búsqueda de la ciencia conductual. También supone un enorme reto computacional para los sistemas robóticos de vanguardia; parece que tienen dificultades a la hora de identificar agarres eficaces en cerca del 20 % de los casos», apunta Guido Maiello, coordinador del proyecto VisualGrasping, financiado a través del programa Marie Skłodowska-Curie.

Desvelar cómo el encéfalo combina diferentes reglas en un solo movimiento

«Nuestra hipótesis es que el encéfalo utiliza un conjunto de reglas para identificar los agarres eficaces. Estos deben basarse en la información acerca de la forma tridimensional del objeto, la orientación y la composición material», añade Maiello. Al colocar pequeños marcadores en las manos de voluntarios remunerados, los investigadores grabaron cómo estos movían sus manos al interactuar con objetos fabricados de diferentes materiales. Algunos objetos fueron impresos en 3D para crear formas complejas. El equipo combinó estas observaciones conductuales con modelos informáticos que podían predecir cómo los humanos agarrarían los objetos. Sus simulaciones parecieron coincidir perfectamente con los resultados experimentales.

Descifrar cómo el encéfalo ve el mundo en 3D

Los investigadores fueron un paso más allá y trataron de determinar cómo el encéfalo reconstruye la forma tridimensional del objeto a partir de las imágenes bidimensionales que llegan a nuestros ojos. Maiello afirma: «La tercera dimensión que los humanos perciben con su vista proviene de la combinación que el encéfalo hace de imágenes dispares (lado izquierdo y lado derecho) en un todo y que es un fenómeno denominado estereopsis. Sin embargo, la estructura de nuestra retina y las capacidades de procesamiento de la información de nuestro encéfalo conducen a reconstrucciones imperfectas de nuestro entorno tridimensional». Para seguir estudiando estas limitaciones, los investigadores pidieron a los participantes que viesen imágenes estéreo e informasen sobre de la profundidad percibida. Se descubrió que los resultados eran consistentes con los métodos de modelización teóricos que intentaban describir cómo nuestro encéfalo extrae y procesa la profundidad a partir de imágenes bidimensionales. Maiello explica: «Nuestros modelos sofisticados podrían ser los cimientos para la construcción de una teoría completa de cómo los humanos utilizan la vista para guiar las capacidades motoras de la mano. En concreto, aspiramos a arrojar más luz sobre cómo los estímulos visuales recogidos y convertidos en señales electroquímicas en la retina se incorporan y procesan por la compleja red de células nerviosas en las cortezas visual y motora. Estas computaciones neuronales son las responsables de las órdenes motoras explícitas que gobiernan los movimientos finos de alcance y agarre». La información del proyecto sobre cómo los humanos utilizan la vista para planificar los agarres podría tener implicaciones de gran calado en diferentes aplicaciones de ingeniería, como en el diseño de accionadores robóticos más eficaces y tecnologías de realidad aumentada más inmersivas y fáciles de usar. En el ámbito de la medicina, podría ofrecer un impresionante grado de control en trastornos neurológicos y neurorrehabilitación y, aparentemente, ayudaría a desvelar los mecanismos de pérdida de visión.

Palabras clave

VisualGrasping, encéfalo, agarres, vista, ciencia conductual, modelización, accionadores robóticos, realidad aumentada, trastornos neurológicos

Descubra otros artículos del mismo campo de aplicación