Skip to main content
European Commission logo
español español
CORDIS - Resultados de investigaciones de la UE
CORDIS

Neural Bases of Multimodal Integration in Children

Article Category

Article available in the following languages:

¿Cómo podemos saber lo que los niños realmente entienden?

Un proyecto financiado con fondos europeos se propuso analizar hasta qué punto los niños entienden y procesan el habla y los gestos cuando alguien intenta comunicarles algo.

Sociedad icon Sociedad

Los niños aprenden el idioma de muchas maneras diferentes, ya que las personas que los cuidan interactúan con ellos a través de distintos métodos de comunicación, como las miradas, los gestos y el habla. Los gestos suelen contener información relacionada con el habla a la que acompañan, así que son un medio importante para que los niños entiendan el mensaje que se les desea transmitir. El trabajo durante el proyecto Esto llevó a la creación de ChildGesture, un proyecto de investigación llevado a cabo con el apoyo del programa Marie Curie. En el proyecto, participaron el doctor Kazuki Sekine, un investigador posdoctoral beneficiario de una beca del programa Marie Skłodowska-Curie, la profesora Asli Ozyurek, coordinadora del proyecto y el Laboratorio de Cognición y Lenguaje Multimodal. ChildGesture investigó si los niños eran capaces de entender y procesar los gestos y el habla, así como su manera de hacerlo. La profesora Ozyurek explica: «Nuestro objetivo no era determinar la respuesta simplemente con base en las respuestas conductuales del niño, sino examinando también, y por primera vez, el procesamiento neurocognitivo de la información semántica contenida en los gestos y el habla, y usando para ello técnicas de neuroimagenología como la electroencefalografía (EEG)». Aunque en el cerebro de los adultos aparecen determinadas respuestas, conocidas como el efecto N400, según Ozyurek «aún desconocemos las características distintivas en el cerebro para la integración semántica multimodal en los niños». El proyecto también se propuso descubrir, de manera conductual, si los niños aprovechan los gestos para comprender mejor el habla estridente, y de qué modo lo hacen. Descubrimientos importantes En primer lugar, los investigadores usaron palabras sencillas que describían una acción junto con gestos coincidentes y no coincidentes delante de niños de 6 y 7 años en los Países Bajos; mientras tanto, registraban sus EEG. Al comparar las condiciones de coincidencia y no coincidencia encontraron un efecto N400, lo que demostraba que los niños eran capaces de integrar la información semántica multimodal al mismo nivel neuronal que los adultos. «A raíz de este experimento, realizamos otro en el que quisimos ver si los niños utilizan los gestos para comprender mejor el habla estridente, cómo lo hacen y en qué difieren de los adultos», detalla la profesora Ozyurek. Se presentó delante de los participantes una serie de palabras que describían una acción con diferentes niveles de sonido y en tres condiciones (solo mediante el habla, habla con gestos y solo de manera visual), y se les pidió que explicaran lo que habían oído. Los resultados de precisión mostraron que los adultos eran más capaces que los niños de entender cuando el mensaje se presentaba solo mediante el habla (en condiciones degradadas) y solo por medios visuales. Sin embargo, en la comunicación con gestos y habla, los niños alcanzaron niveles adultos de comunicación degradada. «Por lo tanto, en condiciones auditivas adversas, los niños necesitan un entrada multimodal para alcanzar niveles adultos de comprensión unimodal del habla», aclara Ozyurek. Además, tanto los adultos como los niños daban la respuesta de manera mucho más rápida en condiciones multimodales. Así pues, los gestos podrían aportar una conexión entre los sistemas de producción y comprensión. Los siguientes pasos Actualmente, el proyecto está registrando las EEG de niños al escuchar habla degradada con y sin gestos. «Esto nos aportará información sobre las diferencias entre el cerebro infantil y adulto a la hora de combinar señales multimodales, y sobre su manera de guardar la información unimodal o multimodal en su memoria tras ver los vídeos», añade la profesora Ozyurek. ChildGesture también desea repetir sus estudios con niños que utilizan implantes cocleares y que necesitan una mayor cantidad de información visual que los que no tienen ningún trastorno auditivo, sobre todo en entornos muy ruidosos. Otro paso para el futuro consiste en realizar este estudio con niños más pequeños, a fin de determinar si la integración multimodal es un rasgo que se desarrolla o una característica innata de nuestro cerebro. Por último, el equipo también tiene el objetivo de repetir el estudio con niños bilingües. «Hay más información sobre nuestro trabajo en el sitio web Imagenología encefálica de la comunicación multimodal en el desarrollo », concluye Ozyurek.

Palabras clave

ChildGesture, niños, gestos, habla, multimodal, EEG, lenguaje, procesamiento neurocognitivo, electroencefalografía, unimodal

Descubra otros artículos del mismo campo de aplicación