Skip to main content
European Commission logo
italiano italiano
CORDIS - Risultati della ricerca dell’UE
CORDIS

Neural Bases of Multimodal Integration in Children

Article Category

Article available in the following languages:

Come possiamo capire cosa comprendono i bambini?

Un progetto finanziato dall’UE si è prefisso di scoprire come e se i bambini possono comprendere ed elaborare i gesti e le parole di una persona che si sta rivolgendo a loro.

Società icon Società

I bambini apprendono il linguaggio in un contesto multimodale, dato che chi si prende cura di loro vi interagisce mediante diverse modalità quali sguardi, gesti e parole. Veicolando spesso informazioni rilevanti per le parole che li accompagnano, i gesti sono per i bambini un importante mezzo di comprensione dei messaggi dei parlanti. Il compito in questione Ciò ha portato alla realizzazione di ChildGesture, un progetto di ricerca intrapreso con il sostegno del programma Marie Curie che ha combinato gli sforzi del dott. Kazuki Sekine, un borsista post-dottorato Marie Skłodowska-Curie, della prof.ssa Asli Ozyurek, coordinatrice del progetto, e del Multimodal Language and Cognition Lab. ChildGesture ha cercato di capire se i bambini sono in grado di comprendere ed elaborare gesti e parole loro rivolti e come lo fanno. La prof.ssa Ozyurek spiega: «Abbiamo cercato di risolvere il quesito non solo tramite le risposte comportamentali dei bambini, ma anche esaminando, per la prima volta, l’elaborazione neurocognitiva delle informazioni semantiche provenienti da gesti e parole mediante tecniche di neuroimaging come l’elettroencefalografia (EEG)». Mentre i cervelli degli adulti mostrano determinate risposte, note come l’effetto N400, «vi è ancora una scarsa comprensione delle firme cerebrali relative all’integrazione semantica multimodale per i bambini», aggiunge la prof.ssa Ozyurek. Il progetto ha inoltre tentato di svelare, dal punto di vista comportamentale, se e come i bambini vengono aiutati dai gesti nel corso del loro processo di disambiguazione di parole in ambienti rumorosi. Scoperte fondamentali In primo luogo, sono state presentate a bambini olandesi di età compresa tra i 6 e i 7 anni singole e chiare parole d’azione e, contemporaneamente, gesti rappresentativi a loro corrispondenti o meno. Raffrontando le condizioni di corrispondenza a quelle di non corrispondenza è stato riscontrato il verificarsi dell’effetto N400, il che dimostra che i bambini integrano informazioni semantiche multimodali a livello neurale allo stesso modo degli adulti. «In un esperimento di follow-up abbiamo chiesto ai bambini se e come venivano aiutati da gesti rappresentativi nel corso del loro processo di disambiguazione di parole in ambienti rumorosi e abbiamo confrontato i risultati con quelli degli adulti», spiega la prof.ssa Ozyurek. Ai partecipanti sono state presentate parole d’azione con diversi livelli di rumore in tre condizioni (solo parole, parole e gesti e solo gesti) ed è stato loro chiesto di dire ciò che sentivano. Risultati inequivocabili hanno mostrato che il processo di disambiguazione degli adulti era migliore di quello dei bambini nelle condizioni in cui erano presenti solo parole (alto livello di rumore) e solo gesti; tuttavia, in condizioni di simultanea presenza di parole e gesti, i bambini hanno raggiunto i livelli degli adulti per quanto riguarda la disambiguazione del parlato disturbato. «Pertanto, in condizioni di ascolto sfavorevoli i bambini “hanno bisogno” di un apporto multimodale per raggiungere i livelli degli adulti per quanto concerne la comprensione unimodale del parlato», riferisce la prof.ssa Ozyurek. Inoltre, sia gli adulti sia i bambini sono stati più veloci a fornire le proprie risposte in condizioni multimodali, per cui i gesti potrebbero implicare l’esistenza di un legame tra i sistemi di comprensione e quelli di produzione. Passi successivi Il progetto sta attualmente effettuando registrazioni di EEG in bambini che ascoltano parlato disturbato con o senza gesti. «In tal modo, acquisiremo informazioni su dove e in che modo il cervello dei bambini assomigli a quello degli adulti nella combinazione di segnali multimodali e anche su come le informazioni unimodali o multimodali vengano da loro conservate in memoria dopo aver guardato i video», spiega la prof.ssa Ozyurek. ChildGesture intende inoltre replicare i propri studi con bambini che utilizzano impianti cocleari, i quali richiedono un apporto visivo maggiore rispetto ai loro coetanei non affetti da handicap uditivi, soprattutto in contesti rumorosi. Un altro passo da compiere è condurre questo studio con bambini più piccoli al fine di accertare se l’integrazione multimodale sia una caratteristica del nostro cervello sviluppata nel corso della vita o una propensione innata. Infine, il team ha in programma anche di replicare questo studio con bambini bilingue. «È possibile trovare ulteriori informazioni sui nostri studi sul sito web “Brain Imaging of Multimodal Communication in Development” », aggiunge la prof.ssa Ozyurek.

Parole chiave

ChildGesture, bambini, gesti, parlato, multimodale, EEG, linguaggio, elaborazione neurocognitiva, elettroencefalografia, unimodale

Scopri altri articoli nello stesso settore di applicazione