European Commission logo
italiano italiano
CORDIS - Risultati della ricerca dell’UE
CORDIS
Contenuto archiviato il 2024-05-30

Prediction in Speech Perception and Spoken Word Recognition

Article Category

Article available in the following languages:

L’elaborazione della lingua parlata

I meccanismi che permettono agli esseri umani di elaborare il linguaggio parlato sono ancora poco conosciuti. Un progetto finanziato dall’UE ha approfondito il modo in cui le persone elaborano il discorso continuo.

Salute icon Salute

I ricercatori, in collaborazione con il Centro basco per la cognizione, il cervello e il linguaggio (BCBL), hanno lanciato il progetto PSPSWR (“Prediction in speech perception and spoken word recognition”), con l’obiettivo di chiarire i meccanismi su cui si basa la comprensione del linguaggio. Il team PSPSWR è partito dall’ipotesi che quando le persone ascoltano la lingua parlata, fanno delle previsioni sul contenuto basandosi sulla conoscenza della propria lingua madre e ha sviluppato una serie di esperimenti basati sulla lingua basca. Nel primo studio si chiedeva ai partecipanti di ascoltare alcune pseudoparole in basco e di rispondere quando sentivano un suono sibilante, simile a una “s”, che dovevano monitorare. I tre criteri erano corrispondenza (stesso punto di articolazione), non corrispondenza (diverso punto di articolazione) e controllo (non sibilante). I ricercatori hanno scoperto che gli elementi di non corrispondenza richiedevano tempi di reazione più lunghi rispetto a quelli di corrispondenza e controllo, un’indicazione del fatto che chi ascolta è sensibile a questi schemi complessi e utilizza la propria conoscenza dei sistemi fonologici per cogliere il segnale in tempo reale. In una fase di follow-up, ai partecipanti sono state presentate altre pseudoparole mentre l’attività cerebrale veniva registrata tramite elettroencefalografia (EEG). I risultati indicano che la corteccia uditiva è sensibile a questi schemi complessi, poiché gli elementi di non corrispondenza hanno ottenuto la risposta maggiore solo 75 ms dopo l’ascolto del relativo suono sibilante nei siti degli elettrodi fronto-centrali. In breve, la serie di studi svolta dal progetto in corso indica che il cervello elabora le informazioni in modo diverso quando può predire il discorso futuro rispetto a quando ciò non è possibile e getta nuova luce sulle conoscenze di cui disponiamo in relazione ai meccanismi predittivi della comprensione del linguaggio.

Parole chiave

Lingua parlata, contenuto verbale, percezione del parlato, riconoscimento del parlato, pseudoparole, articolazione, suoni di distrazione, attività cerebrale, meccanismi predittivi

Scopri altri articoli nello stesso settore di applicazione