L’elaborazione della lingua parlata
I ricercatori, in collaborazione con il Centro basco per la cognizione, il cervello e il linguaggio (BCBL), hanno lanciato il progetto PSPSWR (“Prediction in speech perception and spoken word recognition”), con l’obiettivo di chiarire i meccanismi su cui si basa la comprensione del linguaggio. Il team PSPSWR è partito dall’ipotesi che quando le persone ascoltano la lingua parlata, fanno delle previsioni sul contenuto basandosi sulla conoscenza della propria lingua madre e ha sviluppato una serie di esperimenti basati sulla lingua basca. Nel primo studio si chiedeva ai partecipanti di ascoltare alcune pseudoparole in basco e di rispondere quando sentivano un suono sibilante, simile a una “s”, che dovevano monitorare. I tre criteri erano corrispondenza (stesso punto di articolazione), non corrispondenza (diverso punto di articolazione) e controllo (non sibilante). I ricercatori hanno scoperto che gli elementi di non corrispondenza richiedevano tempi di reazione più lunghi rispetto a quelli di corrispondenza e controllo, un’indicazione del fatto che chi ascolta è sensibile a questi schemi complessi e utilizza la propria conoscenza dei sistemi fonologici per cogliere il segnale in tempo reale. In una fase di follow-up, ai partecipanti sono state presentate altre pseudoparole mentre l’attività cerebrale veniva registrata tramite elettroencefalografia (EEG). I risultati indicano che la corteccia uditiva è sensibile a questi schemi complessi, poiché gli elementi di non corrispondenza hanno ottenuto la risposta maggiore solo 75 ms dopo l’ascolto del relativo suono sibilante nei siti degli elettrodi fronto-centrali. In breve, la serie di studi svolta dal progetto in corso indica che il cervello elabora le informazioni in modo diverso quando può predire il discorso futuro rispetto a quando ciò non è possibile e getta nuova luce sulle conoscenze di cui disponiamo in relazione ai meccanismi predittivi della comprensione del linguaggio.