CORDIS - Risultati della ricerca dell’UE
CORDIS

Human interaction and the evolution of spoken accent

Article Category

Article available in the following languages:

Come l’interazione umana fa evolvere la pronuncia dell’accento

Gli accenti utilizzati dagli esseri umani sono incredibilmente variegati, ma non sappiamo esattamente come si formino. Per saperne di più, un nuovo progetto si è avvalso della modellizzazione computerizzata e delle scansioni di risonanza magnetica per immagini.

Società icon Società

Se un gruppo di persone venisse abbandonato su un’isola deserta per diversi anni, darebbe origine al proprio specifico «accento isolano»: è un fenomeno che conosciamo, ma attualmente non disponiamo dei dati necessari per comprenderlo appieno. Nel progetto InterAccent, finanziato dal Consiglio europeo della ricerca, i ricercatori coinvolti hanno studiato come le interazioni casuali e locali tra persone, che generano gli accenti gruppo-specifici, possano spingere gli schemi sonori delle lingue tra stati stabili e variabili. Il gruppo di ricerca ha cercato di colmare la lacuna nei dati raccogliendo registrazioni della lingua parlata di bambini provenienti da contesti rurali e urbani, di lingue che differiscono notevolmente nella loro struttura sonora e di gruppi isolati di adulti che vivono insieme per vari mesi durante un inverno antartico. «Il tipo di dati ottimale che abbiamo registrato per InterAccent è quello longitudinale, ossia registrazioni vocali provenienti dalle stesse persone in vari momenti temporali», spiega Jonathan Harrington, docente di fonetica e trattamento digitale dei segnali vocali presso l’Università Ludwig Maximilian di Monaco e coordinatore del progetto InterAccent.

Acquisizione della lingua parlata ed elaborazione di un modello computerizzato

Il progetto comprendeva registrazioni ripetute di «invernanti»: scienziati e personale ausiliario del British Antarctic Survey che hanno trascorso diversi mesi in Antartide, lontano dal proprio ambiente domestico. «Lo studio condotto in Antartide è stato il primo a confermare che un gruppo di persone, conviventi anche per un periodo di tre mesi, inizia a presentare la condivisione di un accento comune», osserva Harrington. Inoltre, il team ha registrato parole isolate pronunciate da alcuni bambini delle scuole elementari in Albania e nella Germania meridionale con cadenza annuale per un periodo di quattro anni, e ha rilevato anche il movimento della lingua con gli ultrasuoni. Utilizzando questi dati, i ricercatori hanno creato un modello computerizzato in grado di analizzare i suoni registrati per poi replicarli ed esaminarli al fine di definire l’andamento degli accenti nel tempo. Il modello utilizza coppie di «agenti» software basati su soggetti reali che parlano tra loro. Il modello forma quindi un collegamento tra l’imitazione, ritenuta fondamentale per la formazione della cadenza, e il cambiamento di suono. «Diversi esperimenti condotti negli ultimi 20 anni hanno dimostrato che durante la conversazione ci imitiamo leggermente a vicenda, anche senza rendercene conto», spiega Harrington. «E proprio questa imitazione subliminale è alla base della variazione sonora o della formazione di nuove inflessioni.»

Scansioni degli organi vocali in movimento

In collaborazione con l’Istituto Max Planck di Gottinga, il progetto InterAccent si è avvalso anche della risonanza magnetica per immagini (RMI) in tempo reale per studiare il modo in cui due accenti a contatto per un periodo di tempo prolungato si attirano tra loro in determinate direzioni. Il team ha analizzato la nasalizzazione delle vocali dell’inglese americano e dell’inglese britannico meridionale standard, dimostrando per la prima volta che gli americani nasalizzano le loro vocali più di quanto non facciano gli inglesi. «Abbiamo dimostrato che l’inglese americano si è avvicinato a una lingua come il francese, in cui la vocale è del tutto nasale e la consonante nasale successiva è stata completamente persa», aggiunge Harrington.

Impatto scientifico

Il quadro computazionale potrebbe servire a comprendere meglio come la migrazione e l’esposizione ad altre accenti stiano cambiando il suono delle nostre lingue. Potrebbe anche essere impiegato in vari ambiti scientifici per capire come, nel lontano passato, la lingua parlata sia stata influenzata da interazioni quali il clima. «L’utilizzo principale sarà quello di prevedere i cambiamenti dei suoni vocali che si verificano quando due dialetti entrano in contatto tra loro o quando una persona migra in una nuova area dialettale», dichiara.

Parole chiave

InterAccent, accento, lingua, parlato, parola, scientifico, computerizzato, modello, vocale, organi

Scopri altri articoli nello stesso settore di applicazione