Skip to main content
European Commission logo
français français
CORDIS - Résultats de la recherche de l’UE
CORDIS

Human interaction and the evolution of spoken accent

Article Category

Article available in the following languages:

Comment l’interaction humaine fait-elle évoluer l’accent parlé

Les accents humains sont incroyablement variés, mais nous ne savons pas encore comment ils se forment exactement. Un nouveau projet a utilisé la modélisation informatique et l’imagerie par résonance magnétique pour en savoir plus.

Société icon Société

Si un groupe d’individus se retrouvait sur une île déserte pendant plusieurs années, ils finiraient par développer un «accent insulaire» qui leur serait propre. Nous connaissons ce phénomène, mais nous manquons actuellement des données nécessaires pour le comprendre complètement. Dans le cadre du projet InterAccent, financé par le Conseil européen de la recherche, des chercheurs ont étudié la manière dont des interactions locales et aléatoires entre individus conduisant à des accents parlés peuvent faire passer les structures sonores des langues d’un état stable à un état changeant. L’équipe a cherché à combler le manque de données en se procurant des enregistrements de la langue parlée d’enfants en milieu rural et urbain, de langues présentant des différences marquées dans leur structure sonore et de groupes d’adultes isolés ensemble pendant plusieurs mois au cours d’un hiver antarctique. «Le type de données optimal que nous avons enregistré pour InterAccent est longitudinal, c’est-à-dire qu’il s’agit d’enregistrements de la parole des mêmes individus à plusieurs moments», explique Jonathan Harrington, professeur de phonétique et de traitement numérique de la parole à l’université Ludwig Maximilian de Munich et coordinateur du projet InterAccent.

Recherche de mots parlés et construction d’un modèle informatique

Le projet comprenait des enregistrements des «hiverneurs»: des scientifiques et du personnel de soutien du Groupe d’études britanniques de l’Antarctique qui ont passé plusieurs mois coupés de leur environnement en Antarctique. «L’étude sur l’Antarctique a été la première à confirmer qu’un groupe de locuteurs, même sur une période de trois mois, commence à montrer un accent commun partagé», fait remarquer Jonathan Harrington. L’équipe a également enregistré des mots isolés d’enfants d’écoles primaires en Albanie et dans le sud de l’Allemagne à des intervalles annuels sur une période de quatre ans. Ils ont également enregistré les mouvements de la langue à l’aide d’échographies. Grâce à ces données, les chercheurs ont construit un modèle de calcul qui analyse les sons enregistrés, puis les reproduit et les examine afin de déterminer comment les accents se modifient au fil du temps. Le modèle utilise des paires «d’agents» logiciels basés sur des locuteurs réels qui communiquent entre eux. Le modèle établit ensuite un lien entre l’imitation — que l’on pense être un élément clé de la formation des accents — et la modification des sons. «Plusieurs expériences menées au cours des vingt dernières années ont montré que nous nous imitons les uns les autres de manière subtile dans la conversation, même sans nous en rendre compte», explique Jonathan Harrington. «C’est justement cette imitation subliminale qui est à la base de la modification des sons ou de la formation de nouveaux accents.»

Examens des organes vocaux en mouvement

En collaboration avec l’Institut Max Planck de Göttingen, le projet InterAccent a également utilisé l’imagerie par résonance magnétique (IRM) en temps réel pour étudier la façon dont deux accents en contact pendant une période prolongée s’attirent mutuellement dans certaines directions. L’équipe a analysé la nasalisation des voyelles en anglais américain et en anglais britannique standard du sud, et a démontré pour la première fois que les Américains nasalisent davantage leurs voyelles que les Anglais britanniques. «Nous avons montré que l’anglais américain s’est rapproché d’une langue comme le français, dans laquelle la voyelle est entièrement nasale et la consonne nasale suivante a été complètement perdue», ajoute Jonathan Harrington.

Répercussions scientifiques

Le cadre informatique pourrait être utilisé pour mieux comprendre comment les migrations et l’exposition à d’autres accents modifient la sonorité de nos langues. Il pourrait également être employé dans toute une série de domaines scientifiques pour comprendre comment les interactions dans un passé lointain, telles que le climat, ont affecté la langue parlée. «L’utilisation la plus importante consistera à prédire les changements de sons vocaux qui se produisent lorsque deux dialectes entrent en contact ou lorsqu’un locuteur migre vers une nouvelle zone dialectale», explique-t-il.

Mots‑clés

InterAccent, accent, langue, parlé, mot, scientifique, informatique, modèle, vocal, organes

Découvrir d’autres articles du même domaine d’application