Skip to main content
Aller à la page d’accueil de la Commission européenne (s’ouvre dans une nouvelle fenêtre)
français français
CORDIS - Résultats de la recherche de l’UE
CORDIS
How does the brain organize sounds into auditory scenes?

Article Category

Article available in the following languages:

Comment le cerveau organise les sons?

En mettant en lumière certains des mécanismes qui permettent au cerveau de distinguer et de regrouper les sons, des chercheurs ont ouvert la voie à la création d’appareils auditifs avancés.

Notre capacité à entendre est remarquable. Réfléchissez par exemple à la façon dont nous pouvons suivre une conversation même dans un pub bruyant. «Cela est possible parce que le cerveau est capable de séparer les éléments de fréquence et de les regrouper de manière appropriée afin que les sons provenant de la même source soient perceptuellement distincts de ceux provenant d’autres sources», explique Jennifer Bizley(s’ouvre dans une nouvelle fenêtre), professeure de neurosciences auditives à l’University College de Londres(s’ouvre dans une nouvelle fenêtre). «Cette capacité nous permet essentiellement de bloquer le bruit de fond et de nous concentrer sur la conversation.» Hélas, cette capacité a tendance à diminuer avec l’âge. Ne connaissant pas vraiment les mécanismes qui permettent une telle écoute focalisée, les scientifiques n’ont pas été en mesure de la recréer avec la technologie numérique. «Comprendre comment le cerveau sépare les sons pourrait favoriser la conception de dispositifs capables d’entendre aussi bien qu’une jeune personne ou d’aides auditives capables de restaurer l’audition d’un auditeur vieillissant», ajoute Jennifer Bizley. C’est précisément l’objectif du projet SOUNDSCENE(s’ouvre dans une nouvelle fenêtre), financé par l’UE.

Comment humains et animaux entendent

Le projet, qui a reçu le soutien du Conseil européen de la recherche(s’ouvre dans une nouvelle fenêtre), a soumis une série de tâches d’écoute à des humains et des animaux. Sur la base de ces travaux, les chercheurs ont découvert que les humains sont particulièrement aptes à estimer les propriétés statistiques des sons d’arrière plan. Ils ont également démontré qu’un auditeur peut améliorer sa capacité à distinguer une conversation dans le bruit en seulement 100 millisecondes après avoir entendu un nouveau son de fond. Le projet a également étudié la manière dont le cerveau d’un animal estime les statistiques d’une source sonore et regroupe les éléments de fréquence en une source unique. S’appuyant sur un modèle animal, les chercheurs ont identifié que le cortex auditif (une région clé du cerveau pour le traitement du son) est essentiel pour écouter dans le bruit. «Nous avons fourni la première preuve qu’un animal non humain peut extraire des régularités temporelles pour regrouper des éléments sonores, et en nous appuyant sur des approches de modélisation, nous avons pu démontrer que, lorsque des contraintes de mémoire supplémentaires sont imposées, les données animales ressemblent beaucoup aux données humaines», explique Jennifer Bizley, chercheuse principale du projet. Les chercheurs de SOUNDSCENE ont également développé trois paradigmes comportementaux de discrimination de la parole dans leur modèle animal, ainsi que des approches d’apprentissage automatique pionnières qu’ils peuvent utiliser pour donner un sens aux riches ensembles de données du projet.

Des appareils d’écoute et des prothèses auditives de nouvelle génération

Les travaux et les ressources du projet SOUNDSCENE ont aidé les scientifiques à mieux comprendre les mécanismes qui permettent au cerveau de distinguer et de regrouper les sons. En particulier, sa démonstration que les animaux non humains peuvent extraire des régularités statistiques de manière similaire aux humains ouvre la voie à une meilleur compréhension du circuit neuronal sous-jacent. «Compte tenu du vieillissement de la population et de la récente découverte que la perte auditive pourrait être facteur de risque potentiellement modifiable de démence, la compréhension plus approfondie des mécanismes neuronaux sous-jacents qu’apporte nos travaux est d’une grande valeur pour le développement de dispositifs d’écoute automatique de nouvelle génération et d’appareils auditifs », conclut Jennifer Bizley.

Mon livret 0 0