¿Has oído eso sobre cómo organiza el cerebro los sonidos?
Nuestra capacidad auditiva es sorprendente. Por ejemplo, consideremos cómo es posible mantener una conversación incluso en un bar con mucho ruido. «Esto es posible porque el cerebro puede separar los elementos de frecuencia y agruparlos de manera adecuada, de modo que los sonidos que provienen de la misma fuente sean perceptualmente distintos de los que provienen de otras», explica Jennifer Bizley(se abrirá en una nueva ventana), catedrática de Neurociencia de la Audición en University College de Londres(se abrirá en una nueva ventana). «En la práctica, esta capacidad nos permite ignorar el ruido de fondo y concentrarnos en la conversación que estamos manteniendo». Por desgracia, esta capacidad es algo que se suele ir perdiendo a medida que se envejece. Como los científicos desconocen los mecanismos que permiten una audición tan focalizada, no han podido reproducirla con tecnología digital. «Descubrir cómo el cerebro separa sonidos concurrentes podría facilitar el desarrollo de máquinas que oigan tan bien como una persona joven o de ayudas auditivas que mejoren la audición de personas mayores», agrega Bizley. El objetivo del proyecto europeo SOUNDSCENE(se abrirá en una nueva ventana) era lograr exactamente esto.
Cómo oyen las personas y los animales
En el proyecto, financiado por el Consejo Europeo de Investigación(se abrirá en una nueva ventana), se desarrollaron diferentes tareas de audición para que tanto seres humanos como animales pudieran realizarlas. Gracias a ellas, los investigadores descubrieron que los seres humanos son particularmente hábiles para estimar las propiedades estadísticas de los sonidos de fondo. Además, demostraron que un oyente puede mejorar su capacidad para discriminar el habla en medio de ruido en apenas unos cientos de milisegundos tras escuchar un nuevo sonido de fondo. En el proyecto también se estudió cómo el cerebro de un animal estima las estadísticas de una fuente de sonido y agrupa los elementos de frecuencia en una sola fuente. Los investigadores emplearon un modelo animal e identificaron que la corteza auditiva, el área principal del cerebro responsable de procesar sonidos, desempeña un papel clave para escuchar en entornos ruidosos. «Proporcionamos las primeras pruebas de que un animal no humano puede extraer regularidades temporales para agrupar elementos sonoros, y mediante el empleo de técnicas de modelización logramos mostrar que, cuando se imponen restricciones de memoria adicionales, los datos obtenidos en hurones se parecen mucho a los de los seres humanos», explica Bizley, investigadora principal del proyecto. Los investigadores de SOUNDSCENE también desarrollaron tres paradigmas conductuales para la discriminación del habla en su modelo animal, así como nuevos métodos de aprendizaje automático que se pueden utilizar para analizar e interpretar los amplios conjuntos de datos generados en el proyecto.
Dispositivos de audición y audífonos de nueva generación
La investigación y los recursos del proyecto SOUNDSCENE han ampliado la comprensión de los científicos sobre los mecanismos que ayudan al cerebro a distinguir y agrupar sonidos. En particular, la demostración de que los animales no humanos pueden extraer regularidades estadísticas de manera similar a los humanos allana el camino para entender cómo lo logra el circuito neuronal subyacente. «Teniendo en cuenta el envejecimiento poblacional de la sociedad y el reciente descubrimiento de la pérdida de audición como un posible factor de riesgo modificable para la demencia, la mejor comprensión de los mecanismos neuronales subyacentes que aporta nuestra investigación tiene un gran valor para el desarrollo de nuevos dispositivos de audición y audífonos », concluye Bizley.