Skip to main content
Weiter zur Homepage der Europäischen Kommission (öffnet in neuem Fenster)
Deutsch Deutsch
CORDIS - Forschungsergebnisse der EU
CORDIS
Inhalt archiviert am 2024-06-18
Listening in noise with older native and non-native speakers: The time-line for segregating speech from noise, real-time lexical processing of spoken-words, and the identification of verbal emotions

Article Category

Article available in the following languages:

Wie ältere Menschen Sprache trotz Hintergrundlärm verstehen

Eine Studie verglich bei älteren Muttersprachlern und Nicht-Muttersprachlern das Hörverständnis vor geräuschintensivem Hintergrund, was neue Daten zur lexikalischen Verarbeitung von Sprache in Echtzeit und Identifizierung verbal ausgedrückter Emotionen lieferte.

Um ein eigenständiges Leben zu führen, müssen ältere Menschen mit Angehörigen und Mitmenschen kommunizieren können. Eines der größten Probleme dabei ist offenbar, den Sprecher richtig zu verstehen. Für Hörer mit einer Zweitsprache ist dies noch um vieles schwieriger, was Isolation, Einsamkeit und Angstgefühle verstärken kann. Gefragt sind daher effektivere Kommunikationsstrategien, dem sich nun das EU-finanzierte Projekt OLDER LISTNERS (Listening in noise with older native and non-native speakers: The time-line for segregating speech from noise, real-time lexical processing of spoken-words, and the identification of verbal emotions) widmete. Ein Projektabschnitt untersuchte, wie lange es dauert, bis die Zielsprache aus Umgebungsgeräuschen herausgefiltert wird. Mit akustischen Masken wurden hierbei die Fähigkeiten jüngerer und älterer Erwachsener sowie Muttersprachlern und Nicht-Muttersprachlern verglichen. Dabei zeigte sich u.a. dass ältere Muttersprachler die durch die Rauschmaske verursachte Verzögerung beim Verständnis der Zielsprache auf ähnliche Weise ausgleichen wie junge Muttersprachler und Nicht-Muttersprachler. Ein weiterer Abschnitt untersuchte, wie lange es dauert, bis die Zielsprache von den Teilnehmern trotz Hintergrundgeräuschen erkannt werden kann. Hierzu wurde ein Paradigma entwickelt und ins Hebräische übersetzt. Die Teilnehmer sollten sich eine von vier gesprochenen Zahlen merken, während sie ein Bild mit dem gesprochenen Wort erkennen mussten. Dabei stellte sich heraus, dass die Unterscheidung zwischen den beiden phonologisch konkurrierenden Alternativen bei Geräuschstress schwieriger war als in stiller Umgebung, wenn die Worte in Ruhe gehört wurden. Schließlich befasste sich der dritte Teil mit der richtigen Erkennung von Emotionen in gesprochener Sprache, bei der es jeweils auf lexikalische Bedeutung und Tonfall ankam. Da dies im späteren Alter zunehmend schwieriger werden kann, wurden Tests durchgeführt, bei denen die Probanden gesprochene Sätze und vier verschiedene Emotionen hörten. Sie beurteilten jeden Satz auf vier Bewertungsskalen, jeweils bezogen auf die vier getesteten Emotionen. Dabei zeigte sich, dass Prosodie (nicht ans Phonem gekoppelte Eigenschaften von Sprache) und die Sprache selbst nicht einzeln gehört werden können. Auch für die jüngeren Erwachsenen war die prosodische Information dominanter. Die Ergebnisse wurden in Posterpräsentationen auf Konferenzen und öffentlich vorgestellt.

Mein Booklet 0 0