Logo

28. Jahrestagung der Deutschen Gesellschaft für Audiologie e. V.

Deutsche Gesellschaft für Audiologie e. V.
04.-06.03.2026
Oldenburg

Meeting Abstract

Vorhersage der individuellen Sprachverständlichkeit von Schwerhörenden in komplexen akustischen Umgebungen

Merle Gerken - Carl von Ossietzky Universität Oldenburg, Medizinische Physik, Oldenburg, Deutschland
Birger Kollmeier - Carl von Ossietzky Universität Oldenburg, Medizinische Physik, Oldenburg, Deutschland
Anna Warzybok-Oetjen - Carl von Ossietzky Universität Oldenburg, Medizinische Physik, Oldenburg, Deutschland

Text

Fragestellung: In der audiologischen Diagnostik sowie bei der Überprüfung des Hörgerätebenefits wird Sprachverständlichkeit standardmäßig unter stark vereinfachten Bedingungen gemessen. Diese Bedingungen unterscheiden sich von realen Hörsituationen, die in der Regel durch Nachhall und komplexere Anordnungen von Schallquellen geprägt sind. Eine neue Datenbasis untersucht verschiedene audiologische Messungen für gleichaltrige, normalhörende und (versorgte) schwerhörende Personen, darunter die Sprachverständlichkeit unter Standardbedingungen (S0N0 und S0N90) sowie in komplexen akustischen Umgebungen (Wohnzimmer, Pub, U-Bahn-Station). Auditorische Modelle gewinnen in der Hörforschung zunehmend an Bedeutung, da sie einen zeiteffizienten und systematischen Ansatz zur Bewertung des Hörvermögens bieten und dazu beitragen, das individuelle Hörvermögen besser zu verstehen.

Methoden: Um die Anwendbarkeit der modellbasierten Audiologie in komplexen akustischen Szenarien zu validieren und die für präzise individuelle Vorhersagen relevanten Individualisierungsstrategien zu identifizieren, wurden Sprachverständlichkeitsschwellen (SRTs) für normalhörende und schwerhörende Personen unter Verwendung des binauralen Simulation Framework for Auditory Discrimination Experiments (FADE, Schädler et al. [1]) vorhergesagt. Zur Erfassung interindividueller Variabilität wurde das Modell mit drei unterschiedlichen Individualisierungsansätzen auf die Probanden der Datenbasis angepasst. Dabei kombinierte jeder Ansatz das gemessene Audiogramm entweder mit einer generischen überschwelligen Verzerrungs-(D)-Komponente oder einer D-Komponente, die aus der individuellen mittleren Hörschwelle (PTA) oder aus den individuellen Ton-im-Rauschen-Schwellen (TIN) abgeleitet wurde.

Ergebnisse: FADE erzielt insgesamt eine gute Übereinstimmung mit den gemessenen SRTs sowohl unter Standard- als auch unter akustisch komplexen Bedingungen, was die Anwendbarkeit des Modells in realitätsnahen Szenarien unterstützt. Die Individualisierung der D-Komponente reduziert den Vorhersagefehler im Vergleich zur generischen D-Komponente. Dabei zeigt sich, dass die TIN-basierte Individualisierung die Modellgenauigkeit im Vergleich zur PTA-basierten Individualisierung weiter verbessert, obwohl hierfür ein höherer Messaufwand erforderlich ist.

Schlussfolgerungen: FADE kann die individuellen Sprachverständlichkeit in verschiedenen Umgebungen und bei verschiedenen Maskierungen gut abbilden und bietet eine potenzielle Anwendung in der modellbasierten Audiologie.

Der zugrundeliegende Datensatz wird im DGA-Beitrag Wagener et al. (2026) vorgestellt.

Gefördert durch die Deutsche Forschungsgemeinschaft (DFG), Projekt ID 352015383, SFB 1330 Projekt A5.


Literatur

[1] Schädler MR, Kranzusch P, Hauth C, Warzybok A. Simulating spatial speech recognition performance with an automatic-speech-recognition-based model. In: Proceedings of DAGA, Deutsche Gesellschaft für Akustik. 2020. p. 908-911.