Logo

28. Jahrestagung der Deutschen Gesellschaft für Audiologie e. V.

Deutsche Gesellschaft für Audiologie e. V.
04.-06.03.2026
Oldenburg

Meeting Abstract

Erprobung eines Kamerasystems zur externen Erfassung von Augen- und Kopfbewegungen bei Lokalisationsmessungen (easy2VERIFY Projekt)

Katharina Schmidt - Jade Hochschule Oldenburg, Institut für Hörtechnik und Audiologie, Oldenburg, Deutschland; paezo – Pädaudiologie in Oldenburg, Oldenburg, Deutschland
Ulrik Kowalk - Jade Hochschule Oldenburg, Institut für Hörtechnik und Audiologie, Oldenburg, Deutschland
Sabine Hochmuth - Universitätsklinik für HNO-Heilkunde, CvO Universität, Oldenburg, Deutschland
Karsten Plotz - Jade Hochschule Oldenburg, Institut für Hörtechnik und Audiologie, Oldenburg, Deutschland; paezo – Pädaudiologie in Oldenburg, Oldenburg, Deutschland

Text

Fragestellung: Die Augen- und Kopfbewegungen können die auditive Verarbeitung positiv beeinflussen und erleichtern, insbesondere in komplexen Hörsituationen. Das auditive System arbeitet oft mit dem visuellen System zusammen. Werden Augen- und Kopfbewegungen zu einer Schallquelle hin synchronisiert, können räumliche Situationen besser verarbeitet und die Lokalisationsfähigkeit der einzelnen Quellen erhöht werden. Aus diesem Grund ist es wichtig, Informationen über die Bewegungen von Augen u. Kopf innerhalb der Messung ermitteln zu können. So wurde u.a. bereits von Gilman et al. 1979 die Kopfbewegung bei Lokalisationsmessungen mittels einer punktuellen Lichtquelle, welche auf dem Kopf der Person befestigt wurde, anhand von Videoaufzeichnungen analysiert. Mit einem ähnlichen Prinzip wurden in den letzten Jahren regelmäßig Studien von verschiedenen Arbeitsgruppen durchgeführt. Für die Kopfbewegung wurde ein Headtracker auf dem Kopf der Personen positioniert und für die Erhebung der Augenbewegungen kam oft ein Eyetracker, welcher in einer Brille integriert war, zum Einsatz ([1], [2]). Hingegen sind Erfassungen der Bewegungen mit einem System, bei dem keine Sensoren direkt am Körper der Person angebracht werden müssen, eher selten über kommerzielle Geräte umsetzbar. So verwendeten Eklöf et al. 2022 in ihrer Studie ein speziell angefertigtes Eyetrackingsystem, welches im Abstand von 1,2 m funktioniert [3]. Jedoch ist ein Trackingsystem wünschenswert, mit dem sowohl Augen- als auch Kopfbewegungen bei unterschiedlichsten Bedingungen aus einem Abstand über externe Elemente zeitlich erhoben und für audiologische Messungen verwendet werden können.

Methoden: Im BMFTR geförderten Projekt „easy2VERIFY“ (FKZ: 13GW0635C) wurde ein externes Kamerasystem entwickelt, mit dem Kopf- und Augenbewegungen aus einem Abstand von 1 m erfasst und analysiert werden können. Dabei lag der Fokus auf einer niedrigschwelligen Datenerhebung. Im Aufbau wurden drei USB-Kameras (Typ: Svpro 1080P) im vorderen Halbkreis an den Positionen ±45° und 0° mit einem Abstand von 1m zum Bezugspunkt angeordnet. Zur Erkennung von Gesichtern und speziell der Augenpartie wurde ein Convolutional Neural Network (CNN) mit eigens aufgenommenen Bilddaten (in Graustufen) trainiert. Dabei wird nur der Input der jeweiligen Kamera verwendet, in dessen Öffnungswinkel der größte Anteil des Gesichtsfeldes liegt. Mit dem System können die Bewegungen bezüglich Azimuth- und Elevationswinkel über den zeitlichen Verlauf hinweg erhoben werden. Dies kann auch für unterschiedliche Bedingungen erfolgen wie z.B. mit und ohne Brille, bei optimalen und eher dunkleren Lichtverhältnissen.

Ergebnisse: Zum aktuellen Zeitpunkt ist die Evaluation des Kamerasystems noch nicht abgeschlossen. Es sind Untersuchungen geplant, in dem bei Lokalisationsmessungen die Reaktionszeiten und die Kopf- und Augenbewegungen der teilnehmenden Person erfasst werden. Erste Ergebnisse dieser Studie werden auf der Tagung präsentiert.


References

[1] Lertpoompunya A, Ozmeral EJ, Higgins NC, Eddins DA. Head-orienting behaviors during simultaneous speech detection and localization. Front Psychol. 2024 Sep 17;15:1425972. DOI: 10.3389/fpsyg.2024.1425972
[2] Alemu RZ, Papsin BC, Harrison RV, Blakeman A, Gordon KA. Head and Eye Movements Reveal Compensatory Strategies for Acute Binaural Deficits During Sound Localization. Trends Hear. 2024 Jan-Dec;28:23312165231217910. DOI: 10.1177/23312165231217910
[3] Eklöf M, Asp F, Berninger E. The Development of Sound Localization Latency in Infants and Young Children with Normal Hearing. Trends Hear. 2022 Jan-Dec;26:23312165221088398. DOI: 10.1177/23312165221088398