<?xml version="1.0" encoding="iso-8859-1" standalone="no"?>
<!DOCTYPE GmsArticle SYSTEM "http://www.egms.de/dtd/2.0.34/GmsArticle.dtd">
<GmsArticle xmlns:xlink="http://www.w3.org/1999/xlink">
  <MetaData>
    <Identifier>26dga133</Identifier>
    <IdentifierDoi>10.3205/26dga133</IdentifierDoi>
    <IdentifierUrn>urn:nbn:de:0183-26dga1335</IdentifierUrn>
    <ArticleType>Meeting Abstract</ArticleType>
    <TitleGroup>
      <Title language="de">Wenn Zuh&#246;ren sichtbar wird: Optischer Flow als objektiver Indikator f&#252;r H&#246;ranstrengung</Title>
    </TitleGroup>
    <CreatorList>
      <Creator>
        <PersonNames>
          <Lastname>Latzel</Lastname>
          <LastnameHeading>Latzel</LastnameHeading>
          <Firstname>Matthias</Firstname>
          <Initials>M</Initials>
        </PersonNames>
        <Address>
          <Affiliation>Sonova AG, R&#38;D, St&#228;fa, Schweiz</Affiliation>
        </Address>
        <Creatorrole corresponding="no" presenting="yes">author</Creatorrole>
      </Creator>
      <Creator>
        <PersonNames>
          <Lastname>Nizamani</Lastname>
          <LastnameHeading>Nizamani</LastnameHeading>
          <Firstname>Faraz</Firstname>
          <Initials>F</Initials>
        </PersonNames>
        <Address>
          <Affiliation>Universit&#228;t des Saarlandes, Systems Neuroscience &#38; Neurotechnology Unit, Saarbr&#252;cken, Deutschland</Affiliation>
        </Address>
        <Creatorrole corresponding="no" presenting="no">author</Creatorrole>
      </Creator>
      <Creator>
        <PersonNames>
          <Lastname>Bhamborae</Lastname>
          <LastnameHeading>Bhamborae</LastnameHeading>
          <Firstname>Mayur</Firstname>
          <Initials>M</Initials>
        </PersonNames>
        <Address>
          <Affiliation>Universit&#228;t des Saarlandes, Systems Neuroscience &#38; Neurotechnology Unit, Saarbr&#252;cken, Deutschland</Affiliation>
        </Address>
        <Creatorrole corresponding="no" presenting="no">author</Creatorrole>
      </Creator>
      <Creator>
        <PersonNames>
          <Lastname>Biehl</Lastname>
          <LastnameHeading>Biehl</LastnameHeading>
          <Firstname>Tanja</Firstname>
          <Initials>T</Initials>
        </PersonNames>
        <Address>
          <Affiliation>Center for Digital Neurotechnologies Saar, Homburg, Deutschland</Affiliation>
          <Affiliation>Universit&#228;t des Saarlandes, Systems Neuroscience &#38; Neurotechnology Unit, Saarbr&#252;cken, Deutschland</Affiliation>
        </Address>
        <Creatorrole corresponding="no" presenting="no">author</Creatorrole>
      </Creator>
      <Creator>
        <PersonNames>
          <Lastname>Strauss</Lastname>
          <LastnameHeading>Strauss</LastnameHeading>
          <Firstname>Daniel</Firstname>
          <Initials>D</Initials>
        </PersonNames>
        <Address>
          <Affiliation>Center for Digital Neurotechnologies Saar, Homburg, Deutschland</Affiliation>
          <Affiliation>Universit&#228;t des Saarlandes, Systems Neuroscience &#38; Neurotechnology Unit, Saarbr&#252;cken, Deutschland</Affiliation>
        </Address>
        <Creatorrole corresponding="no" presenting="no">author</Creatorrole>
      </Creator>
      <Creator>
        <PersonNames>
          <Lastname>Launer</Lastname>
          <LastnameHeading>Launer</LastnameHeading>
          <Firstname>Stefan</Firstname>
          <Initials>S</Initials>
        </PersonNames>
        <Address>
          <Affiliation>Sonova AG, R&#38;D, St&#228;fa, Schweiz</Affiliation>
        </Address>
        <Creatorrole corresponding="no" presenting="no">author</Creatorrole>
      </Creator>
      <Creator>
        <PersonNames>
          <Lastname>Corona-Strauss</Lastname>
          <LastnameHeading>Corona-Strauss</LastnameHeading>
          <Firstname>Farah</Firstname>
          <Initials>F</Initials>
        </PersonNames>
        <Address>
          <Affiliation>Center for Digital Neurotechnologies Saar, Homburg, Deutschland</Affiliation>
          <Affiliation>Universit&#228;t des Saarlandes, Systems Neuroscience &#38; Neurotechnology Unit, Saarbr&#252;cken, Deutschland</Affiliation>
        </Address>
        <Creatorrole corresponding="no" presenting="no">author</Creatorrole>
      </Creator>
    </CreatorList>
    <PublisherList>
      <Publisher>
        <Corporation>
          <Corporatename>German Medical Science GMS Publishing House</Corporatename>
        </Corporation>
        <Address>D&#252;sseldorf</Address>
      </Publisher>
    </PublisherList>
    <SubjectGroup>
      <SubjectheadingDDB>610</SubjectheadingDDB>
    </SubjectGroup>
    <DatePublishedList>
      <DatePublished >20260302</DatePublished >
    </DatePublishedList>
    <Language>germ</Language>
    <License license-type="open-access" xlink:href="http://creativecommons.org/licenses/by/4.0/">
      <AltText language="en">This is an Open Access article distributed under the terms of the Creative Commons Attribution 4.0 License.</AltText>
      <AltText language="de">Dieser Artikel ist ein Open-Access-Artikel und steht unter den Lizenzbedingungen der Creative Commons Attribution 4.0 License (Namensnennung).</AltText>
    </License>
    <SourceGroup>
      <Meeting>
        <MeetingId>M0642</MeetingId>
        <MeetingSequence>133</MeetingSequence>
        <MeetingCorporation>Deutsche Gesellschaft f&#252;r Audiologie e. V.</MeetingCorporation>
        <MeetingName>28. Jahrestagung der Deutschen Gesellschaft f&#252;r Audiologie</MeetingName>
        <MeetingTitle></MeetingTitle>
        <MeetingSession>Freie Vortr&#228;ge 13: H&#246;rger&#228;te I</MeetingSession>
        <MeetingCity>Oldenburg</MeetingCity>
        <MeetingDate>
          <DateFrom>20260304</DateFrom>
          <DateTo>20260306</DateTo>
        </MeetingDate>
      </Meeting>
    </SourceGroup>
    <ArticleNo>133</ArticleNo>
  </MetaData>
  <OrigData>
    <TextBlock name="Text" linked="yes">
      <MainHeadline>Text</MainHeadline><Pgraph><Mark1>Einf&#252;hrung:</Mark1> Effortful Listening, die kognitive Belastung, die n&#246;tig ist, um Sprache insbesondere im St&#246;rger&#228;usch zu verstehen, stellt eine zentrale Herausforderung f&#252;r H&#246;rger&#228;tetr&#228;ger dar. Die objektive Bestimmung der entsprechenden Messgr&#246;&#223;en ist zumeist sehr aufw&#228;ndig. Die Verwendung nicht-invasiver Biomarker erscheint dagegen deutlich einfacher und k&#246;nnte damit zuverl&#228;ssige Messdaten &#252;ber die kognitive Belastung liefern sowie eine schnellere, effektivere H&#246;rger&#228;teanpassung oder eine effizientere Signalverarbeitung erm&#246;glichen.</Pgraph><Pgraph><Mark1>Ziel:</Mark1> Die vorgestellte Studie bewertet den Optischen Flow als nicht-invasiven Biomarker des Zuh&#246;raufwands und pr&#252;ft, ob ein erh&#246;hter H&#246;raufwand mit subtilen Gesichtsausdr&#252;cken korreliert, wenn eine KI-basierte St&#246;rger&#228;uschunterdr&#252;ckung (Deep Neural Network (DNN)) ein bzw. ausgeschaltet wird.</Pgraph><Pgraph><Mark1>Methoden:</Mark1> In einer klinischen H&#246;rger&#228;te-Praxis nahmen 22 Erwachsene mit diagnostizierter H&#246;rbeeintr&#228;chtigung Auditory-Tasks unter zwei Bedingungen vor: Zur Simulation einer Cocktailparty-Situation h&#246;rten sie einen Podcast im St&#246;rger&#228;usch, w&#228;hrend die Rauschunterdr&#252;ckungsfunktion abwechselnd aktiviert (DNN ON &#61; geringe Anstrengung) und deaktiviert (DNN OFF &#61; hohe Anstrengung) wurde. W&#228;hrend dieser Aufgabe aufgezeichnete Gesichtsvideos wurden analysiert, um den mittleren Optischen Flow zu berechnen und spatio-temporale Heatmaps zu erstellen.</Pgraph><Pgraph><Mark1>Ergebnisse:</Mark1> Ein gepaarter t-Test zeigte eine signifikant h&#246;here Gesichtsaktivit&#228;t in der DNN-OFF-Bedingung mit ausgepr&#228;gterer Muskelaktivit&#228;t im periokularen Bereich (um die Augen) und in der Stirnregion, verglichen mit DNN ON. Die Effektst&#228;rke war klein, aber konsistent, wobei die Gesichtsaktivit&#228;t im DNN-ON-Zustand minimal und diffus war.</Pgraph><Pgraph><Mark1>Schlussfolgerungen:</Mark1> Effortful Listening manifestiert sich in einer Zunahme subtiler Gesichtsmuskelaktivit&#228;t; der Optische Flow k&#246;nnte eine vielversprechende objektive Metrik der neurokognitiv-affektiven Reaktion auf belastende H&#246;rsituationen sein. Dieser kontaktlose, kamerabasierte Ansatz bietet Potenzial zur Weiterentwicklung der H&#246;rger&#228;teeinstellung durch objektive Metriken zur Bewertung verschiedener Verarbeitungsstrategien, mit Wegen zur weiteren Validierung und Real-World-Implementierung.</Pgraph></TextBlock>
    <Media>
      <Tables>
        <NoOfTables>0</NoOfTables>
      </Tables>
      <Figures>
        <NoOfPictures>0</NoOfPictures>
      </Figures>
      <InlineFigures>
        <NoOfPictures>0</NoOfPictures>
      </InlineFigures>
      <Attachments>
        <NoOfAttachments>0</NoOfAttachments>
      </Attachments>
    </Media>
  </OrigData>
</GmsArticle>