<?xml version="1.0" encoding="iso-8859-1" standalone="no"?>
<!DOCTYPE GmsArticle SYSTEM "http://www.egms.de/dtd/2.0.34/GmsArticle.dtd">
<GmsArticle xmlns:xlink="http://www.w3.org/1999/xlink">
  <MetaData>
    <Identifier>26dga031</Identifier>
    <IdentifierDoi>10.3205/26dga031</IdentifierDoi>
    <IdentifierUrn>urn:nbn:de:0183-26dga0313</IdentifierUrn>
    <ArticleType>Meeting Abstract</ArticleType>
    <TitleGroup>
      <Title language="de">Sprach(erkennungs)modelle als Tool der pr&#228;zisen Audiologie</Title>
    </TitleGroup>
    <CreatorList>
      <Creator>
        <PersonNames>
          <Lastname>Brand</Lastname>
          <LastnameHeading>Brand</LastnameHeading>
          <Firstname>Thomas</Firstname>
          <Initials>T</Initials>
        </PersonNames>
        <Address>
          <Affiliation>Carl von Ossietzky Universit&#228;t Oldenburg, Department f&#252;r Medizinische Physik und Akustik, Oldenburg, Deutschland</Affiliation>
          <Affiliation>Cluster of Excellence &#8222;Hearing4all&#8220;, Carl von Ossietzky Universit&#228;t Oldenburg, Oldenburg, Deutschland</Affiliation>
        </Address>
        <Creatorrole corresponding="no" presenting="yes">author</Creatorrole>
      </Creator>
      <Creator>
        <PersonNames>
          <Lastname>Hauth</Lastname>
          <LastnameHeading>Hauth</LastnameHeading>
          <Firstname>Christopher F.</Firstname>
          <Initials>CF</Initials>
        </PersonNames>
        <Address>
          <Affiliation>Carl von Ossietzky Universit&#228;t Oldenburg, Department f&#252;r Medizinische Physik und Akustik, Oldenburg, Deutschland</Affiliation>
          <Affiliation>Cluster of Excellence &#8222;Hearing4all&#8220;, Carl von Ossietzky Universit&#228;t Oldenburg, Oldenburg, Deutschland</Affiliation>
        </Address>
        <Creatorrole corresponding="no" presenting="no">author</Creatorrole>
      </Creator>
      <Creator>
        <PersonNames>
          <Lastname>Weihe</Lastname>
          <LastnameHeading>Weihe</LastnameHeading>
          <Firstname>Simon</Firstname>
          <Initials>S</Initials>
        </PersonNames>
        <Address>
          <Affiliation>Carl von Ossietzky Universit&#228;t Oldenburg, Department f&#252;r Medizinische Physik und Akustik, Oldenburg, Deutschland</Affiliation>
          <Affiliation>Cluster of Excellence &#8222;Hearing4all&#8220;, Carl von Ossietzky Universit&#228;t Oldenburg, Oldenburg, Deutschland</Affiliation>
        </Address>
        <Creatorrole corresponding="no" presenting="no">author</Creatorrole>
      </Creator>
      <Creator>
        <PersonNames>
          <Lastname>Berdau</Lastname>
          <LastnameHeading>Berdau</LastnameHeading>
          <Firstname>Martin</Firstname>
          <Initials>M</Initials>
        </PersonNames>
        <Address>
          <Affiliation>Carl von Ossietzky Universit&#228;t Oldenburg, Department f&#252;r Medizinische Physik und Akustik, Oldenburg, Deutschland</Affiliation>
          <Affiliation>Cluster of Excellence &#8222;Hearing4all&#8220;, Carl von Ossietzky Universit&#228;t Oldenburg, Oldenburg, Deutschland</Affiliation>
        </Address>
        <Creatorrole corresponding="no" presenting="no">author</Creatorrole>
      </Creator>
      <Creator>
        <PersonNames>
          <Lastname>R&#246;ttges</Lastname>
          <LastnameHeading>R&#246;ttges</LastnameHeading>
          <Firstname>Saskia</Firstname>
          <Initials>S</Initials>
        </PersonNames>
        <Address>
          <Affiliation>Carl von Ossietzky Universit&#228;t Oldenburg, Department f&#252;r Medizinische Physik und Akustik, Oldenburg, Deutschland</Affiliation>
          <Affiliation>Cluster of Excellence &#8222;Hearing4all&#8220;, Carl von Ossietzky Universit&#228;t Oldenburg, Oldenburg, Deutschland</Affiliation>
        </Address>
        <Creatorrole corresponding="no" presenting="no">author</Creatorrole>
      </Creator>
      <Creator>
        <PersonNames>
          <Lastname>Meyer</Lastname>
          <LastnameHeading>Meyer</LastnameHeading>
          <Firstname>Bernd T.</Firstname>
          <Initials>BT</Initials>
        </PersonNames>
        <Address>
          <Affiliation>Carl von Ossietzky Universit&#228;t Oldenburg, Department f&#252;r Medizinische Physik und Akustik, Oldenburg, Deutschland</Affiliation>
          <Affiliation>Cluster of Excellence &#8222;Hearing4all&#8220;, Carl von Ossietzky Universit&#228;t Oldenburg, Oldenburg, Deutschland</Affiliation>
        </Address>
        <Creatorrole corresponding="no" presenting="no">author</Creatorrole>
      </Creator>
      <Creator>
        <PersonNames>
          <Lastname>Rennies-Hochmuth</Lastname>
          <LastnameHeading>Rennies-Hochmuth</LastnameHeading>
          <Firstname>Jan</Firstname>
          <Initials>J</Initials>
        </PersonNames>
        <Address>
          <Affiliation>Carl von Ossietzky Universit&#228;t Oldenburg, Department f&#252;r Medizinische Physik und Akustik, Oldenburg, Deutschland</Affiliation>
          <Affiliation>Cluster of Excellence &#8222;Hearing4all&#8220;, Carl von Ossietzky Universit&#228;t Oldenburg, Oldenburg, Deutschland</Affiliation>
          <Affiliation>Fraunhofer IDMT, Sprach- und Audiotechnologie, Oldenburg, Deutschland</Affiliation>
        </Address>
        <Creatorrole corresponding="no" presenting="no">author</Creatorrole>
      </Creator>
    </CreatorList>
    <PublisherList>
      <Publisher>
        <Corporation>
          <Corporatename>German Medical Science GMS Publishing House</Corporatename>
        </Corporation>
        <Address>D&#252;sseldorf</Address>
      </Publisher>
    </PublisherList>
    <SubjectGroup>
      <SubjectheadingDDB>610</SubjectheadingDDB>
    </SubjectGroup>
    <DatePublishedList>
      <DatePublished >20260302</DatePublished >
    </DatePublishedList>
    <Language>germ</Language>
    <License license-type="open-access" xlink:href="http://creativecommons.org/licenses/by/4.0/">
      <AltText language="en">This is an Open Access article distributed under the terms of the Creative Commons Attribution 4.0 License.</AltText>
      <AltText language="de">Dieser Artikel ist ein Open-Access-Artikel und steht unter den Lizenzbedingungen der Creative Commons Attribution 4.0 License (Namensnennung).</AltText>
    </License>
    <SourceGroup>
      <Meeting>
        <MeetingId>M0642</MeetingId>
        <MeetingSequence>031</MeetingSequence>
        <MeetingCorporation>Deutsche Gesellschaft f&#252;r Audiologie e. V.</MeetingCorporation>
        <MeetingName>28. Jahrestagung der Deutschen Gesellschaft f&#252;r Audiologie</MeetingName>
        <MeetingTitle></MeetingTitle>
        <MeetingSession>Strukturierte Sitzung 6: Klinische Anwendungen der Pr&#228;zisionsaudiologie</MeetingSession>
        <MeetingCity>Oldenburg</MeetingCity>
        <MeetingDate>
          <DateFrom>20260304</DateFrom>
          <DateTo>20260306</DateTo>
        </MeetingDate>
      </Meeting>
    </SourceGroup>
    <ArticleNo>031</ArticleNo>
  </MetaData>
  <OrigData>
    <TextBlock name="Text" linked="yes">
      <MainHeadline>Text</MainHeadline><Pgraph><Mark1>Motivation:</Mark1> Das Sprachverstehen ist ein zentrales Ziel der H&#246;rger&#228;teversorgung und h&#228;ngt von einer Vielzahl von Faktoren ab &#8211; darunter H&#246;rverlust, akustische Umgebung, Raumakustik, St&#246;rger&#228;usche und individuelle kognitive Ressourcen. Die derzeitige diagnostische Beurteilung basiert oft auf subjektiven Erfahrungen; es fehlt an standardisierten, empirisch fundierten Vorhersagemodellen. Ziel dieses Beitrags ist es, verschiedene Modellans&#228;tze zur Vorhersage des Sprachverstehens systematisch zu evaluieren und deren Anwendbarkeit in der klinischen Audiologie zu diskutieren.</Pgraph><Pgraph><Mark1>Fragestellung:</Mark1> Welche Modelltypen &#8211; klassische psychoakustische Modelle oder moderne Ans&#228;tze aus der automatischen Spracherkennung &#8211; eignen sich am besten f&#252;r die pr&#228;zise Vorhersage des Sprachverstehens in komplexen H&#246;rsituationen&#63;</Pgraph><Pgraph><Mark1>Methoden:</Mark1> Es wurden sowohl klassische, psychoakustische Modelle des Sprachverstehens als auch Methoden der automatischen Spracherkennung angewendet. Dabei k&#246;nnen zwei Kategorien unterschieden werden: 1.) blinde Modelle, die ausschlie&#223;lich auf den gemischten Signalen basieren, die auch die Versuchsperson h&#246;rt und 2.) nicht-blinde Modelle, die zus&#228;tzliche Informationen ben&#246;tigen, wie z.B. getrennte Sprach- und St&#246;rsignale, Transkripte der Sprache, Angaben zur Raumakustik oder binaurale Raumimpulsantworten. Ein gemeinsamer methodischer Aspekt aller vorgestellten Modelle ist die Ber&#252;cksichtigung der Verbesserung des Sprachverstehens bei r&#228;umlicher Trennung von Sprache und St&#246;rger&#228;usch.</Pgraph><Pgraph><Mark1>Ergebnisse:</Mark1> Ein h&#246;rschwellensimulierendes Rauschen erm&#246;glicht eine zuverl&#228;ssige Modellierung des H&#246;rverlusts. Die Ber&#252;cksichtigung von Nachverdeckung verbessert die Vorhersagegenauigkeit bei modulierten St&#246;rger&#228;uschen. Besonders hohe Pr&#228;zision zeigten entweder nicht-blinde Modelle, die umfangreiche Zusatzinformationen (z.B. getrennte Sprach- und St&#246;rsignale und binaurale Raumimpulsantworten) nutzen oder blinde Modelle, die rein auf gemischten Signalen basieren. Hybridmodelle aus blinden und nicht-blinde Anteilen erwiesen sich als weniger vorteilhaft. Eine Individualisierung der Vorhersagen durch Referenzmessungen verbessert die Konsistenz.</Pgraph><Pgraph><Mark1>Schlussfolgerung und Diskussion:</Mark1> Die Kombination von blinden psychoakustischen Modellen mit Methoden der automatischen Spracherkennung (z.B. Phonemerkennern) erweist sich als &#228;u&#223;erst leistungsf&#228;hig &#8211; insbesondere in komplexen akustischen Szenarien. Da einige dieser Modelle bereits mit geringem Rechenaufwand in Echtzeit laufen, r&#252;ckt ihre Integration in H&#246;rhilfen zur Echtzeit-&#220;berpr&#252;fung der Signalverarbeitung in greifbare N&#228;he.</Pgraph></TextBlock>
    <Media>
      <Tables>
        <NoOfTables>0</NoOfTables>
      </Tables>
      <Figures>
        <NoOfPictures>0</NoOfPictures>
      </Figures>
      <InlineFigures>
        <NoOfPictures>0</NoOfPictures>
      </InlineFigures>
      <Attachments>
        <NoOfAttachments>0</NoOfAttachments>
      </Attachments>
    </Media>
  </OrigData>
</GmsArticle>