<?xml version="1.0" encoding="iso-8859-1" standalone="no"?>
<!DOCTYPE GmsArticle SYSTEM "http://www.egms.de/dtd/2.0.34/GmsArticle.dtd">
<GmsArticle xmlns:xlink="http://www.w3.org/1999/xlink">
  <MetaData>
    <Identifier>26dga138</Identifier>
    <IdentifierDoi>10.3205/26dga138</IdentifierDoi>
    <IdentifierUrn>urn:nbn:de:0183-26dga1389</IdentifierUrn>
    <ArticleType>Meeting Abstract</ArticleType>
    <TitleGroup>
      <Title language="de">Entwicklung eines blinden Echtzeit-Modells f&#252;r Sprachverst&#228;ndlichkeit und subjektive H&#246;ranstrengung f&#252;r den Einsatz in H&#246;rger&#228;ten</Title>
    </TitleGroup>
    <CreatorList>
      <Creator>
        <PersonNames>
          <Lastname>Berdau</Lastname>
          <LastnameHeading>Berdau</LastnameHeading>
          <Firstname>Martin</Firstname>
          <Initials>M</Initials>
        </PersonNames>
        <Address>
          <Affiliation>Carl von Ossietzky Universit&#228;t Oldenburg, Department f&#252;r Medizinische Physik und Akustik, Oldenburg, Deutschland</Affiliation>
        </Address>
        <Creatorrole corresponding="no" presenting="yes">author</Creatorrole>
      </Creator>
      <Creator>
        <PersonNames>
          <Lastname>Brand</Lastname>
          <LastnameHeading>Brand</LastnameHeading>
          <Firstname>Thomas</Firstname>
          <Initials>T</Initials>
        </PersonNames>
        <Address>
          <Affiliation>Carl von Ossietzky Universit&#228;t Oldenburg, Department f&#252;r Medizinische Physik und Akustik, Oldenburg, Deutschland</Affiliation>
        </Address>
        <Creatorrole corresponding="no" presenting="no">author</Creatorrole>
      </Creator>
      <Creator>
        <PersonNames>
          <Lastname>Rennies-Hochmuth</Lastname>
          <LastnameHeading>Rennies-Hochmuth</LastnameHeading>
          <Firstname>Jan</Firstname>
          <Initials>J</Initials>
        </PersonNames>
        <Address>
          <Affiliation>Carl von Ossietzky Universit&#228;t Oldenburg, Department f&#252;r Medizinische Physik und Akustik, Oldenburg, Deutschland</Affiliation>
          <Affiliation>Fraunhofer-Institut f&#252;r Digitale Medientechnologie IDMT, Institutsteil H&#246;r-, Sprach- und Audiotechnologie HSA, Oldenburg, Deutschland</Affiliation>
        </Address>
        <Creatorrole corresponding="no" presenting="no">author</Creatorrole>
      </Creator>
    </CreatorList>
    <PublisherList>
      <Publisher>
        <Corporation>
          <Corporatename>German Medical Science GMS Publishing House</Corporatename>
        </Corporation>
        <Address>D&#252;sseldorf</Address>
      </Publisher>
    </PublisherList>
    <SubjectGroup>
      <SubjectheadingDDB>610</SubjectheadingDDB>
    </SubjectGroup>
    <DatePublishedList>
      <DatePublished >20260302</DatePublished >
    </DatePublishedList>
    <Language>germ</Language>
    <License license-type="open-access" xlink:href="http://creativecommons.org/licenses/by/4.0/">
      <AltText language="en">This is an Open Access article distributed under the terms of the Creative Commons Attribution 4.0 License.</AltText>
      <AltText language="de">Dieser Artikel ist ein Open-Access-Artikel und steht unter den Lizenzbedingungen der Creative Commons Attribution 4.0 License (Namensnennung).</AltText>
    </License>
    <SourceGroup>
      <Meeting>
        <MeetingId>M0642</MeetingId>
        <MeetingSequence>138</MeetingSequence>
        <MeetingCorporation>Deutsche Gesellschaft f&#252;r Audiologie e. V.</MeetingCorporation>
        <MeetingName>28. Jahrestagung der Deutschen Gesellschaft f&#252;r Audiologie</MeetingName>
        <MeetingTitle></MeetingTitle>
        <MeetingSession>Freie Vortr&#228;ge 13: H&#246;rger&#228;te I</MeetingSession>
        <MeetingCity>Oldenburg</MeetingCity>
        <MeetingDate>
          <DateFrom>20260304</DateFrom>
          <DateTo>20260306</DateTo>
        </MeetingDate>
      </Meeting>
    </SourceGroup>
    <ArticleNo>138</ArticleNo>
  </MetaData>
  <OrigData>
    <TextBlock name="Text" linked="yes">
      <MainHeadline>Text</MainHeadline><Pgraph>Viele Modelle f&#252;r Sprachverst&#228;ndlichkeit (SVS) und&#47;oder H&#246;ranstrengung (HA) wurden in den vergangenen Jahrzehnten entwickelt und werden f&#252;r verschiedene Zwecke eingesetzt. Typischerweise arbeiten solche Modelle offline und sagen z.B. f&#252;r einen Satz Sprache im St&#246;rger&#228;usch einen einzigen SVS- oder HA-Wert vorher. Dar&#252;ber hinaus nutzen die meisten Modelle Referenzsignale oder getrennte Sprach- und St&#246;rsignale f&#252;r die Vorhersage. In einigen Anwendungsbereichen werden Vorhersagen jedoch sehr frequent und ohne Verf&#252;gbarkeit von reinen Quellsignalen ben&#246;tigt, d.h. die Modelle m&#252;ssten in Echtzeit und blind arbeiten. Blinde und echtzeitf&#228;hige Vorhersagen von SVS oder HA k&#246;nnten beispielsweise f&#252;r H&#246;rger&#228;te wertvoll sein, die mittels dieser Information z.B. f&#252;r eine gegebene H&#246;rsituation das gerade am besten geeignete H&#246;rger&#228;te-Programm automatisch ausw&#228;hlen k&#246;nnten. Ein solches Modell f&#252;r diesen Anwendungsfall sollte zudem den individuellen H&#246;rverlust ber&#252;cksichtigen.</Pgraph><Pgraph>Ein blindes und echtzeitf&#228;higes Modell zur Vorhersage von SVS und HA wurde entwickelt, das zudem unterschiedlich schwerwiegende H&#246;rverluste ber&#252;cksichtigt. Das Modell besteht aus zwei Stufen: einem Front-End zur Simulation der binauralen F&#228;higkeiten des Menschen und einem Back-End zur Sch&#228;tzung von SVS und HA, basierend auf dem Output des Front-Ends. Das Front-End filtert zun&#228;chst die Ohrsignale mit einer auditorischen Filterbank und wendet ein schwellensimulierendes Rauschen an, welches das Audiogramm nachbildet, um den Effekt des jeweiligen H&#246;rverlusts zu simulieren. Anschlie&#223;end wird parallel ein Equalization-Cancellation-Mechanismus f&#252;r auditorische Filter mit Mittenfrequenzen unterhalb von 1,5 kHz und &#8222;Better-Ear-Listening&#8220; f&#252;r auditorische Filter mit Mittenfrequenzen oberhalb von 1,5 kHz angewendet. Das auf diese Weise binaural verarbeitete einkanalige Ausgangssignal wird dann durch das Back-End verarbeitet, welches einen Triphon-Klassifikator zur Vorhersage von SVS und HA anwendet.</Pgraph><Pgraph>Das Modell wurde anhand von Daten evaluiert, die durch ein neuartiges Echtzeit-Messverfahren erhoben wurden, wobei normalh&#246;rende Versuchspersonen kontinuierlich die subjektiv wahrgenommene HA in dynamisch simulierten Szenen bewerteten. Das Modell konnte die subjektive HA mit hoher Genauigkeit (R&#178; &#61; 0,87) f&#252;r Bedingungen vorhersagen, in denen das Signal-Rausch-Verh&#228;ltnis (SNR) und&#47;oder die Nachhallzeit variiert wurden. Dar&#252;ber hinaus wurde das Modell mit bestehenden Datens&#228;tzen validiert, die HA f&#252;r sehr leise Sprache sowie Daten mit h&#246;rgesch&#228;digten Versuchspersonen umfassen.</Pgraph><Pgraph>Abbildung 1 <ImgLink imgNo="1" imgType="figure" /></Pgraph></TextBlock>
    <Media>
      <Tables>
        <NoOfTables>0</NoOfTables>
      </Tables>
      <Figures>
        <Figure width="490" height="798" format="png">
          <MediaNo>1</MediaNo>
          <MediaID>1</MediaID>
          <Caption><Pgraph><Mark1>Abbildung 1</Mark1></Pgraph></Caption>
        </Figure>
        <NoOfPictures>1</NoOfPictures>
      </Figures>
      <InlineFigures>
        <NoOfPictures>0</NoOfPictures>
      </InlineFigures>
      <Attachments>
        <NoOfAttachments>0</NoOfAttachments>
      </Attachments>
    </Media>
  </OrigData>
</GmsArticle>