<?xml version="1.0" encoding="iso-8859-1" standalone="no"?>
<!DOCTYPE GmsArticle SYSTEM "http://www.egms.de/dtd/2.0.34/GmsArticle.dtd">
<GmsArticle xmlns:xlink="http://www.w3.org/1999/xlink">
  <MetaData>
    <Identifier>26dga110</Identifier>
    <IdentifierDoi>10.3205/26dga110</IdentifierDoi>
    <IdentifierUrn>urn:nbn:de:0183-26dga1108</IdentifierUrn>
    <ArticleType>Meeting Abstract</ArticleType>
    <TitleGroup>
      <Title language="de">Verwendung von interauraler Verstimmung zur Modellierung von Ungenauigkeiten in der binauralen Verarbeitung bei der menschlichen Spracherkennung</Title>
    </TitleGroup>
    <CreatorList>
      <Creator>
        <PersonNames>
          <Lastname>Weihe</Lastname>
          <LastnameHeading>Weihe</LastnameHeading>
          <Firstname>Simon</Firstname>
          <Initials>S</Initials>
        </PersonNames>
        <Address>
          <Affiliation>Carl von Ossietzky Universit&#228;t Oldenburg, Medizinische Physik und Akustik &#8211; Perzeption und Modellierung von Sprache, Oldenburg, Deutschland</Affiliation>
        </Address>
        <Creatorrole corresponding="no" presenting="yes">author</Creatorrole>
      </Creator>
      <Creator>
        <PersonNames>
          <Lastname>Rennies-Hochmuth</Lastname>
          <LastnameHeading>Rennies-Hochmuth</LastnameHeading>
          <Firstname>Jan</Firstname>
          <Initials>J</Initials>
        </PersonNames>
        <Address>
          <Affiliation>Carl von Ossietzky Universit&#228;t Oldenburg, Medizinische Physik und Akustik &#8211; Perzeption und Modellierung von Sprache, Oldenburg, Deutschland</Affiliation>
          <Affiliation>Fraunhofer IDMT, HSA, Oldenburg, Deutschland</Affiliation>
        </Address>
        <Creatorrole corresponding="no" presenting="no">author</Creatorrole>
      </Creator>
      <Creator>
        <PersonNames>
          <Lastname>Brand</Lastname>
          <LastnameHeading>Brand</LastnameHeading>
          <Firstname>Thomas</Firstname>
          <Initials>T</Initials>
        </PersonNames>
        <Address>
          <Affiliation>Carl von Ossietzky Universit&#228;t Oldenburg, Medizinische Physik und Akustik &#8211; Perzeption und Modellierung von Sprache, Oldenburg, Deutschland</Affiliation>
        </Address>
        <Creatorrole corresponding="no" presenting="no">author</Creatorrole>
      </Creator>
    </CreatorList>
    <PublisherList>
      <Publisher>
        <Corporation>
          <Corporatename>German Medical Science GMS Publishing House</Corporatename>
        </Corporation>
        <Address>D&#252;sseldorf</Address>
      </Publisher>
    </PublisherList>
    <SubjectGroup>
      <SubjectheadingDDB>610</SubjectheadingDDB>
    </SubjectGroup>
    <DatePublishedList>
      <DatePublished >20260302</DatePublished >
    </DatePublishedList>
    <Language>germ</Language>
    <License license-type="open-access" xlink:href="http://creativecommons.org/licenses/by/4.0/">
      <AltText language="en">This is an Open Access article distributed under the terms of the Creative Commons Attribution 4.0 License.</AltText>
      <AltText language="de">Dieser Artikel ist ein Open-Access-Artikel und steht unter den Lizenzbedingungen der Creative Commons Attribution 4.0 License (Namensnennung).</AltText>
    </License>
    <SourceGroup>
      <Meeting>
        <MeetingId>M0642</MeetingId>
        <MeetingSequence>110</MeetingSequence>
        <MeetingCorporation>Deutsche Gesellschaft f&#252;r Audiologie e. V.</MeetingCorporation>
        <MeetingName>28. Jahrestagung der Deutschen Gesellschaft f&#252;r Audiologie</MeetingName>
        <MeetingTitle></MeetingTitle>
        <MeetingSession>Freie Vortr&#228;ge 9: Psychoakustik</MeetingSession>
        <MeetingCity>Oldenburg</MeetingCity>
        <MeetingDate>
          <DateFrom>20260304</DateFrom>
          <DateTo>20260306</DateTo>
        </MeetingDate>
      </Meeting>
    </SourceGroup>
    <ArticleNo>110</ArticleNo>
  </MetaData>
  <OrigData>
    <TextBlock name="Text" linked="yes">
      <MainHeadline>Text</MainHeadline><Pgraph>Wie kann die Modellierung von Ungenauigkeiten in der menschlichen binauralen Verarbeitung in der Equalisation-Cancellation (EC)-Stufe eines Modells zur Vorhersage binauraler Sprachverst&#228;ndlichkeit prinzipiell echtzeitf&#228;hig gemacht werden&#63; Wie vertr&#228;glich ist diese Art der Modellierung mit verschiedenen Back-Ends zur Vorhersage der Sprachverst&#228;ndlichkeit&#63; Ein blindes Modell zur Echtzeit-Vorhersage der binauralen Sprachverst&#228;ndlichkeit w&#228;re ein n&#252;tzliches Werkzeug f&#252;r die Forschung und zur Anwendung in H&#246;rger&#228;ten. Blind bedeutet in diesem Zusammenhang, dass weder Nutz- und St&#246;rsignale getrennt vorliegen, noch sonstige Informationen &#252;ber die akustische Situation dem Modell bekannt sein m&#252;ssen. Ein Front-End, das die Equalisation-Cancellation (EC)-Verarbeitung verwendet, ist eine M&#246;glichkeit, den binauralen Gewinn zu modellieren. Blindheit und Echtzeitf&#228;higkeit erfordern die Berechnung eines binaural vorverarbeiteten Signals, das dann von einem Back-End f&#252;r die Vorhersage der Sprachverst&#228;ndlichkeit analysiert werden kann. Unseres Wissens nach erf&#252;llt bisher keines der bisher ver&#246;ffentlichten EC-Front-Ends alle diese Anforderungen.</Pgraph><Pgraph>Menschliche Ungenauigkeiten wurden zuvor mit Monte-Carlo-Simulationen modelliert, die jedoch kein definiertes Signal erzeugen und f&#252;r die Echtzeitverarbeitung nicht geeignet sind. Daher schlagen wir vor, diese durch eine deterministische Verstimmung der interauralen Equalisation-Parameter zu ersetzen. Dieser Ansatz wurde mit dem Sprachverst&#228;ndlichkeitsindex (SII), zwei modifizierten Versionen davon, sowie mit dem auf Spracherkennungstechnologie basierenden Mean Temporal Distance (MTD) Back-Ends evaluiert. Davon erf&#252;llt nur letzteres die Anforderung der Blindheit und ist in der Lage, die Verschlechterung der Sprachverst&#228;ndlichkeit durch Nachhall zu quantifizieren. Vorhergesagte Sprachverst&#228;ndlichkeitsschwellen (SRTs) wurden mit Messungen und Vorhersagen aus der Literatur sowie mit eigenen Messungen verglichen.</Pgraph><Pgraph>Im Vergleich mit den fr&#252;heren Modellvorhersagen der jeweiligen Studien, zeigen die mit der neu entwickelten Verstimmung (blind) vorhergesagten SRTs &#252;berwiegend &#228;hnlich gro&#223;e, teils geringere Abweichungen vom mit Versuchspersonen gemessenen Gruppenmittel. Dies gilt &#252;ber alle Experimente hinweg, im St&#246;rger&#228;usch und in Ruhe, gem&#228;&#223; verschiedener Fehlerma&#223;e. Auch f&#252;r den Extremfall mit phasengedrehter Sprache im diotischen St&#246;rger&#228;usch wird der binaurale Gewinn gut vorhergesagt.</Pgraph><Pgraph>Die Verstimmung der Equalisation-Parameter erweist sich als effektive Methode zur Modellierung von Ungenauigkeiten der menschlichen interauralen Verarbeitung. Zusammen mit dem MTD Back-End, erf&#252;llt die vorgeschlagene Methode die Anforderungen der Blindheit und Echtzeitf&#228;higkeit und liefert zuverl&#228;ssige Vorhersagen der Sprachverst&#228;ndlichkeit.</Pgraph></TextBlock>
    <Media>
      <Tables>
        <NoOfTables>0</NoOfTables>
      </Tables>
      <Figures>
        <NoOfPictures>0</NoOfPictures>
      </Figures>
      <InlineFigures>
        <NoOfPictures>0</NoOfPictures>
      </InlineFigures>
      <Attachments>
        <NoOfAttachments>0</NoOfAttachments>
      </Attachments>
    </Media>
  </OrigData>
</GmsArticle>