<?xml version="1.0" encoding="iso-8859-1" standalone="no"?>
<!DOCTYPE GmsArticle SYSTEM "http://www.egms.de/dtd/2.0.34/GmsArticle.dtd">
<GmsArticle xmlns:xlink="http://www.w3.org/1999/xlink">
  <MetaData>
    <Identifier>26dga219</Identifier>
    <IdentifierDoi>10.3205/26dga219</IdentifierDoi>
    <IdentifierUrn>urn:nbn:de:0183-26dga2192</IdentifierUrn>
    <ArticleType>Meeting Abstract</ArticleType>
    <TitleGroup>
      <Title language="de">DeepFS4: End-to-End Deep Learning basierte Soundcodierungsstrategie f&#252;r Cochlea-Implantate</Title>
    </TitleGroup>
    <CreatorList>
      <Creator>
        <PersonNames>
          <Lastname>Hart</Lastname>
          <LastnameHeading>Hart</LastnameHeading>
          <Firstname>Robert</Firstname>
          <Initials>R</Initials>
        </PersonNames>
        <Address>
          <Affiliation>Medizinische Hochschule Hannover, Auditory Prosthetic Group, Hannover, Deutschland</Affiliation>
        </Address>
        <Creatorrole corresponding="no" presenting="yes">author</Creatorrole>
      </Creator>
      <Creator>
        <PersonNames>
          <Lastname>Gajecki</Lastname>
          <LastnameHeading>Gajecki</LastnameHeading>
          <Firstname>Tom</Firstname>
          <Initials>T</Initials>
        </PersonNames>
        <Address>
          <Affiliation>Medizinische Hochschule Hannover, Auditory Prosthetic Group, Hannover, Deutschland</Affiliation>
        </Address>
        <Creatorrole corresponding="no" presenting="no">author</Creatorrole>
      </Creator>
      <Creator>
        <PersonNames>
          <Lastname>Nogueira Vazquez</Lastname>
          <LastnameHeading>Nogueira Vazquez</LastnameHeading>
          <Firstname>Waldo</Firstname>
          <Initials>W</Initials>
        </PersonNames>
        <Address>
          <Affiliation>Medizinische Hochschule Hannover, Auditory Prosthetic Group, Hannover, Deutschland</Affiliation>
        </Address>
        <Creatorrole corresponding="no" presenting="no">author</Creatorrole>
      </Creator>
    </CreatorList>
    <PublisherList>
      <Publisher>
        <Corporation>
          <Corporatename>German Medical Science GMS Publishing House</Corporatename>
        </Corporation>
        <Address>D&#252;sseldorf</Address>
      </Publisher>
    </PublisherList>
    <SubjectGroup>
      <SubjectheadingDDB>610</SubjectheadingDDB>
    </SubjectGroup>
    <DatePublishedList>
      <DatePublished >20260302</DatePublished >
    </DatePublishedList>
    <Language>germ</Language>
    <License license-type="open-access" xlink:href="http://creativecommons.org/licenses/by/4.0/">
      <AltText language="en">This is an Open Access article distributed under the terms of the Creative Commons Attribution 4.0 License.</AltText>
      <AltText language="de">Dieser Artikel ist ein Open-Access-Artikel und steht unter den Lizenzbedingungen der Creative Commons Attribution 4.0 License (Namensnennung).</AltText>
    </License>
    <SourceGroup>
      <Meeting>
        <MeetingId>M0642</MeetingId>
        <MeetingSequence>219</MeetingSequence>
        <MeetingCorporation>Deutsche Gesellschaft f&#252;r Audiologie e. V.</MeetingCorporation>
        <MeetingName>28. Jahrestagung der Deutschen Gesellschaft f&#252;r Audiologie</MeetingName>
        <MeetingTitle></MeetingTitle>
        <MeetingSession>Postersession</MeetingSession>
        <MeetingCity>Oldenburg</MeetingCity>
        <MeetingDate>
          <DateFrom>20260304</DateFrom>
          <DateTo>20260306</DateTo>
        </MeetingDate>
      </Meeting>
    </SourceGroup>
    <ArticleNo>219</ArticleNo>
  </MetaData>
  <OrigData>
    <TextBlock name="Text" linked="yes">
      <MainHeadline>Text</MainHeadline><Pgraph><Mark1>Hintergrund: </Mark1>Cochlea-implantat (CI)-Tr&#228;ger erzielen ein gutes Sprachverst&#228;ndnis in ruhigen Umgebungen. Mit Hintergrundrauschen nimmt dieses jedoch deutlich ab. Konventionelle Front-End-Verfahren zur Sprachverbesserung k&#246;nnen diesen Effekt verringern, sind jedoch &#252;berwiegend auf station&#228;re St&#246;rger&#228;usche beschr&#228;nkt, nutzen die CI-Signalverarbeitungskette nicht vollst&#228;ndig aus und erzeugen h&#228;ufig zus&#228;tzliche Latenz. Aktuelle Arbeiten zeigen, dass Deep-Learning basierte End-to-End-Ans&#228;tze zur CI-Soundkodierung die klassische Signalverarbeitung vollst&#228;ndig ersetzen k&#246;nnen, dabei das Sprachverstehen mit minimaler Latenz verbessern und klassische Front-Ends &#252;bertreffen k&#246;nnen. F&#252;r CI-Soundkodierungen, die die zeitliche Feinstruktur (FS) der Signale ber&#252;cksichtigen, existiert bisher jedoch kein vergleichbarer Ansatz.</Pgraph><Pgraph><Mark1>Methoden: </Mark1>DeepFS4 ist ein Temporal Convolutional Neural Network, das darauf ausgelegt ist, die FS-basierte CI-Soundkodierung FS4 zu replizieren und zugleich eine integrierte Sprachverbesserung zu erzielen. Die Architektur ist kompakt und weist weniger Parameter als vergleichbare Modelle auf, wodurch sie sich f&#252;r den Einsatz in echtzeitf&#228;higen, energieeffizienten CI-Systemen eignet. Zur Untersuchung des Einflusses der FS-Kodierung auf die Sprachverst&#228;ndlichkeit wurden zwei Varianten evaluiert: eine mit idealer FS-Extraktion und eine mit verrauschter FS-Extraktion. Die objektive Bewertung erfolgte anhand der Verbesserung des Signal-Rausch-Verh&#228;ltnisses (SNRi). Das Sprachverstehen wurde mit 10 CI-Tr&#228;gern in station&#228;ren und nichtstation&#228;ren St&#246;rger&#228;uschen untersucht. Hierbei kamen der deutsche HSM-Satztest (Worterkennungsrate), eine MUSHRA-basierte Qualit&#228;tsbewertung sowie ein 3-AFC-Test zur Analyse der Auswirkungen der FS-Bestimmung zum Einsatz.</Pgraph><Pgraph><Mark1>Ergebnisse: </Mark1>DeepFS4 erreichte f&#252;r Input-SNRs von &#8211;5 bis 10 dB hinweg eine mittlere SNRi von 8 dB bei station&#228;ren St&#246;rger&#228;uschen sowie von 6 dB bei nichtstation&#228;ren St&#246;rger&#228;uschen. In den H&#246;rversuchen erzielte DeepFS4 signifikant h&#246;here Worterkennungsraten und bessere subjektive Qualit&#228;tsbewertungen im Vergleich zur kommerziellen FS4-Strategie sowie zu getesteten Front-End-Sprachverbesserungen. Der Vergleich der DeepFS4-Varianten mit unterschiedlicher FS-Kodierung zeigte hingegen vernachl&#228;ssigbare Unterschiede im Sprachverstehen sowie in der subjektiven Wahrnehmung durch die Probandinnen und Probanden.</Pgraph><Pgraph><Mark1>Schlussfolgerung: </Mark1>DeepFS4 zeigt, dass eine Sprachverbesserung durch direkte Integration in die Signalverarbeitungsstrategie &#252;ber eine Deep-Learning-Architektur die Sprachwahrnehmung von CI-Tr&#228;gern in verrauschter Umgebung deutlich verbessern kann. Die Ergebnisse zeigen, dass Leistungssteigerungen auch ohne FS-Optimierung m&#246;glich sind, was zuk&#252;nftige einfachere und effizientere Systemdesigns erm&#246;glicht. Der Ansatz er&#246;ffnet zudem einen Weg hin zur ersten KI-gest&#252;tzten, klinisch einsetzbaren Signalverarbeitungsstrategie f&#252;r Cochlea-Implantate.</Pgraph></TextBlock>
    <Media>
      <Tables>
        <NoOfTables>0</NoOfTables>
      </Tables>
      <Figures>
        <NoOfPictures>0</NoOfPictures>
      </Figures>
      <InlineFigures>
        <NoOfPictures>0</NoOfPictures>
      </InlineFigures>
      <Attachments>
        <NoOfAttachments>0</NoOfAttachments>
      </Attachments>
    </Media>
  </OrigData>
</GmsArticle>