<?xml version="1.0" encoding="iso-8859-1" standalone="no"?>
<!DOCTYPE GmsArticle SYSTEM "http://www.egms.de/dtd/2.0.34/GmsArticle.dtd">
<GmsArticle xmlns:xlink="http://www.w3.org/1999/xlink">
  <MetaData>
    <Identifier>26dga235</Identifier>
    <IdentifierDoi>10.3205/26dga235</IdentifierDoi>
    <IdentifierUrn>urn:nbn:de:0183-26dga2356</IdentifierUrn>
    <ArticleType>Meeting Abstract</ArticleType>
    <TitleGroup>
      <Title language="de">DNN-Training</Title>
    </TitleGroup>
    <CreatorList>
      <Creator>
        <PersonNames>
          <Lastname>Warncke</Lastname>
          <LastnameHeading>Warncke</LastnameHeading>
          <Firstname>Horst</Firstname>
          <Initials>H</Initials>
        </PersonNames>
        <Address>
          <Affiliation>Horst H&#246;rt, Audiologie, Wedel, Deutschland</Affiliation>
        </Address>
        <Creatorrole corresponding="no" presenting="yes">author</Creatorrole>
      </Creator>
    </CreatorList>
    <PublisherList>
      <Publisher>
        <Corporation>
          <Corporatename>German Medical Science GMS Publishing House</Corporatename>
        </Corporation>
        <Address>D&#252;sseldorf</Address>
      </Publisher>
    </PublisherList>
    <SubjectGroup>
      <SubjectheadingDDB>610</SubjectheadingDDB>
    </SubjectGroup>
    <DatePublishedList>
      <DatePublished >20260302</DatePublished >
    </DatePublishedList>
    <Language>germ</Language>
    <License license-type="open-access" xlink:href="http://creativecommons.org/licenses/by/4.0/">
      <AltText language="en">This is an Open Access article distributed under the terms of the Creative Commons Attribution 4.0 License.</AltText>
      <AltText language="de">Dieser Artikel ist ein Open-Access-Artikel und steht unter den Lizenzbedingungen der Creative Commons Attribution 4.0 License (Namensnennung).</AltText>
    </License>
    <SourceGroup>
      <Meeting>
        <MeetingId>M0642</MeetingId>
        <MeetingSequence>235</MeetingSequence>
        <MeetingCorporation>Deutsche Gesellschaft f&#252;r Audiologie e. V.</MeetingCorporation>
        <MeetingName>28. Jahrestagung der Deutschen Gesellschaft f&#252;r Audiologie</MeetingName>
        <MeetingTitle></MeetingTitle>
        <MeetingSession>Postersession</MeetingSession>
        <MeetingCity>Oldenburg</MeetingCity>
        <MeetingDate>
          <DateFrom>20260304</DateFrom>
          <DateTo>20260306</DateTo>
        </MeetingDate>
      </Meeting>
    </SourceGroup>
    <ArticleNo>235</ArticleNo>
  </MetaData>
  <OrigData>
    <TextBlock name="Text" linked="yes">
      <MainHeadline>Text</MainHeadline><Pgraph> 2004 wurden die ersten kommerziellen H&#246;rsysteme mit K&#252;nstliche Intelligenz (KI) vorgestellt.</Pgraph><Pgraph>Die zurzeit h&#246;chste Form der KI stellen die Tiefen Neuronalen Netzwerke da, englisch Deep Neural Network (DNN). Diese finden sich in kommerziell angebotenen H&#246;rsystem seit dem Jahreswechsel 2020&#47;21. Inzwischen bieten 4 Hersteller diese Technik in verschiedenen Ger&#228;ten an (GN Resound, Oticon, Phonak und Starkey; Stand Oktober 2025). DNN-Chips haben, &#228;hnlich wie das menschliche Gehirn, die F&#228;higkeit zu lernen.</Pgraph><Pgraph>F&#252;r das DNN-Training in H&#246;rsystemen geben die verschiedenen Hersteller durchaus unterschiedliche Ziele an, wobei hier von einer Zweiteilung gesprochen werden kann. Oticon setzt bei der Entwicklung von H&#246;rsystemen schon lange auf eine m&#246;glichst gro&#223;e Nat&#252;rlichkeit der Kl&#228;nge. Dies dr&#252;ckt sich im Anspruch aus, dass Automatiken f&#252;r die Nutzer sehr wohl einen Vorteil erbringen, allerdings m&#246;glichst ohne h&#246;rbare Artefakte arbeiten sollen.  Dazu geh&#246;rt, dass m&#246;glichst rundum geh&#246;rt werden soll, um die gesamte H&#246;rumgebung wahrzunehmen. Da es bis heute keine physikalische oder mathematische Definition von L&#228;rm gibt, geh&#246;rt auch dazu, dass alle Ger&#228;usche h&#246;rbar sein sollen, allerdings mit einer leichten Hervorhebung von Sprache.</Pgraph><Pgraph>Dem zugrunde liegen verschieden Forschungsergebnisse, die sich mit den kognitiven Funktionen des H&#246;rens befassen. Besonders h&#228;ufig wird hier die Arbeit von Man &#38; Ng zitiert, die nachweist, dass unser auditorisches System permanent die akustische Umgebung zur Orientierung scannt, um sich dann auf gew&#252;nschte Sounds zu fokussieren. Dieses Scannen ist nat&#252;rlich nur m&#246;glich, wenn alle Ger&#228;usche geh&#246;rt werden k&#246;nnen. &#8222;Orient and Focus&#8220; zu unterst&#252;tzen, ist somit ein zentrales Trainingsziel f&#252;r diese Ger&#228;te, die inzwischen in der dritten Generation vorliegen. Damit ist es m&#246;glich, dass ein Signal in einer H&#246;rsituation als Nutzsignal und in einer anderen Situation als St&#246;rger&#228;usch erkannt wird. Dadurch wird z.B. die Nutzung von Richtmikrofonen im klassischen Sinn ausgeschlossen. Erg&#228;nzend sollte darauf hingewiesen werden, dass dieser DNN-Ansatz f&#252;r alle Situationen gilt, leise wie laut.</Pgraph><Pgraph>Die drei anderen DNN-Anbieter arbeiten mit einem Ansatz, der als Denoising beschrieben wird. Sie wollen die St&#246;rger&#228;uschunterdr&#252;ckung und die Spracherkennung&#47;Hervorhebung verbessern und zwar speziell f&#252;r die schwierigen und lauten H&#246;rsituationen, weil diese f&#252;r die Nutzer als besonders herausfordernd gelten.</Pgraph><Pgraph>Alle genannten Hersteller belegen in Studien die m&#246;glichen Verbesserungen f&#252;r die Nutzer. Einige Beispiele: Verbessertes Sprachverstehen in diversen Situationen aus allen Richtungen; besserer Signal-St&#246;rabstand; subjektiv besserer Klang; bessere Richtungserkennung, bessere Fokussierung; Senkung von H&#246;r-Anstrengung und -Stress; bessere Erkennung der Emotionalit&#228;t von Stimmen; bessere Repr&#228;sentanz von Signalen im Gehirn (EEG-Messung); Verbesserung der Merkf&#228;higkeit; erweiterte Feinanpassung.</Pgraph></TextBlock>
    <References linked="yes">
      <Reference refNo="1">
        <RefAuthor>Warncke</RefAuthor>
        <RefAuthor>H</RefAuthor>
        <RefTitle>KI in H&#246;rsystemen&#8230;</RefTitle>
        <RefYear>2005</RefYear>
        <RefJournal>H&#246;rakustik</RefJournal>
        <RefPage></RefPage>
        <RefTotal>Warncke, H. KI in H&#246;rsystemen&#8230;. H&#246;rakustik. 2005;(2).</RefTotal>
      </Reference>
      <Reference refNo="2">
        <RefAuthor>Br&#230;ndgaard M</RefAuthor>
        <RefTitle></RefTitle>
        <RefYear>2020</RefYear>
        <RefBookTitle>An introduction to MoreSound Intelligence. Oticon Tech Paper</RefBookTitle>
        <RefPage></RefPage>
        <RefTotal>Br&#230;ndgaard M. An introduction to MoreSound Intelligence. Oticon Tech Paper. 2020.</RefTotal>
      </Reference>
      <Reference refNo="3">
        <RefAuthor>Betlehem T</RefAuthor>
        <RefAuthor></RefAuthor>
        <RefTitle></RefTitle>
        <RefYear>2023</RefYear>
        <RefBookTitle>Leveraging DNN in Starkey Edge AI. Starkey White Paper</RefBookTitle>
        <RefPage></RefPage>
        <RefTotal>Betlehem T, et al. Leveraging DNN in Starkey Edge AI. Starkey White Paper. 2023</RefTotal>
      </Reference>
      <Reference refNo="4">
        <RefAuthor>Hasemann H</RefAuthor>
        <RefAuthor></RefAuthor>
        <RefTitle></RefTitle>
        <RefYear>2024</RefYear>
        <RefBookTitle>Revolutionary Speech Understanding with Spheric Speech Clarity. Phonak White Paper</RefBookTitle>
        <RefPage></RefPage>
        <RefTotal>Hasemann H, et al. Revolutionary Speech Understanding with Spheric Speech Clarity. Phonak White Paper. 2024.</RefTotal>
      </Reference>
      <Reference refNo="5">
        <RefAuthor>Jespersen CT</RefAuthor>
        <RefAuthor></RefAuthor>
        <RefTitle></RefTitle>
        <RefYear>2025</RefYear>
        <RefBookTitle>Intelligent Focus: Nutzervorlieben&#8230; GN Resound White Paper</RefBookTitle>
        <RefPage></RefPage>
        <RefTotal>Jespersen CT, et al. Intelligent Focus: Nutzervorlieben&#8230; GN Resound White Paper. 2025.</RefTotal>
      </Reference>
      <Reference refNo="6">
        <RefAuthor>Man B</RefAuthor>
        <RefAuthor></RefAuthor>
        <RefTitle></RefTitle>
        <RefYear>2020</RefYear>
        <RefBookTitle>rainHearing &#8211; The new perspective. Oticon White Paper</RefBookTitle>
        <RefPage></RefPage>
        <RefTotal>Man B, et al. BrainHearing &#8211; The new perspective. Oticon White Paper. 2020.</RefTotal>
      </Reference>
    </References>
    <Media>
      <Tables>
        <NoOfTables>0</NoOfTables>
      </Tables>
      <Figures>
        <NoOfPictures>0</NoOfPictures>
      </Figures>
      <InlineFigures>
        <NoOfPictures>0</NoOfPictures>
      </InlineFigures>
      <Attachments>
        <NoOfAttachments>0</NoOfAttachments>
      </Attachments>
    </Media>
  </OrigData>
</GmsArticle>