<?xml version="1.0" encoding="iso-8859-1" standalone="no"?>
<!DOCTYPE GmsArticle SYSTEM "http://www.egms.de/dtd/2.0.34/GmsArticle.dtd">
<GmsArticle xmlns:xlink="http://www.w3.org/1999/xlink">
  <MetaData>
    <Identifier>25dga163</Identifier>
    <IdentifierDoi>10.3205/25dga163</IdentifierDoi>
    <IdentifierUrn>urn:nbn:de:0183-25dga1636</IdentifierUrn>
    <ArticleType>Meeting Abstract</ArticleType>
    <TitleGroup>
      <Title language="de">Lineare und nicht-lineare Modelle zur Aufmerksamkeitsdekodierung in Normalh&#246;renden sowie H&#246;rger&#228;tetr&#228;gern und H&#246;rger&#228;tetr&#228;gerinnen</Title>
    </TitleGroup>
    <CreatorList>
      <Creator>
        <PersonNames>
          <Lastname>Jehn</Lastname>
          <LastnameHeading>Jehn</LastnameHeading>
          <Firstname>Constantin</Firstname>
          <Initials>C</Initials>
        </PersonNames>
        <Address>
          <Affiliation>Friedrich-Alexander-Universit&#228;t Erlangen-N&#252;rnberg, Erlangen, Deutschland</Affiliation>
        </Address>
        <Creatorrole corresponding="no" presenting="yes">author</Creatorrole>
      </Creator>
      <Creator>
        <PersonNames>
          <Lastname>Vavatzanidis</Lastname>
          <LastnameHeading>Vavatzanidis</LastnameHeading>
          <Firstname>Niki K.</Firstname>
          <Initials>NK</Initials>
        </PersonNames>
        <Address>
          <Affiliation>Universit&#228;tsklinikum Carl Gustav Carus, Ear Research Center Dresden, Dresden, Deutschland</Affiliation>
        </Address>
        <Creatorrole corresponding="no" presenting="no">author</Creatorrole>
      </Creator>
      <Creator>
        <PersonNames>
          <Lastname>Hahne</Lastname>
          <LastnameHeading>Hahne</LastnameHeading>
          <Firstname>Anja</Firstname>
          <Initials>A</Initials>
        </PersonNames>
        <Address>
          <Affiliation>Universit&#228;tsklinikum Carl Gustav Carus, Ear Research Center Dresden, Dresden, Deutschland</Affiliation>
        </Address>
        <Creatorrole corresponding="no" presenting="no">author</Creatorrole>
      </Creator>
      <Creator>
        <PersonNames>
          <Lastname>Reichenbach</Lastname>
          <LastnameHeading>Reichenbach</LastnameHeading>
          <Firstname>Tobias</Firstname>
          <Initials>T</Initials>
        </PersonNames>
        <Address>
          <Affiliation>Friedrich-Alexander-Universit&#228;t Erlangen-N&#252;rnberg, Erlangen, Deutschland</Affiliation>
        </Address>
        <Creatorrole corresponding="no" presenting="no">author</Creatorrole>
      </Creator>
    </CreatorList>
    <PublisherList>
      <Publisher>
        <Corporation>
          <Corporatename>German Medical Science GMS Publishing House</Corporatename>
        </Corporation>
        <Address>D&#252;sseldorf</Address>
      </Publisher>
    </PublisherList>
    <SubjectGroup>
      <SubjectheadingDDB>610</SubjectheadingDDB>
    </SubjectGroup>
    <DatePublishedList>
      <DatePublished>20250318</DatePublished>
    </DatePublishedList>
    <Language>germ</Language>
    <License license-type="open-access" xlink:href="http://creativecommons.org/licenses/by/4.0/">
      <AltText language="en">This is an Open Access article distributed under the terms of the Creative Commons Attribution 4.0 License.</AltText>
      <AltText language="de">Dieser Artikel ist ein Open-Access-Artikel und steht unter den Lizenzbedingungen der Creative Commons Attribution 4.0 License (Namensnennung).</AltText>
    </License>
    <SourceGroup>
      <Meeting>
        <MeetingId>M0607</MeetingId>
        <MeetingSequence>163</MeetingSequence>
        <MeetingCorporation>Deutsche Gesellschaft f&#252;r Audiologie e. V. und ADANO</MeetingCorporation>
        <MeetingName>27. Jahrestagung der Deutschen Gesellschaft f&#252;r Audiologie und Arbeitstagung der Arbeitsgemeinschaft Deutschsprachiger Audiologen, Neurootologen und Otologen</MeetingName>
        <MeetingTitle></MeetingTitle>
        <MeetingSession>Postersession</MeetingSession>
        <MeetingCity>G&#246;ttingen</MeetingCity>
        <MeetingDate>
          <DateFrom>20250319</DateFrom>
          <DateTo>20250321</DateTo>
        </MeetingDate>
      </Meeting>
    </SourceGroup>
    <ArticleNo>163</ArticleNo>
  </MetaData>
  <OrigData>
    <TextBlock name="Text" linked="yes">
      <MainHeadline>Text</MainHeadline><Pgraph><Mark1>Fragestellung:</Mark1> Benutzer von H&#246;rger&#228;ten haben oft Schwierigkeiten bei Unterhaltungen, in denen mehrere Sprecher gleichzeitig aktiv sind. Neurofeedback, in welchem der Fokus der Aufmerksamkeit aus EEG-Ableitungen dekodiert wird, k&#246;nnte benutzt werden, um die Signalverarbeitung im H&#246;rger&#228;t zu steuern und Hintergrundrauschen zu reduzieren. F&#252;r ein solches Neurofeedback m&#252;ssen Dekodierungsstrategien spezifisch f&#252;r H&#246;rgesch&#228;digte entwickelt und validiert werden. Diese Studie untersucht die Effektivit&#228;t k&#252;nstlicher neuronaler Netze im Vergleich mit einem linearen Modell bei H&#246;rger&#228;tetr&#228;gern und H&#246;rger&#228;tetr&#228;gerinnen sowie einer normalh&#246;renden Kontrollgruppe.</Pgraph><Pgraph><Mark1>Methoden:</Mark1> Es wurden EEG-Daten von 28 H&#246;rger&#228;tetr&#228;gern und H&#246;rger&#228;tetr&#228;gerinnen sowie von 29 altersentsprechenden normalh&#246;rendenden Kontrollprobandinnen und Kontrollprobanden erhoben. Die Studie bestand aus 20 Abschnitten &#224; zwei Minuten, in denen H&#246;rb&#252;cher &#252;ber Lautsprecher aus verschiedenen Richtungen pr&#228;sentiert wurden. In acht Abschnitten war ein einzelnes H&#246;rbuch zu h&#246;ren, in den restlichen zw&#246;lf Abschnitten wurde ein Mehrsprecherszenario durch die gleichzeitige Pr&#228;sentation zweier H&#246;rb&#252;cher simuliert, wobei sich die Teilnehmerinnen und Teilnehmer abwechselnd auf eine der beiden Geschichten konzentrieren sollten. Die Aufmerksamkeit wurde mittels Verst&#228;ndnisfragen nach den einzelnen Abschnitten &#252;berpr&#252;ft. Zus&#228;tzlich wurde die subjektive H&#246;ranstrengung in den verschiedenen Bedingungen abgefragt.</Pgraph><Pgraph>Wir vergleichen Effektivit&#228;t eines linearen Ridge Regression Modells mit einem Faltungsnetzwerk (CNN) zur Dekodierung der Spracheinh&#252;llenden des Zielsignals. Vorstudien zeigten signifikant verbesserte Dekodierungsergebnisse durch CNNs bei Normalh&#246;renden sowie bei Nutzern von Cochlea-Implantaten <TextLink reference="1"></TextLink>, <TextLink reference="2"></TextLink>.</Pgraph><Pgraph><Mark1>Ergebnisse:</Mark1> In beiden Kohorten war die H&#246;ranstrengung in der Mehrsprechersituation signifikant h&#246;her als in der Einzelsprechersituation. Au&#223;erdem gaben die H&#246;rger&#228;tetr&#228;ger&#47;innen signifikant erh&#246;hte H&#246;ranstrengungen in der Mehrsprechersituation verglichen mit der Kontrollgruppe an.</Pgraph><Pgraph>In beiden Kohorten war eine signifikante Dekodierung der Spracheinh&#252;llenden m&#246;glich. Die Kontrollgruppe erreichte eine Dekodierungsgenauigkeit von 82&#37; auf einem 60-Sekunden Fenster mit dem linearen Modell. Die h&#246;rgesch&#228;digte Kohorte erreichte in derselben Modalit&#228;t eine Genauigkeit von 81&#37;. Unsere Analyse ergab keinen signifikanten Unterschied der Dekodierungsgenauigkeit zwischen den beiden Kohorten.</Pgraph><Pgraph><Mark1>Schlussfolgerungen:</Mark1> Unsere Studie repliziert erh&#246;hte H&#246;ranstrengung in Mehrsprechersituation f&#252;r Normalh&#246;rende und H&#246;rger&#228;tetr&#228;gerinnen und H&#246;rger&#228;tetr&#228;ger. &#196;hnliche Dekodierungsgenauigkeiten in der h&#246;rger&#228;tetragenden Kohorte wie in der Kontrollgruppe deuten darauf hin, dass methodische Fortschritte der Dekodierung in Normalh&#246;renden auf H&#246;rger&#228;tetr&#228;gerinnen und H&#246;rger&#228;tetr&#228;ger &#252;bertragbar sind.</Pgraph></TextBlock>
    <References linked="yes">
      <Reference refNo="1">
        <RefAuthor>Thornton M</RefAuthor>
        <RefAuthor>Mandic D</RefAuthor>
        <RefAuthor>Reichenbach T</RefAuthor>
        <RefTitle>Robust decoding of the speech envelope from EEG recordings through deep neural networks</RefTitle>
        <RefYear>2022</RefYear>
        <RefJournal>J Neural Eng</RefJournal>
        <RefPage></RefPage>
        <RefTotal>Thornton M, Mandic D, Reichenbach T. Robust decoding of the speech envelope from EEG recordings through deep neural networks. J Neural Eng. 2022 Jul 6;19(4). DOI: 10.1088&#47;1741-2552&#47;ac7976</RefTotal>
        <RefLink>http:&#47;&#47;dx.doi.org&#47;10.1088&#47;1741-2552&#47;ac7976</RefLink>
      </Reference>
      <Reference refNo="2">
        <RefAuthor>Jehn C</RefAuthor>
        <RefAuthor>Kossmann A</RefAuthor>
        <RefAuthor>Vavatzanidis NK</RefAuthor>
        <RefAuthor>Hahne A</RefAuthor>
        <RefAuthor>Reichenbach T</RefAuthor>
        <RefTitle>CNNs improve decoding of selective attention to speech in cochlear implant users</RefTitle>
        <RefYear>2024</RefYear>
        <RefJournal>TechRxiv</RefJournal>
        <RefPage></RefPage>
        <RefTotal>Jehn C, Kossmann A, Vavatzanidis NK, Hahne A, Reichenbach T. CNNs improve decoding of selective attention to speech in cochlear implant users. TechRxiv. 2024. DOI: 10.36227&#47;techrxiv.171710242.23399264&#47;v1</RefTotal>
        <RefLink>http:&#47;&#47;dx.doi.org&#47;10.36227&#47;techrxiv.171710242.23399264&#47;v1</RefLink>
      </Reference>
    </References>
    <Media>
      <Tables>
        <NoOfTables>0</NoOfTables>
      </Tables>
      <Figures>
        <NoOfPictures>0</NoOfPictures>
      </Figures>
      <InlineFigures>
        <NoOfPictures>0</NoOfPictures>
      </InlineFigures>
      <Attachments>
        <NoOfAttachments>0</NoOfAttachments>
      </Attachments>
    </Media>
  </OrigData>
</GmsArticle>