<?xml version="1.0" encoding="iso-8859-1" standalone="no"?>
<!DOCTYPE GmsArticle SYSTEM "http://www.egms.de/dtd/2.0.34/GmsArticle.dtd">
<GmsArticle xmlns:xlink="http://www.w3.org/1999/xlink">
  <MetaData>
    <Identifier>25dga073</Identifier>
    <IdentifierDoi>10.3205/25dga073</IdentifierDoi>
    <IdentifierUrn>urn:nbn:de:0183-25dga0736</IdentifierUrn>
    <ArticleType>Meeting Abstract</ArticleType>
    <TitleGroup>
      <Title language="de">H&#246;rstress</Title>
    </TitleGroup>
    <CreatorList>
      <Creator>
        <PersonNames>
          <Lastname>Warncke</Lastname>
          <LastnameHeading>Warncke</LastnameHeading>
          <Firstname>Horst</Firstname>
          <Initials>H</Initials>
        </PersonNames>
        <Address>
          <Affiliation>Oticon GmbH, Hamburg, Deutschland</Affiliation>
        </Address>
        <Creatorrole corresponding="no" presenting="yes">author</Creatorrole>
      </Creator>
    </CreatorList>
    <PublisherList>
      <Publisher>
        <Corporation>
          <Corporatename>German Medical Science GMS Publishing House</Corporatename>
        </Corporation>
        <Address>D&#252;sseldorf</Address>
      </Publisher>
    </PublisherList>
    <SubjectGroup>
      <SubjectheadingDDB>610</SubjectheadingDDB>
    </SubjectGroup>
    <DatePublishedList>
      <DatePublished>20250318</DatePublished>
    </DatePublishedList>
    <Language>germ</Language>
    <License license-type="open-access" xlink:href="http://creativecommons.org/licenses/by/4.0/">
      <AltText language="en">This is an Open Access article distributed under the terms of the Creative Commons Attribution 4.0 License.</AltText>
      <AltText language="de">Dieser Artikel ist ein Open-Access-Artikel und steht unter den Lizenzbedingungen der Creative Commons Attribution 4.0 License (Namensnennung).</AltText>
    </License>
    <SourceGroup>
      <Meeting>
        <MeetingId>M0607</MeetingId>
        <MeetingSequence>073</MeetingSequence>
        <MeetingCorporation>Deutsche Gesellschaft f&#252;r Audiologie e. V. und ADANO</MeetingCorporation>
        <MeetingName>27. Jahrestagung der Deutschen Gesellschaft f&#252;r Audiologie und Arbeitstagung der Arbeitsgemeinschaft Deutschsprachiger Audiologen, Neurootologen und Otologen</MeetingName>
        <MeetingTitle></MeetingTitle>
        <MeetingSession>Freie Vortr&#228;ge 10: H&#246;rger&#228;te</MeetingSession>
        <MeetingCity>G&#246;ttingen</MeetingCity>
        <MeetingDate>
          <DateFrom>20250319</DateFrom>
          <DateTo>20250321</DateTo>
        </MeetingDate>
      </Meeting>
    </SourceGroup>
    <ArticleNo>073</ArticleNo>
  </MetaData>
  <OrigData>
    <TextBlock name="Text" linked="yes">
      <MainHeadline>Text</MainHeadline><Pgraph>Sprachverstehen in lauter H&#246;rumgebungen ist die gr&#246;&#223;te Herausforderung f&#252;r h&#246;rgeminderte Menschen. Das Erkennen und Fokussieren auf einen, unter vielen Sprechern, entscheidet &#252;ber die Teilnahme an einer Unterhaltung.</Pgraph><Pgraph>Neue H&#246;rsysteme <TextLink reference="1"></TextLink> verf&#252;gen &#252;ber Bewegungssensoren, mit denen die H&#246;rintention des Nutzers erkannt und die H&#246;runterst&#252;tzung entsprechend adaptiv angepasst wird. In dieser Studie wurde Virtual Reality (VR) verwendet, um zu untersuchen, ob die Studien-Ger&#228;te einen Vorteil in Bezug auf H&#246;ranstrengung und H&#246;rstress bieten <TextLink reference="2"></TextLink>.</Pgraph><Pgraph>Die objektive H&#246;ranstrengung wurde mithilfe von Pupillometrie gemessen, dabei werden die Ver&#228;nderungen der Pupillengr&#246;sse beobachtet. Eine Erweiterung der Pupille deutet auf erh&#246;hte H&#246;ranstrengung hin <TextLink reference="3"></TextLink>.</Pgraph><Pgraph>H&#246;rstress kann durch Ver&#228;nderungen der Herzfrequenz beobachtet werden <TextLink reference="4"></TextLink>. H&#246;rstress kann mit H&#246;ranstrengung verbunden sein, da eine erh&#246;hte Anstrengung zu Stress f&#252;hren kann.</Pgraph><Pgraph>Mithilfe von VR und Raumakustik-Simulation wurden realistische, audiovisuelle Klangszenen geschaffen <TextLink reference="2"></TextLink>. F&#252;nfzehn visuelle Avatare wurden im station&#228;ren St&#246;rger&#228;usch horizontal angeordnet. 2 Klangszenen wurden untersucht: komplex und sehr komplex (2 u. 4 konkurrierende Sprecher). Pupillengr&#246;&#223;e und Herzfrequenz wurden kontinuierlich aufgezeichnet. Die Studienger&#228;te und Vorg&#228;ngerger&#228;te wurden 25 Probanden mit First Fit individuell angepasst.</Pgraph><Pgraph>Die Teilnehmer mussten sich in der Klangszene orientieren und einen Nachrichten-Sprecher anhand eines visuellen Hinweises lokalisieren. Anschlie&#223;end sollten sie sich auf den identifizierten Sprecher konzentrieren. Das Sprachverstehen wurde mit einer Ja&#47;Nein-Frage zum Inhalt der Nachricht bewertet.</Pgraph><Pgraph>Im Beitrag werden die Ergebnisse gezeigt.</Pgraph><Pgraph>Gemessen wurde die Ver&#228;nderung der Pupillengr&#246;&#223;e mit den Studien- und Vergleichsger&#228;ten in komplexer und sehr komplexer H&#246;rumgebung.</Pgraph><Pgraph>Eine Ver&#228;nderung der Herzfrequenz (Schl&#228;ge&#47;min) zwischen der Klangszene deutet darauf hin, dass der H&#246;rstress unterschiedlich beeinflusst wird. Die neuen Studienger&#228;te k&#246;nnen die H&#246;ranstrengung und den H&#246;rstresses verringern.</Pgraph></TextBlock>
    <References linked="yes">
      <Reference refNo="1">
        <RefAuthor>Bianchi F</RefAuthor>
        <RefAuthor>Eskelund K</RefAuthor>
        <RefAuthor>Zapata-Rodriguez V</RefAuthor>
        <RefAuthor>Sanchez Lopez R</RefAuthor>
        <RefAuthor>Gade P</RefAuthor>
        <RefTitle></RefTitle>
        <RefYear>2024</RefYear>
        <RefBookTitle>Oticon Intent&#8482; - Clinical evidence. BrainHearing&#8482; benefits of the 4D Sensor Technology. Oticon whitepaper</RefBookTitle>
        <RefPage></RefPage>
        <RefTotal>Bianchi F, Eskelund K, Zapata-Rodriguez V, Sanchez Lopez R, Gade P. Oticon Intent&#8482; - Clinical evidence. BrainHearing&#8482; benefits of the 4D Sensor Technology. Oticon whitepaper. 2024.</RefTotal>
      </Reference>
      <Reference refNo="2">
        <RefAuthor>Ahrens A</RefAuthor>
        <RefAuthor>Lund KD</RefAuthor>
        <RefTitle>Auditory spatial analysis in reverberant multi-talker environments with congruent and incongruent audio-visual room information</RefTitle>
        <RefYear>2022</RefYear>
        <RefJournal>J Acoust Soc Am</RefJournal>
        <RefPage>1586</RefPage>
        <RefTotal>Ahrens A, Lund KD. Auditory spatial analysis in reverberant multi-talker environments with congruent and incongruent audio-visual room information. J Acoust Soc Am. 2022 Sep;152(3):1586. DOI: 10.1121&#47;10.0013991</RefTotal>
        <RefLink>http:&#47;&#47;dx.doi.org&#47;10.1121&#47;10.0013991</RefLink>
      </Reference>
      <Reference refNo="3">
        <RefAuthor>Fiedler L</RefAuthor>
        <RefAuthor>Seifi Ala T</RefAuthor>
        <RefAuthor>Graversen C</RefAuthor>
        <RefAuthor>Alickovic E</RefAuthor>
        <RefAuthor>Lunner T</RefAuthor>
        <RefAuthor>Wendt D</RefAuthor>
        <RefTitle>Hearing Aid Noise Reduction Lowers the Sustained Listening Effort During Continuous Speech in Noise-A Combined Pupillometry and EEG Study</RefTitle>
        <RefYear>2021</RefYear>
        <RefJournal>Ear Hear</RefJournal>
        <RefPage>1590-601</RefPage>
        <RefTotal>Fiedler L, Seifi Ala T, Graversen C, Alickovic E, Lunner T, Wendt D. Hearing Aid Noise Reduction Lowers the Sustained Listening Effort During Continuous Speech in Noise-A Combined Pupillometry and EEG Study. Ear Hear. 2021 Nov-Dec 01;42(6):1590-601. DOI: 10.1097&#47;AUD.0000000000001050</RefTotal>
        <RefLink>http:&#47;&#47;dx.doi.org&#47;10.1097&#47;AUD.0000000000001050</RefLink>
      </Reference>
      <Reference refNo="4">
        <RefAuthor>Nielsen RM</RefAuthor>
        <RefAuthor>Ng EHN</RefAuthor>
        <RefTitle></RefTitle>
        <RefYear>2022</RefYear>
        <RefBookTitle>Oticon More&#8482; new evidence &#8211; Reducing sustained listening effort. Oticon whitepaper</RefBookTitle>
        <RefPage></RefPage>
        <RefTotal>Nielsen RM, Ng EHN. Oticon More&#8482; new evidence &#8211; Reducing sustained listening effort. Oticon whitepaper. 2022.</RefTotal>
      </Reference>
      <Reference refNo="5">
        <RefAuthor>Christensen JH</RefAuthor>
        <RefAuthor>Saunders GH</RefAuthor>
        <RefAuthor>Porsbo M</RefAuthor>
        <RefAuthor>Pontoppidan NH</RefAuthor>
        <RefTitle>The everyday acoustic environment and its association with human heart rate: evidence from real-world data logging with hearing aids and wearables</RefTitle>
        <RefYear>2021</RefYear>
        <RefJournal>R Soc Open Sci</RefJournal>
        <RefPage>201345</RefPage>
        <RefTotal>Christensen JH, Saunders GH, Porsbo M, Pontoppidan NH. The everyday acoustic environment and its association with human heart rate: evidence from real-world data logging with hearing aids and wearables. R Soc Open Sci. 2021 Feb 17;8(2):201345. DOI: 10.1098&#47;rsos.201345</RefTotal>
        <RefLink>http:&#47;&#47;dx.doi.org&#47;10.1098&#47;rsos.201345</RefLink>
      </Reference>
      <Reference refNo="6">
        <RefAuthor>Qin S</RefAuthor>
        <RefAuthor>Hermans EJ</RefAuthor>
        <RefAuthor>van Marle HJ</RefAuthor>
        <RefAuthor>Luo J</RefAuthor>
        <RefAuthor>Fern&#225;ndez G</RefAuthor>
        <RefTitle>Acute psychological stress reduces working memory-related activity in the dorsolateral prefrontal cortex</RefTitle>
        <RefYear>2009</RefYear>
        <RefJournal>Biol Psychiatry</RefJournal>
        <RefPage>25-32</RefPage>
        <RefTotal>Qin S, Hermans EJ, van Marle HJ, Luo J, Fern&#225;ndez G. Acute psychological stress reduces working memory-related activity in the dorsolateral prefrontal cortex. Biol Psychiatry. 2009 Jul 1;66(1):25-32. DOI: 10.1016&#47;j.biopsych.2009.03.006</RefTotal>
        <RefLink>http:&#47;&#47;dx.doi.org&#47;10.1016&#47;j.biopsych.2009.03.006</RefLink>
      </Reference>
    </References>
    <Media>
      <Tables>
        <NoOfTables>0</NoOfTables>
      </Tables>
      <Figures>
        <NoOfPictures>0</NoOfPictures>
      </Figures>
      <InlineFigures>
        <NoOfPictures>0</NoOfPictures>
      </InlineFigures>
      <Attachments>
        <NoOfAttachments>0</NoOfAttachments>
      </Attachments>
    </Media>
  </OrigData>
</GmsArticle>