<?xml version="1.0" encoding="iso-8859-1" standalone="no"?>
<!DOCTYPE GmsArticle SYSTEM "http://www.egms.de/dtd/2.0.34/GmsArticle.dtd">
<GmsArticle xmlns:xlink="http://www.w3.org/1999/xlink">
  <MetaData>
    <Identifier>26dga137</Identifier>
    <IdentifierDoi>10.3205/26dga137</IdentifierDoi>
    <IdentifierUrn>urn:nbn:de:0183-26dga1377</IdentifierUrn>
    <ArticleType>Meeting Abstract</ArticleType>
    <TitleGroup>
      <Title language="de">Alltagsnutzen der St&#246;rger&#228;uschunterdr&#252;ckung von H&#246;rger&#228;ten in dyadischen Gespr&#228;chen</Title>
    </TitleGroup>
    <CreatorList>
      <Creator>
        <PersonNames>
          <Lastname>Klockgether</Lastname>
          <LastnameHeading>Klockgether</LastnameHeading>
          <Firstname>Stefan</Firstname>
          <Initials>S</Initials>
        </PersonNames>
        <Address>
          <Affiliation>Sonova AG, R&#38;D, St&#228;fa, Schweiz</Affiliation>
        </Address>
        <Creatorrole corresponding="no" presenting="no">author</Creatorrole>
      </Creator>
      <Creator>
        <PersonNames>
          <Lastname>Griepentrog</Lastname>
          <LastnameHeading>Griepentrog</LastnameHeading>
          <Firstname>Sebastian</Firstname>
          <Initials>S</Initials>
        </PersonNames>
        <Address>
          <Affiliation>Sonova AG, R&#38;D, St&#228;fa, Schweiz</Affiliation>
        </Address>
        <Creatorrole corresponding="no" presenting="yes">author</Creatorrole>
      </Creator>
      <Creator>
        <PersonNames>
          <Lastname>Hollenbach</Lastname>
          <LastnameHeading>Hollenbach</LastnameHeading>
          <Firstname>Josephine</Firstname>
          <Initials>J</Initials>
        </PersonNames>
        <Address>
          <Affiliation>Sonova AG, R&#38;D, St&#228;fa, Schweiz</Affiliation>
        </Address>
        <Creatorrole corresponding="no" presenting="no">author</Creatorrole>
      </Creator>
      <Creator>
        <PersonNames>
          <Lastname>Raether</Lastname>
          <LastnameHeading>Raether</LastnameHeading>
          <Firstname>Juliane</Firstname>
          <Initials>J</Initials>
        </PersonNames>
        <Address>
          <Affiliation>Sonova AG, R&#38;D, St&#228;fa, Schweiz</Affiliation>
        </Address>
        <Creatorrole corresponding="no" presenting="no">author</Creatorrole>
      </Creator>
      <Creator>
        <PersonNames>
          <Lastname>Lesimple</Lastname>
          <LastnameHeading>Lesimple</LastnameHeading>
          <Firstname>Christophe</Firstname>
          <Initials>C</Initials>
        </PersonNames>
        <Address>
          <Affiliation>Sonova AG, R&#38;D, St&#228;fa, Schweiz</Affiliation>
        </Address>
        <Creatorrole corresponding="no" presenting="no">author</Creatorrole>
      </Creator>
    </CreatorList>
    <PublisherList>
      <Publisher>
        <Corporation>
          <Corporatename>German Medical Science GMS Publishing House</Corporatename>
        </Corporation>
        <Address>D&#252;sseldorf</Address>
      </Publisher>
    </PublisherList>
    <SubjectGroup>
      <SubjectheadingDDB>610</SubjectheadingDDB>
    </SubjectGroup>
    <DatePublishedList>
      <DatePublished >20260302</DatePublished >
    </DatePublishedList>
    <Language>germ</Language>
    <License license-type="open-access" xlink:href="http://creativecommons.org/licenses/by/4.0/">
      <AltText language="en">This is an Open Access article distributed under the terms of the Creative Commons Attribution 4.0 License.</AltText>
      <AltText language="de">Dieser Artikel ist ein Open-Access-Artikel und steht unter den Lizenzbedingungen der Creative Commons Attribution 4.0 License (Namensnennung).</AltText>
    </License>
    <SourceGroup>
      <Meeting>
        <MeetingId>M0642</MeetingId>
        <MeetingSequence>137</MeetingSequence>
        <MeetingCorporation>Deutsche Gesellschaft f&#252;r Audiologie e. V.</MeetingCorporation>
        <MeetingName>28. Jahrestagung der Deutschen Gesellschaft f&#252;r Audiologie</MeetingName>
        <MeetingTitle></MeetingTitle>
        <MeetingSession>Freie Vortr&#228;ge 13: H&#246;rger&#228;te I</MeetingSession>
        <MeetingCity>Oldenburg</MeetingCity>
        <MeetingDate>
          <DateFrom>20260304</DateFrom>
          <DateTo>20260306</DateTo>
        </MeetingDate>
      </Meeting>
    </SourceGroup>
    <ArticleNo>137</ArticleNo>
  </MetaData>
  <OrigData>
    <TextBlock name="Text" linked="yes">
      <MainHeadline>Text</MainHeadline><Pgraph>Zum nat&#252;rlichen Kommunikationsverhalten geh&#246;rt die Anpassung von Distanz und Sprachpegel an die jeweilige Situationskomplexit&#228;t, an gesellschaftliche Normen und an das Verhalten des Gespr&#228;chspartners.  &#91;JR1&#93; Je schwieriger dabei die H&#246;rsituation ist, desto mehr n&#228;hern sich die Gespr&#228;chspartner aneinander an <TextLink reference="1"></TextLink>. Je lauter die Hintergrundger&#228;usche wahrgenommen werden, desto lauter wird gesprochen, um weiterhin verstanden zu werden (Lombard-Effekt, <TextLink reference="2"></TextLink>).</Pgraph><Pgraph>Die in diesem Beitrag vorgestellte Studie, verfolgt die Idee, das Verhalten von Versuchsteilnehmern in echten Gespr&#228;chssituationen zu erfassen und aus ihrem Verhalten auf die wahrgenommene Schwierigkeit zu kommunizieren zu schlie&#223;en. Damit sollte untersucht werden, ob die St&#246;rger&#228;uschunterdr&#252;ckung durch H&#246;rger&#228;tesignalverarbeitung eine objektiv messbare Vereinfachung der wahrgenommenen Kommunikationsschwierigkeit erm&#246;glichen kann.   </Pgraph><Pgraph>Hierzu wurden 15 erfahrende H&#246;rger&#228;tenutzer mit leicht- mittelgradigem H&#246;rverlust in drei unterschiedlichen Konditionen (Signalverarbeitungsalgorithmen im H&#246;rger&#228;t), Teilnehmer-verblindet, in dyadischen Interaktionen untersucht. Das Experiment wurde im Sonova Real Life Lab am Entwicklungsstandort St&#228;fa (Schweiz) durchgef&#252;hrt, welches immersive, audio-visuelle Wiedergabe von 360&#176;-Aufnahmen realer H&#246;rsituationen erlaubt. W&#228;hrend der Datenerfassung wurde eine typische Cocktail-Party Situation wiedergegeben, &#91;LC2&#93; die im Pegel zwischen 50 und 75 dB SPL und entsprechend in ihrer Komplexit&#228;t variiert wurde. Dadurch wurden die Versuchsteilnehmer gezwungen ihr Verhalten anzupassen, um die Unterhaltung effektiv fortsetzen zu k&#246;nnen. Die aufgenommenen Gespr&#228;che dauerten jeweils 195 Sekunden und wurden von allen Gespr&#228;chspaaren mit drei verschiedenen H&#246;rger&#228;teprogrammeinstellungen mit und verschiedene St&#246;rger&#228;uschunterdr&#252;ckung wiederholt.  </Pgraph><Pgraph>Erfasst wurden Gespr&#228;chsdistanz (Motion-Capture) und Sprachpegel (Lavalier-Mikrofone). Nach jedem Gespr&#228;ch f&#252;llten die Teilnehmenden einen kurzen Fragebogen zur wahrgenommenen Kommunikationsschwierigkeit aus.  Zur Auswertung wurden die Ma&#223;e in Abh&#228;ngigkeit vom jeweiligen Hintergrundpegel analysiert und zwischen den drei H&#246;rger&#228;teprogrammeinstellungen verglichen. Wie erwartbar steigt der Sprachpegel mit zunehmendem Hintergrundpegel an und die Kommunikationsdistanz nimmt ab.  Die Ergebnisse zeigen au&#223;erdem geringere Sprachpegel bei st&#228;rkerer St&#246;rger&#228;uschunterdr&#252;ckung, ohne Unterschiede in der Gespr&#228;chsdistanz. Die subjektiven Einsch&#228;tzungen der Versuchsteilnehmer deuten darauf hin, dass das Kommunizieren in der simulierten, schwierigen H&#246;rsituation mit starker St&#246;rger&#228;uschunterdr&#252;ckung leichter f&#228;llt als ohne.  &#91;LC3&#93; &#91;KS4&#93; </Pgraph><Pgraph>Die Ergebnisse zeigen, wie erwartet, h&#246;here Sprachpegel bei lauterem St&#246;rger&#228;usch. Beim Nutzten von St&#246;rger&#228;uschunterdr&#252;ckungsalgorithmen waren die Sprachpegel kleiner und die subjektive Zufriedenheit mit der Gespr&#228;chssituation gr&#246;&#223;er.</Pgraph></TextBlock>
    <References linked="yes">
      <Reference refNo="1">
        <RefAuthor>Weisser A</RefAuthor>
        <RefAuthor>Miles K</RefAuthor>
        <RefAuthor>Richardson MJ</RefAuthor>
        <RefAuthor>Buchholz JM</RefAuthor>
        <RefTitle>Conversational distance adaptation in noise and its effect on signal-to-noise ratio in realistic listening environments</RefTitle>
        <RefYear>2021</RefYear>
        <RefJournal>J Acoust Soc Am</RefJournal>
        <RefPage>2896</RefPage>
        <RefTotal>Weisser A, Miles K, Richardson MJ, Buchholz JM. Conversational distance adaptation in noise and its effect on signal-to-noise ratio in realistic listening environments. J Acoust Soc Am. 2021 Apr;149(4):2896. DOI: 10.1121&#47;10.0004774</RefTotal>
        <RefLink>http:&#47;&#47;dx.doi.org&#47;10.1121&#47;10.0004774</RefLink>
      </Reference>
      <Reference refNo="2">
        <RefAuthor>Hadley LV</RefAuthor>
        <RefAuthor>Brimijoin WO</RefAuthor>
        <RefAuthor>Whitmer WM</RefAuthor>
        <RefTitle>Speech, movement, and gaze behaviours during dyadic conversation in noise</RefTitle>
        <RefYear>2019</RefYear>
        <RefJournal>Sci Rep</RefJournal>
        <RefPage>10451</RefPage>
        <RefTotal>Hadley LV, Brimijoin WO, Whitmer WM. Speech, movement, and gaze behaviours during dyadic conversation in noise. Sci Rep. 2019 Jul 18;9(1):10451. DOI: 10.1038&#47;s41598-019-46416-0</RefTotal>
        <RefLink>http:&#47;&#47;dx.doi.org&#47;10.1038&#47;s41598-019-46416-0</RefLink>
      </Reference>
    </References>
    <Media>
      <Tables>
        <NoOfTables>0</NoOfTables>
      </Tables>
      <Figures>
        <NoOfPictures>0</NoOfPictures>
      </Figures>
      <InlineFigures>
        <NoOfPictures>0</NoOfPictures>
      </InlineFigures>
      <Attachments>
        <NoOfAttachments>0</NoOfAttachments>
      </Attachments>
    </Media>
  </OrigData>
</GmsArticle>