<?xml version="1.0" encoding="iso-8859-1" standalone="no"?>
<!DOCTYPE GmsArticle SYSTEM "http://www.egms.de/dtd/2.0.34/GmsArticle.dtd">
<GmsArticle xmlns:xlink="http://www.w3.org/1999/xlink">
  <MetaData>
    <Identifier>25dga096</Identifier>
    <IdentifierDoi>10.3205/25dga096</IdentifierDoi>
    <IdentifierUrn>urn:nbn:de:0183-25dga0962</IdentifierUrn>
    <ArticleType>Meeting Abstract</ArticleType>
    <TitleGroup>
      <Title language="de">Vom Alltagsger&#228;usch zum individuellen St&#246;rschall: Ergebnisse aus einem zweistufigen H&#246;rexperiment</Title>
    </TitleGroup>
    <CreatorList>
      <Creator>
        <PersonNames>
          <Lastname>von Gablenz</Lastname>
          <LastnameHeading>von Gablenz</LastnameHeading>
          <Firstname>Petra</Firstname>
          <Initials>P</Initials>
        </PersonNames>
        <Address>
          <Affiliation>Jade Hochschule, Institut f&#252;r H&#246;rtechnik und Audiologie, Oldenburg, Deutschland</Affiliation>
        </Address>
        <Creatorrole corresponding="no" presenting="yes">author</Creatorrole>
      </Creator>
      <Creator>
        <PersonNames>
          <Lastname>Ingo</Lastname>
          <LastnameHeading>Ingo</LastnameHeading>
          <Firstname>Elisabeth</Firstname>
          <Initials>E</Initials>
        </PersonNames>
        <Address>
          <Affiliation>Link&#246;ping University, Department of Behavioural Science and Learning, Link&#246;ping, Schweden</Affiliation>
        </Address>
        <Creatorrole corresponding="no" presenting="no">author</Creatorrole>
      </Creator>
      <Creator>
        <PersonNames>
          <Lastname>Bitzer</Lastname>
          <LastnameHeading>Bitzer</LastnameHeading>
          <Firstname>J&#246;rg</Firstname>
          <Initials>J</Initials>
        </PersonNames>
        <Address>
          <Affiliation>Jade Hochschule, Institut f&#252;r H&#246;rtechnik und Audiologie, Oldenburg, Deutschland</Affiliation>
        </Address>
        <Creatorrole corresponding="no" presenting="no">author</Creatorrole>
      </Creator>
      <Creator>
        <PersonNames>
          <Lastname>Holube</Lastname>
          <LastnameHeading>Holube</LastnameHeading>
          <Firstname>Inga</Firstname>
          <Initials>I</Initials>
        </PersonNames>
        <Address>
          <Affiliation>Jade Hochschule, Institut f&#252;r H&#246;rtechnik und Audiologie, Oldenburg, Deutschland</Affiliation>
        </Address>
        <Creatorrole corresponding="no" presenting="no">author</Creatorrole>
      </Creator>
    </CreatorList>
    <PublisherList>
      <Publisher>
        <Corporation>
          <Corporatename>German Medical Science GMS Publishing House</Corporatename>
        </Corporation>
        <Address>D&#252;sseldorf</Address>
      </Publisher>
    </PublisherList>
    <SubjectGroup>
      <SubjectheadingDDB>610</SubjectheadingDDB>
    </SubjectGroup>
    <DatePublishedList>
      <DatePublished>20250318</DatePublished>
    </DatePublishedList>
    <Language>germ</Language>
    <License license-type="open-access" xlink:href="http://creativecommons.org/licenses/by/4.0/">
      <AltText language="en">This is an Open Access article distributed under the terms of the Creative Commons Attribution 4.0 License.</AltText>
      <AltText language="de">Dieser Artikel ist ein Open-Access-Artikel und steht unter den Lizenzbedingungen der Creative Commons Attribution 4.0 License (Namensnennung).</AltText>
    </License>
    <SourceGroup>
      <Meeting>
        <MeetingId>M0607</MeetingId>
        <MeetingSequence>096</MeetingSequence>
        <MeetingCorporation>Deutsche Gesellschaft f&#252;r Audiologie e. V. und ADANO</MeetingCorporation>
        <MeetingName>27. Jahrestagung der Deutschen Gesellschaft f&#252;r Audiologie und Arbeitstagung der Arbeitsgemeinschaft Deutschsprachiger Audiologen, Neurootologen und Otologen</MeetingName>
        <MeetingTitle></MeetingTitle>
        <MeetingSession>Freie Vortr&#228;ge 13: Schallperzeption</MeetingSession>
        <MeetingCity>G&#246;ttingen</MeetingCity>
        <MeetingDate>
          <DateFrom>20250319</DateFrom>
          <DateTo>20250321</DateTo>
        </MeetingDate>
      </Meeting>
    </SourceGroup>
    <ArticleNo>096</ArticleNo>
  </MetaData>
  <OrigData>
    <TextBlock name="Text" linked="yes">
      <MainHeadline>Text</MainHeadline><Pgraph>H&#246;rexperimente im Labor m&#252;ssen zentrale Momente des Alltagsh&#246;rens m&#246;glichst gut abbilden, wenn ihnen ein hoher Grad an &#246;kologischer Validit&#228;t zukommen soll. Vor diesem Hintergrund wurden zahlreiche Ans&#228;tze entwickelt. Dazu z&#228;hlen komplexe St&#246;rschallszenarien, die Einbeziehung audio-visueller Integration sowie umfassende Aufgabenstellungen, die &#252;ber das einfache Wiederholen verstandener Worte und S&#228;tze hinausgehen. Auch das Projekt &#8222;Good auditory ecology for active and healthy aging&#8220; (AudEc) startete in diesem Forschungskontext.</Pgraph><Pgraph>Das Projekt umfasste zun&#228;chst eine mehrt&#228;gige Alltagsmessphase mit Ecological Momentary Assessment und darauf aufbauend im zweiten Teil verschiedene Laborexperimente. Daf&#252;r wurden Erwachsene mit alterstypischem H&#246;rverm&#246;gen in Schweden rekrutiert. In der EMA-Feldphase wurde das smartphonebasierte System olMEGA <TextLink reference="1"></TextLink> genutzt. Das System stellt eine Fragebogen-App bereit, die fortlaufend akustisch-technische Parameter, aber keine Audioaufnahmen speichert. Die Privatheit und die Vertraulichkeit des Worts bleiben gewahrt. F&#252;r die Labortests wurden in den EMA-Daten jedes Teilnehmers eine besonders schwierige und eine einfache Alltagssituation bestimmt, in denen Sprache als Zielsignal und mindestens ein Hintergrundger&#228;usch angegeben waren. Sodann wurden unterabgetastete und gegl&#228;ttete Spektren aus dem jeweiligen Befragungszeitraum von der Eigensprache der EMA-Nutzer befreit und individuelle St&#246;rschallsignale f&#252;r Laborexperimente synthetisiert <TextLink reference="2"></TextLink>. Die synthetisierten Signale weisen die r&#228;umlichen und spektralen Strukturen des Originals auf, sind aber keine direkte Wiederholung der Aufzeichnung und in der L&#228;nge unbeschr&#228;nkt. Da die gespeicherten Parameter keine Phaseninformationen enthielten, klingen die synthetisierten Daten rauschhaft und bilden durch die zeitliche Mittelung nicht die Feinstruktur des originalen Hintergrundger&#228;uschs ab.</Pgraph><Pgraph>Da die Feldphase von AudEc mit der Covid-19-Pandemie zusammenfiel, kam es zu Verz&#246;gerungen und methodischen Anpassungen, u.a. bei den Labormessungen. Statt dialogischer Kommunikationssituationen wurde ein konventionelles sprachaudiometrisches Testsetting mit dem schwedischen HINT-Sprachmaterial genutzt. Dabei wurden den EMA-Teilnehmern die aus ihren individuellen EMA-Daten synthetisierten St&#246;rschalle, aber auch der station&#228;re HINT-St&#246;rschall und der fluktuierende ICRA5-St&#246;rschall pr&#228;sentiert. Messgr&#246;&#223;en waren das prozentuale Sprachverstehen bei verschiedenen Pegeln sowie diverse perzeptive Bewertungen. Zus&#228;tzlich zu den EMA-Teilnehmern wurden weitere Probanden f&#252;r die Labortests rekrutiert, sodass insgesamt 34 Probanden an den sprachaudiometrischen Tests teilnahmen. Der Konferenzbeitrag vergleicht die spektralen und zeitlichen Merkmale der verschiedenen St&#246;rschalle und stellt sie in Zusammenhang mit dem erzielten prozentualen Sprachverstehen und den perzeptiven Messgr&#246;&#223;en.</Pgraph></TextBlock>
    <References linked="yes">
      <Reference refNo="1">
        <RefAuthor>Kowalk U</RefAuthor>
        <RefAuthor>Franz S</RefAuthor>
        <RefAuthor>Groenewold H</RefAuthor>
        <RefAuthor>Holube I</RefAuthor>
        <RefAuthor>von Gablenz P</RefAuthor>
        <RefAuthor>Bitzer J</RefAuthor>
        <RefTitle>olMEGA: an open source android solution for ecological momentary assessment</RefTitle>
        <RefYear>2020:2</RefYear>
        <RefJournal>GMS Z Audiol-Audiol Acoust</RefJournal>
        <RefPage>Doc08</RefPage>
        <RefTotal>Kowalk U, Franz S, Groenewold H, Holube I, von Gablenz P, Bitzer J. olMEGA: an open source android solution for ecological momentary assessment. GMS Z Audiol-Audiol Acoust. 2020:2:Doc08.</RefTotal>
      </Reference>
      <Reference refNo="2">
        <RefAuthor>Adrian JA</RefAuthor>
        <RefAuthor>Gerkmann T</RefAuthor>
        <RefAuthor>van de Par S</RefAuthor>
        <RefAuthor>Bitzer J</RefAuthor>
        <RefTitle>Synthesis of perceptually plausible multichannel noise signals controlled by real world statistical noise properties</RefTitle>
        <RefYear>2017</RefYear>
        <RefJournal>Journal of the Audio Engineering Society</RefJournal>
        <RefPage>914-28</RefPage>
        <RefTotal>Adrian JA, Gerkmann T, van de Par S, Bitzer J. Synthesis of perceptually plausible multichannel noise signals controlled by real world statistical noise properties. Journal of the Audio Engineering Society. 2017;65(11):914-28.</RefTotal>
      </Reference>
    </References>
    <Media>
      <Tables>
        <NoOfTables>0</NoOfTables>
      </Tables>
      <Figures>
        <NoOfPictures>0</NoOfPictures>
      </Figures>
      <InlineFigures>
        <NoOfPictures>0</NoOfPictures>
      </InlineFigures>
      <Attachments>
        <NoOfAttachments>0</NoOfAttachments>
      </Attachments>
    </Media>
  </OrigData>
</GmsArticle>