<?xml version="1.0" encoding="iso-8859-1" standalone="no"?>
<!DOCTYPE GmsArticle SYSTEM "http://www.egms.de/dtd/2.0.34/GmsArticle.dtd">
<GmsArticle xmlns:xlink="http://www.w3.org/1999/xlink">
  <MetaData>
    <Identifier>26dga222</Identifier>
    <IdentifierDoi>10.3205/26dga222</IdentifierDoi>
    <IdentifierUrn>urn:nbn:de:0183-26dga2220</IdentifierUrn>
    <ArticleType>Meeting Abstract</ArticleType>
    <TitleGroup>
      <Title language="de">Erprobung eines Kamerasystems zur externen Erfassung von Augen- und Kopfbewegungen bei Lokalisationsmessungen (easy2VERIFY Projekt)</Title>
    </TitleGroup>
    <CreatorList>
      <Creator>
        <PersonNames>
          <Lastname>Schmidt</Lastname>
          <LastnameHeading>Schmidt</LastnameHeading>
          <Firstname>Katharina</Firstname>
          <Initials>K</Initials>
        </PersonNames>
        <Address>
          <Affiliation>Jade Hochschule Oldenburg, Institut f&#252;r H&#246;rtechnik und Audiologie, Oldenburg, Deutschland</Affiliation>
          <Affiliation>paezo &#8211; P&#228;daudiologie in Oldenburg, Oldenburg, Deutschland</Affiliation>
        </Address>
        <Creatorrole corresponding="no" presenting="yes">author</Creatorrole>
      </Creator>
      <Creator>
        <PersonNames>
          <Lastname>Kowalk</Lastname>
          <LastnameHeading>Kowalk</LastnameHeading>
          <Firstname>Ulrik</Firstname>
          <Initials>U</Initials>
        </PersonNames>
        <Address>
          <Affiliation>Jade Hochschule Oldenburg, Institut f&#252;r H&#246;rtechnik und Audiologie, Oldenburg, Deutschland</Affiliation>
        </Address>
        <Creatorrole corresponding="no" presenting="no">author</Creatorrole>
      </Creator>
      <Creator>
        <PersonNames>
          <Lastname>Hochmuth</Lastname>
          <LastnameHeading>Hochmuth</LastnameHeading>
          <Firstname>Sabine</Firstname>
          <Initials>S</Initials>
        </PersonNames>
        <Address>
          <Affiliation>Universit&#228;tsklinik f&#252;r HNO-Heilkunde, CvO Universit&#228;t, Oldenburg, Deutschland</Affiliation>
        </Address>
        <Creatorrole corresponding="no" presenting="no">author</Creatorrole>
      </Creator>
      <Creator>
        <PersonNames>
          <Lastname>Plotz</Lastname>
          <LastnameHeading>Plotz</LastnameHeading>
          <Firstname>Karsten</Firstname>
          <Initials>K</Initials>
        </PersonNames>
        <Address>
          <Affiliation>Jade Hochschule Oldenburg, Institut f&#252;r H&#246;rtechnik und Audiologie, Oldenburg, Deutschland</Affiliation>
          <Affiliation>paezo &#8211; P&#228;daudiologie in Oldenburg, Oldenburg, Deutschland</Affiliation>
        </Address>
        <Creatorrole corresponding="no" presenting="no">author</Creatorrole>
      </Creator>
    </CreatorList>
    <PublisherList>
      <Publisher>
        <Corporation>
          <Corporatename>German Medical Science GMS Publishing House</Corporatename>
        </Corporation>
        <Address>D&#252;sseldorf</Address>
      </Publisher>
    </PublisherList>
    <SubjectGroup>
      <SubjectheadingDDB>610</SubjectheadingDDB>
    </SubjectGroup>
    <DatePublishedList>
      <DatePublished >20260302</DatePublished >
    </DatePublishedList>
    <Language>germ</Language>
    <License license-type="open-access" xlink:href="http://creativecommons.org/licenses/by/4.0/">
      <AltText language="en">This is an Open Access article distributed under the terms of the Creative Commons Attribution 4.0 License.</AltText>
      <AltText language="de">Dieser Artikel ist ein Open-Access-Artikel und steht unter den Lizenzbedingungen der Creative Commons Attribution 4.0 License (Namensnennung).</AltText>
    </License>
    <SourceGroup>
      <Meeting>
        <MeetingId>M0642</MeetingId>
        <MeetingSequence>222</MeetingSequence>
        <MeetingCorporation>Deutsche Gesellschaft f&#252;r Audiologie e. V.</MeetingCorporation>
        <MeetingName>28. Jahrestagung der Deutschen Gesellschaft f&#252;r Audiologie</MeetingName>
        <MeetingTitle></MeetingTitle>
        <MeetingSession>Postersession</MeetingSession>
        <MeetingCity>Oldenburg</MeetingCity>
        <MeetingDate>
          <DateFrom>20260304</DateFrom>
          <DateTo>20260306</DateTo>
        </MeetingDate>
      </Meeting>
    </SourceGroup>
    <ArticleNo>222</ArticleNo>
  </MetaData>
  <OrigData>
    <TextBlock name="Text" linked="yes">
      <MainHeadline>Text</MainHeadline><Pgraph><Mark1>Fragestellung:</Mark1> Die Augen- und Kopfbewegungen k&#246;nnen die auditive Verarbeitung positiv beeinflussen und erleichtern, insbesondere in komplexen H&#246;rsituationen. Das auditive System arbeitet oft mit dem visuellen System zusammen. Werden Augen- und Kopfbewegungen zu einer Schallquelle hin synchronisiert, k&#246;nnen r&#228;umliche Situationen besser verarbeitet und die Lokalisationsf&#228;higkeit der einzelnen Quellen erh&#246;ht werden. Aus diesem Grund ist es wichtig, Informationen &#252;ber die Bewegungen von Augen u. Kopf innerhalb der Messung ermitteln zu k&#246;nnen. So wurde u.a. bereits von Gilman et al. 1979 die Kopfbewegung bei Lokalisationsmessungen mittels einer punktuellen Lichtquelle, welche auf dem Kopf der Person befestigt wurde, anhand von Videoaufzeichnungen analysiert. Mit einem &#228;hnlichen Prinzip wurden in den letzten Jahren regelm&#228;&#223;ig Studien von verschiedenen Arbeitsgruppen durchgef&#252;hrt. F&#252;r die Kopfbewegung wurde ein Headtracker auf dem Kopf der Personen positioniert und f&#252;r die Erhebung der Augenbewegungen kam oft ein Eyetracker, welcher in einer Brille integriert war, zum Einsatz (<TextLink reference="1"></TextLink>, <TextLink reference="2"></TextLink>). Hingegen sind Erfassungen der Bewegungen mit einem System, bei dem keine Sensoren direkt am K&#246;rper der Person angebracht werden m&#252;ssen, eher selten &#252;ber kommerzielle Ger&#228;te umsetzbar. So verwendeten Ekl&#246;f et al. 2022 in ihrer Studie ein speziell angefertigtes Eyetrackingsystem, welches im Abstand von 1,2 m funktioniert <TextLink reference="3"></TextLink>. Jedoch ist ein Trackingsystem w&#252;nschenswert, mit dem sowohl Augen- als auch Kopfbewegungen bei unterschiedlichsten Bedingungen aus einem Abstand &#252;ber externe Elemente zeitlich erhoben und f&#252;r audiologische Messungen verwendet werden k&#246;nnen.</Pgraph><Pgraph><Mark1>Methoden:</Mark1> Im BMFTR gef&#246;rderten Projekt &#8222;easy2VERIFY&#8220; (FKZ: 13GW0635C) wurde ein externes Kamerasystem entwickelt, mit dem Kopf- und Augenbewegungen aus einem Abstand von 1 m erfasst und analysiert werden k&#246;nnen. Dabei lag der Fokus auf einer niedrigschwelligen Datenerhebung. Im Aufbau wurden drei USB-Kameras (Typ: Svpro 1080P) im vorderen Halbkreis an den Positionen &#177;45&#176; und 0&#176; mit einem Abstand von 1m zum Bezugspunkt angeordnet. Zur Erkennung von Gesichtern und speziell der Augenpartie wurde ein Convolutional Neural Network (CNN) mit eigens aufgenommenen Bilddaten (in Graustufen) trainiert.  Dabei wird nur der Input der jeweiligen Kamera verwendet, in dessen &#214;ffnungswinkel der gr&#246;&#223;te Anteil des Gesichtsfeldes liegt. Mit dem System k&#246;nnen die Bewegungen bez&#252;glich Azimuth- und Elevationswinkel &#252;ber den zeitlichen Verlauf hinweg erhoben werden. Dies kann auch f&#252;r unterschiedliche Bedingungen erfolgen wie z.B. mit und ohne Brille, bei optimalen und eher dunkleren Lichtverh&#228;ltnissen.</Pgraph><Pgraph><Mark1>Ergebnisse:</Mark1> Zum aktuellen Zeitpunkt ist die Evaluation des Kamerasystems noch nicht abgeschlossen. Es sind Untersuchungen geplant, in dem bei Lokalisationsmessungen die Reaktionszeiten und die Kopf- und Augenbewegungen der teilnehmenden Person erfasst werden. Erste Ergebnisse dieser Studie werden auf der Tagung pr&#228;sentiert.</Pgraph></TextBlock>
    <References linked="yes">
      <Reference refNo="1">
        <RefAuthor>Lertpoompunya A</RefAuthor>
        <RefAuthor>Ozmeral EJ</RefAuthor>
        <RefAuthor>Higgins NC</RefAuthor>
        <RefAuthor>Eddins DA</RefAuthor>
        <RefTitle>Head-orienting behaviors during simultaneous speech detection and localization</RefTitle>
        <RefYear>2024</RefYear>
        <RefJournal>Front Psychol</RefJournal>
        <RefPage>1425972</RefPage>
        <RefTotal>Lertpoompunya A, Ozmeral EJ, Higgins NC, Eddins DA. Head-orienting behaviors during simultaneous speech detection and localization. Front Psychol. 2024 Sep 17;15:1425972. DOI: 10.3389&#47;fpsyg.2024.1425972</RefTotal>
        <RefLink>http:&#47;&#47;dx.doi.org&#47;10.3389&#47;fpsyg.2024.1425972</RefLink>
      </Reference>
      <Reference refNo="2">
        <RefAuthor>Alemu RZ</RefAuthor>
        <RefAuthor>Papsin BC</RefAuthor>
        <RefAuthor>Harrison RV</RefAuthor>
        <RefAuthor>Blakeman A</RefAuthor>
        <RefAuthor>Gordon KA</RefAuthor>
        <RefTitle>Head and Eye Movements Reveal Compensatory Strategies for Acute Binaural Deficits During Sound Localization</RefTitle>
        <RefYear>2024</RefYear>
        <RefJournal>Trends Hear</RefJournal>
        <RefPage>23312165231217910</RefPage>
        <RefTotal>Alemu RZ, Papsin BC, Harrison RV, Blakeman A, Gordon KA. Head and Eye Movements Reveal Compensatory Strategies for Acute Binaural Deficits During Sound Localization. Trends Hear. 2024 Jan-Dec;28:23312165231217910. DOI: 10.1177&#47;23312165231217910</RefTotal>
        <RefLink>http:&#47;&#47;dx.doi.org&#47;10.1177&#47;23312165231217910</RefLink>
      </Reference>
      <Reference refNo="3">
        <RefAuthor>Ekl&#246;f M</RefAuthor>
        <RefAuthor>Asp F</RefAuthor>
        <RefAuthor>Berninger E</RefAuthor>
        <RefTitle>The Development of Sound Localization Latency in Infants and Young Children with Normal Hearing</RefTitle>
        <RefYear>2022</RefYear>
        <RefJournal>Trends Hear</RefJournal>
        <RefPage>23312165221088398</RefPage>
        <RefTotal>Ekl&#246;f M, Asp F, Berninger E. The Development of Sound Localization Latency in Infants and Young Children with Normal Hearing. Trends Hear. 2022 Jan-Dec;26:23312165221088398. DOI: 10.1177&#47;23312165221088398</RefTotal>
        <RefLink>http:&#47;&#47;dx.doi.org&#47;10.1177&#47;23312165221088398</RefLink>
      </Reference>
    </References>
    <Media>
      <Tables>
        <NoOfTables>0</NoOfTables>
      </Tables>
      <Figures>
        <NoOfPictures>0</NoOfPictures>
      </Figures>
      <InlineFigures>
        <NoOfPictures>0</NoOfPictures>
      </InlineFigures>
      <Attachments>
        <NoOfAttachments>0</NoOfAttachments>
      </Attachments>
    </Media>
  </OrigData>
</GmsArticle>