<?xml version="1.0" encoding="iso-8859-1" standalone="no"?>
<!DOCTYPE GmsArticle SYSTEM "http://www.egms.de/dtd/2.0.34/GmsArticle.dtd">
<GmsArticle xmlns:xlink="http://www.w3.org/1999/xlink">
  <MetaData>
    <Identifier>26dga005</Identifier>
    <IdentifierDoi>10.3205/26dga005</IdentifierDoi>
    <IdentifierUrn>urn:nbn:de:0183-26dga0054</IdentifierUrn>
    <ArticleType>Meeting Abstract</ArticleType>
    <TitleGroup>
      <Title language="de">Potentiale mobiler Sensorik f&#252;r die Versorgung geriatrischer Patient:innen</Title>
    </TitleGroup>
    <CreatorList>
      <Creator>
        <PersonNames>
          <Lastname>Zieschang</Lastname>
          <LastnameHeading>Zieschang</LastnameHeading>
          <Firstname>Tania</Firstname>
          <Initials>T</Initials>
        </PersonNames>
        <Address>
          <Affiliation>Carl von Ossietzky Universit&#228;t Oldenburg, Fakult&#228;t VI, Department f&#252;r Versorgungsforschung, Geriatrie, Oldenburg, Deutschland</Affiliation>
        </Address>
        <Creatorrole corresponding="no" presenting="yes">author</Creatorrole>
      </Creator>
      <Creator>
        <PersonNames>
          <Lastname>Feld</Lastname>
          <LastnameHeading>Feld</LastnameHeading>
          <Firstname>Lea-Christin</Firstname>
          <Initials>LC</Initials>
        </PersonNames>
        <Address>
          <Affiliation>Carl von Ossietzky Universit&#228;t Oldenburg, Fakult&#228;t VI, Department f&#252;r Versorgungsforschung, Geriatrie, Oldenburg, Deutschland</Affiliation>
        </Address>
        <Creatorrole corresponding="no" presenting="no">author</Creatorrole>
      </Creator>
    </CreatorList>
    <PublisherList>
      <Publisher>
        <Corporation>
          <Corporatename>German Medical Science GMS Publishing House</Corporatename>
        </Corporation>
        <Address>D&#252;sseldorf</Address>
      </Publisher>
    </PublisherList>
    <SubjectGroup>
      <SubjectheadingDDB>610</SubjectheadingDDB>
    </SubjectGroup>
    <DatePublishedList>
      <DatePublished >20260302</DatePublished >
    </DatePublishedList>
    <Language>germ</Language>
    <License license-type="open-access" xlink:href="http://creativecommons.org/licenses/by/4.0/">
      <AltText language="en">This is an Open Access article distributed under the terms of the Creative Commons Attribution 4.0 License.</AltText>
      <AltText language="de">Dieser Artikel ist ein Open-Access-Artikel und steht unter den Lizenzbedingungen der Creative Commons Attribution 4.0 License (Namensnennung).</AltText>
    </License>
    <SourceGroup>
      <Meeting>
        <MeetingId>M0642</MeetingId>
        <MeetingSequence>005</MeetingSequence>
        <MeetingCorporation>Deutsche Gesellschaft f&#252;r Audiologie e. V.</MeetingCorporation>
        <MeetingName>28. Jahrestagung der Deutschen Gesellschaft f&#252;r Audiologie</MeetingName>
        <MeetingTitle></MeetingTitle>
        <MeetingSession>Strukturierte Sitzung 1: mHealth &#8211; vom Hearable zur Gesundheitszentrale im Ohr</MeetingSession>
        <MeetingCity>Oldenburg</MeetingCity>
        <MeetingDate>
          <DateFrom>20260304</DateFrom>
          <DateTo>20260306</DateTo>
        </MeetingDate>
      </Meeting>
    </SourceGroup>
    <ArticleNo>005</ArticleNo>
  </MetaData>
  <OrigData>
    <TextBlock name="Text" linked="yes">
      <MainHeadline>Text</MainHeadline><Pgraph><Mark1>Hintergrund:</Mark1> K&#246;rperliche Aktivit&#228;t, Mobilit&#228;t und Life Space stellen wichtige Parameter f&#252;r die funktionelle Leistungsf&#228;higkeit, Lebensqualit&#228;t und Teilhabe bei &#228;lteren Menschen dar. Im Gegensatz zu Untersuchungen unter Laborbedingungen, in denen die k&#246;rperliche Kapazit&#228;t gemessen wird, kann durch den Einsatz k&#246;rpergetragener Sensorik die k&#246;rperliche Funktionalit&#228;t im Alltag erfasst werden. Hierbei sind sowohl quantitative Analysen wie z.B. Anzahl Minuten pro Tag, die im Gehen, Stehen, Sitzen oder Liegen verbracht werden von gro&#223;em Interesse und k&#246;nnen als Endpunkt f&#252;r Interventionen oder als Erfolgsparameter f&#252;r medizinische Behandlungen angesehen werden. Qualitative Analysen des Ganges erm&#246;glichen zudem Gangst&#246;rungen und damit auch das Sturzrisiko oder auch St&#252;rze zu erfassen. Eine m&#246;glichst unaufdringliche Sensorik in Ger&#228;ten, die eine &#228;ltere Person eh bei sich tr&#228;gt oder bereit ist dauerhaft zu tragen, w&#252;rde erlauben Datens&#228;tze aus dem Alltag zu generieren, die l&#228;ngere Verl&#228;ufe, graduelle Ver&#228;nderungen aber auch pl&#246;tzliche Normabweichungen des individuellen Bewegungsmusters oder Aktivit&#228;tsniveaus darstellen k&#246;nnten.</Pgraph><Pgraph><Mark1>Methodik:</Mark1> Vergleich der Ergebnisse von Sensordaten verschiedener Sensoren an unterschiedlichen K&#246;rperstellen bei Probanden, denen auf einem Perturbationslaufband gezielt St&#246;rungen des Ganges zugef&#252;gt wurden. Trainieren eines deep convolutional long short-term memory (DeepConvLSTM) Algorithmus auf dem Perturbationslaufband, mit dem Ziel &#228;hnliche Sequenzen des Balanceverlusts im Alltag zu detektieren.</Pgraph><Pgraph><Mark1>Ergebnisse:</Mark1> Die mit den H&#246;rger&#228;ten gemessenen Beschleunigungsdaten korrelieren sehr stark mit den mit dem professionellen IMU-Ger&#228;t an der Ohrposition gemessenen Daten und weisen zus&#228;tzlich eine starke Korrelation zu den Standardpositionen an Sternum und Lendenwirbels&#228;ule auf. F&#252;r die mit dem Hearable gesammelten Daten zeigte der Algorithmus eine Genauigkeit von 0,984 &#177; 0,006, eine Wiederauffindbarkeit von 0,71 &#177; 0,08 und einen F1-Score von 0,82 &#177; 0,05 f&#252;r die Erkennung von St&#246;rereignissen.</Pgraph><Pgraph><Mark1>Schlussfolgerung:</Mark1> Erste Ergebnisse zeigen, dass auch durch Beschleunigungssensoren in H&#246;rger&#228;ten oder Smartphones die Erfassung nicht nur von k&#246;rperlicher Aktivit&#228;t m&#246;glich ist, sondern durch die Anwendung von machine learning Algorithmen spezifische Gangmuster wiedererkannt werden k&#246;nnen.</Pgraph><Pgraph><Mark1>Ausblick:</Mark1> Ohrnahe Sensorik erlaubt nicht nur das Erkennen von Gangst&#246;rungen, Gangunsicherheiten und Balanceverlust. Perspektivisch vorstellbar ist erg&#228;nzend das Erfassen von Umgebungsfaktoren die durch Ausl&#246;sen von dual-task Situationen zu Gangunsicherheiten beitragen k&#246;nnen. Dies k&#246;nnte dazu genutzt werden, das Verhalten in derartigen Situationen zu modifizieren, um das Risiko f&#252;r Gangunsicherheit und St&#252;rze bei einer entsprechenden Exposition zu reduzieren.</Pgraph></TextBlock>
    <References linked="yes">
      <Reference refNo="1">
        <RefAuthor>Feld L</RefAuthor>
        <RefAuthor>Schell-Majoor L</RefAuthor>
        <RefAuthor>Hellmers S</RefAuthor>
        <RefAuthor>Koschate J</RefAuthor>
        <RefAuthor>Hein A</RefAuthor>
        <RefAuthor>Zieschang T</RefAuthor>
        <RefAuthor>Kollmeier B</RefAuthor>
        <RefTitle>Comparison of professional and everyday wearable technology at different body positions in terms of recording gait perturbations</RefTitle>
        <RefYear>2024</RefYear>
        <RefJournal>PLOS Digit Health</RefJournal>
        <RefPage>e0000553</RefPage>
        <RefTotal>Feld L, Schell-Majoor L, Hellmers S, Koschate J, Hein A, Zieschang T, Kollmeier B. Comparison of professional and everyday wearable technology at different body positions in terms of recording gait perturbations. PLOS Digit Health. 2024 Aug 30;3(8):e0000553. DOI: 10.1371&#47;journal.pdig.0000553</RefTotal>
        <RefLink>http:&#47;&#47;dx.doi.org&#47;10.1371&#47;journal.pdig.0000553</RefLink>
      </Reference>
      <Reference refNo="2">
        <RefAuthor>Feld L</RefAuthor>
        <RefAuthor>Hellmers S</RefAuthor>
        <RefAuthor>Schell-Majoor L</RefAuthor>
        <RefAuthor>Koschate J</RefAuthor>
        <RefAuthor>Zieschang T</RefAuthor>
        <RefAuthor>Kollmeier B</RefAuthor>
        <RefAuthor>Hein A</RefAuthor>
        <RefTitle>Towards the Application of Hearables for Near-Fall Detection</RefTitle>
        <RefYear>2023</RefYear>
        <RefJournal>Current Directions in Biomedical Engineering</RefJournal>
        <RefPage>623-626</RefPage>
        <RefTotal>Feld L, Hellmers S, Schell-Majoor L, Koschate J, Zieschang T, Kollmeier B, Hein A. Towards the Application of Hearables for Near-Fall Detection. Current Directions in Biomedical Engineering. 2023;9(1):623-626. DOI: 10.1515&#47;cdbme-2023-1156</RefTotal>
        <RefLink>http:&#47;&#47;dx.doi.org&#47;10.1515&#47;cdbme-2023-1156</RefLink>
      </Reference>
    </References>
    <Media>
      <Tables>
        <NoOfTables>0</NoOfTables>
      </Tables>
      <Figures>
        <NoOfPictures>0</NoOfPictures>
      </Figures>
      <InlineFigures>
        <NoOfPictures>0</NoOfPictures>
      </InlineFigures>
      <Attachments>
        <NoOfAttachments>0</NoOfAttachments>
      </Attachments>
    </Media>
  </OrigData>
</GmsArticle>