<?xml version="1.0" encoding="iso-8859-1" standalone="no"?>
<!DOCTYPE GmsArticle SYSTEM "http://www.egms.de/dtd/2.0.34/GmsArticle.dtd">
<GmsArticle xmlns:xlink="http://www.w3.org/1999/xlink">
  <MetaData>
    <Identifier>25teg12</Identifier>
    <IdentifierDoi>10.3205/25teg12</IdentifierDoi>
    <IdentifierUrn>urn:nbn:de:0183-25teg122</IdentifierUrn>
    <ArticleType>Meeting Abstract</ArticleType>
    <TitleGroup>
      <Title language="de">Erkennung von Mikrobewegungen zur Dekubituspr&#228;vention mittels KI-gest&#252;tzter Sensorsysteme</Title>
    </TitleGroup>
    <CreatorList>
      <Creator>
        <PersonNames>
          <Lastname>Staab</Lastname>
          <LastnameHeading>Staab</LastnameHeading>
          <Firstname>Sergio</Firstname>
          <Initials>S</Initials>
          <AcademicTitle>Dr.</AcademicTitle>
        </PersonNames>
        <Address>Fraunhofer-Institut f&#252;r Graphische Datenverarbeitung IGD, Darmstadt, Deutschland<Affiliation>Fraunhofer-Institut f&#252;r Graphische Datenverarbeitung IGD, Darmstadt, Deutschland</Affiliation></Address>
        <Email>sergio.staab&#64;igd.fraunhofer.de</Email>
        <Creatorrole corresponding="yes" presenting="yes">author</Creatorrole>
      </Creator>
      <Creator>
        <PersonNames>
          <Lastname>Tajja</Lastname>
          <LastnameHeading>Tajja</LastnameHeading>
          <Firstname>Farah</Firstname>
          <Initials>F</Initials>
          <AcademicTitle>B.Sc.</AcademicTitle>
        </PersonNames>
        <Address>
          <Affiliation>Katholische Hochschule Mainz, Mainz, Deutschland</Affiliation>
        </Address>
        <Creatorrole corresponding="no" presenting="no">author</Creatorrole>
      </Creator>
      <Creator>
        <PersonNames>
          <Lastname>Kirchbuchner</Lastname>
          <LastnameHeading>Kirchbuchner</LastnameHeading>
          <Firstname>Florian</Firstname>
          <Initials>F</Initials>
          <AcademicTitle>M.Sc.</AcademicTitle>
        </PersonNames>
        <Address>
          <Affiliation>Fraunhofer-Institut f&#252;r Graphische Datenverarbeitung IGD, Darmstadt, Deutschland</Affiliation>
        </Address>
        <Email>florian.kirchbuchner&#64;igd.fraunhofer.de</Email>
        <Creatorrole corresponding="no" presenting="no">author</Creatorrole>
      </Creator>
    </CreatorList>
    <PublisherList>
      <Publisher>
        <Corporation>
          <Corporatename>German Medical Science GMS Publishing House</Corporatename>
        </Corporation>
        <Address>D&#252;sseldorf</Address>
      </Publisher>
    </PublisherList>
    <SubjectGroup>
      <SubjectheadingDDB>610</SubjectheadingDDB>
    </SubjectGroup>
    <DatePublishedList>
      <DatePublished>20251222</DatePublished>
    </DatePublishedList>
    <Language>germ</Language>
    <License license-type="open-access" xlink:href="http://creativecommons.org/licenses/by/4.0/">
      <AltText language="en">This is an Open Access article distributed under the terms of the Creative Commons Attribution 4.0 License.</AltText>
      <AltText language="de">Dieser Artikel ist ein Open-Access-Artikel und steht unter den Lizenzbedingungen der Creative Commons Attribution 4.0 License (Namensnennung).</AltText>
    </License>
    <SourceGroup>
      <Meeting>
        <MeetingId>M0617</MeetingId>
        <MeetingSequence>12</MeetingSequence>
        <MeetingName>9. Fachtagung Technik &#8211; Ethik &#8211; Gesundheit</MeetingName>
        <MeetingTitle>K&#252;nstliche Intelligenz: Die digitale Zukunft in der Pflege gestalten</MeetingTitle>
        <MeetingSession>Akzeptanz von und Erfahrungen mit digitalen M&#246;glichkeiten</MeetingSession>
        <MeetingCity>N&#252;rnberg</MeetingCity>
        <MeetingDate>
          <DateFrom>20250520</DateFrom>
          <DateTo>20250521</DateTo>
        </MeetingDate>
      </Meeting>
    </SourceGroup>
    <ArticleNo>12</ArticleNo>
  </MetaData>
  <OrigData>
    <TextBlock name="Text" linked="yes">
      <MainHeadline>Text</MainHeadline><SubHeadline>Einleitung &#38; Motivation</SubHeadline><Pgraph>Druckgeschw&#252;re, auch als Dekubitus bezeichnet, z&#228;hlen zu den h&#228;ufigsten und folgenreichsten Komplikationen in der station&#228;ren Pflege. Besonders hochbetagte und bewegungseingeschr&#228;nkte Personen sind gef&#228;hrdet, obwohl etablierte Ma&#223;nahmen zur Prophylaxe existieren. Laut dem Bundesbericht des Instituts f&#252;r Qualit&#228;tssicherung und Transparenz im Gesundheitswesen (IQTIG) wurden im Jahr 2023 &#252;ber 67.000 F&#228;lle von im Krankenhaus erworbenem Dekubitus dokumentiert, was rund 0,44 &#37; aller station&#228;ren Aufnahmen entspricht <TextLink reference="1"></TextLink>. Diese Zahlen verdeutlichen, dass konventionelle Strategien allein nicht ausreichen, um das Auftreten von Dekubitus in klinischen und pflegerischen Einrichtungen wirksam zu verhindern.</Pgraph><Pgraph>Die Auswirkungen eines Dekubitus sind weitreichend. Sie reichen von lokalen Gewebesch&#228;den und Schmerzen &#252;ber eingeschr&#228;nkte Mobilit&#228;t bis hin zu l&#228;ngeren Krankenhausaufenthalten und schweren Folgeerkrankungen. Auch &#246;konomisch stellt Dekubitus eine erhebliche Belastung f&#252;r Pflegeeinrichtungen und Gesundheitssysteme dar. Umso dringlicher ist der Einsatz neuer Technologien, die fr&#252;hzeitig auf drohende Inaktivit&#228;t hinweisen und gezielt pr&#228;ventive Ma&#223;nahmen erm&#246;glichen.</Pgraph><Pgraph>In diesem Zusammenhang bieten tragbare Sensorsysteme wie Smartwatches neue M&#246;glichkeiten. Durch integrierte Bewegungssensoren kann kontinuierlich erfasst werden, ob eine Person sich im Bett oder im Rollstuhl bewegt. Erg&#228;nzt durch Verfahren des maschinellen Lernens lassen sich diese Daten automatisiert auswerten und kritisch bewerten. So k&#246;nnen etwa l&#228;ngere Phasen der Bewegungslosigkeit erkannt und Pflegekr&#228;fte rechtzeitig gewarnt werden.</Pgraph><Pgraph>Maschinelle Lernverfahren gelten in diesem Anwendungsbereich als besonders leistungsf&#228;hig, da sie auch feine Unterschiede in komplexen Bewegungsabl&#228;ufen erkennen k&#246;nnen. Modelle wie Random Forest haben sich in der Aktivit&#228;tserkennung als robust erwiesen <TextLink reference="2"></TextLink>. F&#252;r sequenzielle, zeitlich abh&#228;ngige Daten, wie sie bei Mikrobewegungen auftreten, sind rekurrente neuronale Netze, insbesondere Long Short-Term Memory (LSTM), besonders geeignet <TextLink reference="3"></TextLink>.</Pgraph><Pgraph>Ziel dieser Arbeit ist es, ein System zur automatisierten Erkennung dekubitusrelevanter Mikrobewegungen auf Basis einer Pixel Watch 3 zu entwickeln. Untersucht wird, inwieweit solche Ger&#228;te pr&#228;zise und zuverl&#228;ssig relevante Bewegungen erfassen k&#246;nnen und wie sich verschiedene Positionen der Sensorik auf die Erkennungsgenauigkeit auswirken. Dar&#252;ber hinaus soll gepr&#252;ft werden, welche Modellarchitekturen sich f&#252;r die Klassifikation unterschiedlicher Bewegungsmuster eignen und wie ein adaptives System zur dynamischen Risikoerkennung in der Pflegepraxis gestaltet sein k&#246;nnte.</Pgraph><SubHeadline>Material &#38; Methoden</SubHeadline><Pgraph>Die Datenerhebung findet im Rahmen eines kontrollierten Experiments mit insgesamt zehn freiwilligen Testpersonen statt. Die Auswahl der Bewegungen orientiert sich an pflegerischen Ma&#223;nahmen zur Druckentlastung und umfasst f&#252;nf gezielte Bewegungsformen: Beckenkippen, H&#252;ftrotation, Oberk&#246;rperneigung, Fu&#223;bewegung und Schulterschwung. Jede der zehn Testpersonen f&#252;hrt jede dieser Bewegungen jeweils zwanzigmal aus, wobei jede Ausf&#252;hrung exakt zehn Sekunden dauert.</Pgraph><Pgraph>Um den Einfluss der Sensorposition auf die Erkennungsgenauigkeit zu analysieren, wird die Smartwatch an drei verschiedenen K&#246;rperstellen befestigt: auf der Brust, am Abdomen sowie am rechten Fu&#223;gelenk. W&#228;hrend der Versuchsdurchl&#228;ufe werden alle Bewegungsdaten mit einer Abtastrate von 20 Hertz aufgezeichnet, also zwanzig Datenpunkten pro Sekunde.</Pgraph><Pgraph>Die Smartwatch verf&#252;gt &#252;ber eine Vielzahl integrierter Sensoren, die f&#252;r diese Untersuchung vollst&#228;ndig genutzt werden. Zum Einsatz kommen ein Beschleunigungssensor, ein Gyroskop, ein Gravit&#228;tssensor und ein Orientierungssensor, jeweils mit dreidimensionaler Achsenmessung. Erg&#228;nzend werden ein Pulssensor zur Erfassung der Herzfrequenz sowie zwei Audiosensoren zur Messung von Dezibel- und Magnitudewerten eingebunden. Dadurch entstehen insgesamt 14 Sensorwerte pro Zeitstempel.</Pgraph><Pgraph>Die gesamte Datenmenge setzt sich wie folgt zusammen: Zehn Testpersonen f&#252;hren jeweils f&#252;nf verschiedene Bewegungen durch. Jede Bewegung wird zwanzigmal an drei unterschiedlichen K&#246;rperpositionen ausgef&#252;hrt, jeweils f&#252;r zehn Sekunden bei einer Abtastrate von 20 Hertz. Pro Zeitstempel werden 14 Sensorwerte aufgezeichnet. Daraus ergibt sich folgende Datenmenge:</Pgraph><Pgraph>10 Personen &#215; 5 Bewegungen &#215; 20 Wiederholungen &#215; 3 Positionen &#215; 10 Sekunden &#215; 20 Abtastungen pro Sekunde &#215; 14 Sensorwerte &#61; 8.400.000 Datenwerte</Pgraph><Pgraph>F&#252;r die technische Umsetzung kommt eine eigens entwickelte Echtzeit-WebSocket-Schnittstelle zum Einsatz, &#252;ber die die Smartwatch kontinuierlich mit einem webbasierten Dashboard kommuniziert. Die erfassten Sensordaten werden in Echtzeit visualisiert, mit Aktivit&#228;tslabels versehen und automatisch in einer Datenbank gespeichert. Vor jeder Messreihe erfolgt eine Kalibrierung der Sensoren, um Vergleichbarkeit und Messgenauigkeit zu gew&#228;hrleisten.</Pgraph><Pgraph>Zur Analyse und Modellierung der Bewegungsdaten werden verschiedene Verfahren des maschinellen Lernens eingesetzt. Neben klassischen Algorithmen wie Random Forest, CatBoost, Gradient Boosting und Support Vector Machines liegt der Fokus auf rekurrenten neuronalen Netzen vom Typ Long Short-Term Memory. Aufgrund ihrer F&#228;higkeit, zeitliche Abh&#228;ngigkeiten in sequenziellen Daten zu erfassen, eignen sich diese Modelle besonders gut f&#252;r die Analyse kontinuierlicher Sensordaten. Die Trainings- und Testphasen umfassen sowohl Multiklassenklassifikationen zur Erkennung spezifischer Bewegungsarten als auch bin&#228;re Klassifikationen zur Unterscheidung zwischen Bewegung und Inaktivit&#228;t.</Pgraph><Pgraph>Abbildung 1 <ImgLink imgNo="1" imgType="figure" /></Pgraph><SubHeadline>Ergebnisse</SubHeadline><Pgraph>Die Auswertung der Sensordaten zeigt, dass sich verschiedene Mikrobewegungen mit hoher Genauigkeit klassifizieren lassen, wobei die Wahl des eingesetzten Algorithmus und die Position der Smartwatch eine zentrale Rolle spielen. Besonders das Long Short-Term Memory (LSTM)-Modell erzielt &#252;ber alle getesteten Bewegungsarten hinweg die besten Ergebnisse. So k&#246;nnen beispielsweise Beckenkippen mit einer Genauigkeit von 88.86 &#37; und Oberk&#246;rperneigungen mit 86.26 &#37; zuverl&#228;ssig erkannt werden, unabh&#228;ngig von der Sensorposition. Auch H&#252;ftrotationen und Schulterschw&#252;nge werden mit vergleichbar hohen Werten klassifiziert, was die Eignung dieses Modells f&#252;r Bewegungen aus dem K&#246;rperzentrum unterstreicht.</Pgraph><Pgraph>Im Gegensatz dazu f&#228;llt die Erkennungsgenauigkeit bei peripheren Bewegungen wie der Fu&#223;streckung deutlich geringer aus, insbesondere wenn die Sensoren nicht direkt an der unteren Extremit&#228;t angebracht sind. So erreicht das LSTM-Modell bei der Fu&#223;bewegung lediglich 35.82 &#37; Genauigkeit, w&#228;hrend andere Algorithmen, etwa CatBoost, f&#252;r dieselbe Bewegung deutlich bessere Ergebnisse erzielen. CatBoost kann hier eine Genauigkeit von 70 &#37; erreichen, was die Bedeutung einer differenzierten Modellauswahl je nach Bewegungstyp verdeutlicht.</Pgraph><Pgraph>Ein zentrales Ziel der Untersuchung ist die Analyse der Unterscheidbarkeit identischer Bewegungen an unterschiedlichen K&#246;rperpositionen. Hier zeigt sich, dass Bewegungen wie Beckenkippen, H&#252;ftrotation und Oberk&#246;rperneigung &#252;ber alle Sensorpositionen hinweg besonders gut erkennbar sind. Die h&#246;chste Klassifikationsleistung wird regelm&#228;&#223;ig bei einer Platzierung der Smartwatch im Brustbereich erzielt. Bewegungen im Bereich der Extremit&#228;ten, insbesondere an den F&#252;&#223;en, k&#246;nnen dagegen aus zentralen K&#246;rperpositionen nur eingeschr&#228;nkt erkannt werden. Besonders auff&#228;llig ist der Leistungsabfall bei der Fu&#223;bewegung, wenn der Sensor sich am Abdomen befindet. Hier sinkt die Genauigkeit auf nur 64.55 &#37;.</Pgraph><Pgraph>Zur genaueren Einsch&#228;tzung der Modellergebnisse wird auch die F&#228;higkeit des LSTM-Modells untersucht, Bewegung von Inaktivit&#228;t zu unterscheiden. Dazu werden bin&#228;re Klassifikationsmodelle f&#252;r jede Bewegung und jede Sensorposition separat trainiert. Die Ergebnisse belegen, dass sich Bewegungs- und Ruhephasen besonders dann zuverl&#228;ssig voneinander abgrenzen lassen, wenn Gyroskop- und Beschleunigungsdaten gemeinsam verwendet werden. So kann bei der Kombination beider Sensorarten am Fu&#223;gelenk eine Erkennungsgenauigkeit von 79.34 &#37; erzielt werden. Im Gegensatz dazu sinkt die Genauigkeit deutlich, wenn nur ein einzelner Sensortyp, etwa der Magnitudewert, verwendet wird. Hier liegt die Klassifikationsleistung bei lediglich 23.93 &#37;, was die Notwendigkeit sorgf&#228;ltig ausgew&#228;hlter Sensorkombinationen unterstreicht.</Pgraph><Pgraph>Besonders eindrucksvoll sind die Ergebnisse bei der Unterscheidung von Bewegung und Nichtbewegung bei bestimmten Bewegungsmustern. So erreicht das LSTM-Modell bei der Erkennung von H&#252;ftrotationen eine Genauigkeit von 99.92 &#37;, bei Beckenkippen 99.91 &#37; und bei Oberk&#246;rperneigungen 99.72 &#37;. Diese Werte zeigen, dass die Klassifikation besonders bei Bewegungen aus dem K&#246;rperzentrum eine extrem hohe Treffsicherheit erreicht, unabh&#228;ngig davon, ob der Sensor am Brustkorb, Bauch oder Fu&#223;gelenk getragen wird.</Pgraph><Pgraph>Insgesamt belegen die Ergebnisse, dass die Kombination aus geeigneter Sensorplatzierung, gezielter Sensorauswahl und algorithmischer Anpassung entscheidend f&#252;r die erfolgreiche Klassifikation von Mikrobewegungen ist. W&#228;hrend das LSTM-Modell in vielen F&#228;llen herausragende Leistungen erbringt, zeigt sich, dass f&#252;r bestimmte Bewegungen, insbesondere der unteren Extremit&#228;ten, alternative Modelle oder erg&#228;nzende Sensorsysteme notwendig sein k&#246;nnten. Diese Erkenntnisse bilden eine zentrale Grundlage f&#252;r die Entwicklung eines adaptiven, patientenspezifischen Bewegungserkennungssystems, das sich flexibel an unterschiedliche k&#246;rperliche Gegebenheiten und Pflegekontexte anpassen kann.</Pgraph><Pgraph>Abbildung 2 <ImgLink imgNo="2" imgType="figure" />, Tabelle 1 <ImgLink imgNo="1" imgType="table" /></Pgraph><SubHeadline>Diskussion</SubHeadline><Pgraph>Die vorliegenden Ergebnisse zeigen, dass KI-gest&#252;tzte Sensorsysteme ein vielversprechendes Werkzeug zur Erkennung dekubitusrelevanter Mikrobewegungen sind. Besonders rekurrente neuronale Netze wie LSTM erreichen in der Testumgebung hohe Genauigkeiten bei der Klassifikation zentraler Bewegungsmuster wie Beckenkippen oder Oberk&#246;rperneigung. Die zuverl&#228;ssige Unterscheidung von Bewegung und Inaktivit&#228;t mit &#252;ber 99 &#37; Genauigkeit unterstreicht das Potenzial dieser Technologie f&#252;r den pflegerischen Einsatz.</Pgraph><Pgraph>Zu beachten ist jedoch, dass diese Resultate unter Laborbedingungen entstanden. In der Pflegepraxis sind deutlich komplexere Rahmenbedingungen zu erwarten. Individuelle Bewegungsmuster, Lagerungsabweichungen, technische St&#246;rungen und &#228;u&#223;ere Einfl&#252;sse wie Kleidung oder Bettmaterial k&#246;nnen die Erkennungsgenauigkeit erheblich beeinflussen. Auch minimale oder unregelm&#228;&#223;ige Bewegungen pflegebed&#252;rftiger Personen stellen eine Herausforderung dar. Daraus ergibt sich Forschungsbedarf zur &#220;bertragbarkeit solcher Systeme in reale Einsatzszenarien.</Pgraph><Pgraph>Ein zentrales Ergebnis ist der Einfluss der Sensorposition. Die besten Klassifikationsraten wurden bei Platzierung im Brustbereich erzielt. Bewegungen an den F&#252;&#223;en waren hingegen stark lageabh&#228;ngig. Dies spricht f&#252;r die Notwendigkeit einer adaptiven Systemarchitektur, die flexibel auf K&#246;rperlage, Bewegungstyp und individuelle Gegebenheiten reagieren kann. Idealerweise erkennt das System selbst die beste Sensorposition und das geeignetste Modell f&#252;r die jeweilige Situation.</Pgraph><Pgraph>Neben technischer Anpassungsf&#228;higkeit sind auch inhaltliche Erweiterungen denkbar. Die Integration individueller Risikoprofile sowie lernf&#228;hige Algorithmen k&#246;nnten die Personalisierung weiter verbessern. Ein System, das sich kontinuierlich an neue Bedingungen anpasst, w&#228;re ein wertvoller Schritt hin zu einem intelligenten Fr&#252;hwarnmechanismus.</Pgraph><Pgraph>Langfristig er&#246;ffnen sich vielf&#228;ltige Anwendungsm&#246;glichkeiten: von der Dekubituspr&#228;vention &#252;ber die automatische Dokumentation pflegerischer Aktivit&#228;ten bis hin zur Mobilit&#228;tsf&#246;rderung. R&#252;ckmeldemechanismen wie akustische oder taktile Signale k&#246;nnten Patientinnen und Patienten zur Durchf&#252;hrung kleiner Bewegungen motivieren und so die Eigenmobilit&#228;t f&#246;rdern.</Pgraph><Pgraph>Diese Arbeit liefert eine fundierte Basis f&#252;r die Entwicklung intelligenter, adaptiver Assistenzsysteme in der Pflege. F&#252;r eine erfolgreiche Umsetzung sind jedoch weitere Studien unter realen Bedingungen notwendig, um Praxistauglichkeit, Akzeptanz und technische Zuverl&#228;ssigkeit umfassend zu bewerten.</Pgraph></TextBlock>
    <References linked="yes">
      <Reference refNo="1">
        <RefAuthor>IQTIG &#8211; Institut f&#252;r Qualit&#228;tssicherung und Transparenz im Gesundheitswesen</RefAuthor>
        <RefTitle></RefTitle>
        <RefYear>2024</RefYear>
        <RefBookTitle>Bundesauswertung Dekubitusprophylaxe. Erfassungsjahr 2023</RefBookTitle>
        <RefPage></RefPage>
        <RefTotal>IQTIG &#8211; Institut f&#252;r Qualit&#228;tssicherung und Transparenz im Gesundheitswesen. Bundesauswertung Dekubitusprophylaxe. Erfassungsjahr 2023. IQTIG; 2024. Verf&#252;gbar unter: https:&#47;&#47;www.iqtig.org&#47;veroeffentlichungen&#47;bundesauswertung&#47;</RefTotal>
        <RefLink>https:&#47;&#47;www.iqtig.org&#47;veroeffentlichungen&#47;bundesauswertung&#47;</RefLink>
      </Reference>
      <Reference refNo="2">
        <RefAuthor>Nurwulan NR</RefAuthor>
        <RefAuthor>Selamaj G</RefAuthor>
        <RefTitle>Random Forest for human daily activity recognition</RefTitle>
        <RefYear>2020</RefYear>
        <RefJournal>Journal of Physics: Conference Series</RefJournal>
        <RefPage>012087</RefPage>
        <RefTotal>Nurwulan NR, Selamaj G. Random Forest for human daily activity recognition. Journal of Physics: Conference Series. 2020;1655: 012087. DOI: 10.1088&#47;1742-6596&#47;1655&#47;1&#47;012087</RefTotal>
        <RefLink>https:&#47;&#47;doi.org&#47;10.1088&#47;1742-6596&#47;1655&#47;1&#47;012087</RefLink>
      </Reference>
      <Reference refNo="3">
        <RefAuthor>Staab S</RefAuthor>
        <RefTitle></RefTitle>
        <RefYear>2024</RefYear>
        <RefBookTitle>Entwicklung von Klassifizierungsverfahren zur automatisierten Dokumentation von Alltagsaktivit&#228;ten</RefBookTitle>
        <RefPage></RefPage>
        <RefTotal>Staab S. Entwicklung von Klassifizierungsverfahren zur automatisierten Dokumentation von Alltagsaktivit&#228;ten. Hochschulbibliothek RheinMain; 2024. Verf&#252;gbar unter: https:&#47;&#47;hlbrm.pur.hebis.de&#47;xmlui&#47;handle&#47;123456789&#47;151</RefTotal>
        <RefLink>https:&#47;&#47;hlbrm.pur.hebis.de&#47;xmlui&#47;handle&#47;123456789&#47;151</RefLink>
      </Reference>
    </References>
    <Media>
      <Tables>
        <Table format="png">
          <MediaNo>1</MediaNo>
          <MediaID>1</MediaID>
          <Caption><Pgraph><Mark1>Tabelle 1</Mark1></Pgraph></Caption>
        </Table>
        <NoOfTables>1</NoOfTables>
      </Tables>
      <Figures>
        <Figure width="1082" height="285" format="png">
          <MediaNo>1</MediaNo>
          <MediaID>1</MediaID>
          <Caption><Pgraph><Mark1>Abbildung 1: Positionen</Mark1></Pgraph></Caption>
        </Figure>
        <Figure width="1068" height="299" format="png">
          <MediaNo>2</MediaNo>
          <MediaID>2</MediaID>
          <Caption><Pgraph><Mark1>Abbildung 2: LSTM Live</Mark1></Pgraph></Caption>
        </Figure>
        <NoOfPictures>2</NoOfPictures>
      </Figures>
      <InlineFigures>
        <NoOfPictures>0</NoOfPictures>
      </InlineFigures>
      <Attachments>
        <NoOfAttachments>0</NoOfAttachments>
      </Attachments>
    </Media>
  </OrigData>
</GmsArticle>