<?xml version="1.0" encoding="iso-8859-1" standalone="no"?>
<!DOCTYPE GmsArticle SYSTEM "http://www.egms.de/dtd/2.0.34/GmsArticle.dtd">
<GmsArticle xmlns:xlink="http://www.w3.org/1999/xlink">
  <MetaData>
    <Identifier>25dga046</Identifier>
    <IdentifierDoi>10.3205/25dga046</IdentifierDoi>
    <IdentifierUrn>urn:nbn:de:0183-25dga0461</IdentifierUrn>
    <ArticleType>Meeting Abstract</ArticleType>
    <TitleGroup>
      <Title language="de">Erkennung emotionaler Prosodie bei CI-Tragenden und Selbsteinsch&#228;tzung ihrer Wahrnehmung</Title>
    </TitleGroup>
    <CreatorList>
      <Creator>
        <PersonNames>
          <Lastname>Issing</Lastname>
          <LastnameHeading>Issing</LastnameHeading>
          <Firstname>Friederike</Firstname>
          <Initials>F</Initials>
        </PersonNames>
        <Address>
          <Affiliation>Otto-von-Guericke-Universit&#228;t Magdeburg, HNO-Klinik, Magdeburg, Deutschland</Affiliation>
        </Address>
        <Creatorrole corresponding="no" presenting="no">author</Creatorrole>
      </Creator>
      <Creator>
        <PersonNames>
          <Lastname>Meis</Lastname>
          <LastnameHeading>Meis</LastnameHeading>
          <Firstname>Markus</Firstname>
          <Initials>M</Initials>
        </PersonNames>
        <Address>
          <Affiliation>Cochlear Deutschland GmbH &#38; Co. KG, Hannover, Deutschland</Affiliation>
        </Address>
        <Creatorrole corresponding="no" presenting="no">author</Creatorrole>
      </Creator>
      <Creator>
        <PersonNames>
          <Lastname>Stadler</Lastname>
          <LastnameHeading>Stadler</LastnameHeading>
          <Firstname>Beate</Firstname>
          <Initials>B</Initials>
        </PersonNames>
        <Address>
          <Affiliation>Otto-von-Guericke-Universit&#228;t Magdeburg, HNO-Klinik, Magdeburg, Deutschland</Affiliation>
        </Address>
        <Creatorrole corresponding="no" presenting="yes">author</Creatorrole>
      </Creator>
    </CreatorList>
    <PublisherList>
      <Publisher>
        <Corporation>
          <Corporatename>German Medical Science GMS Publishing House</Corporatename>
        </Corporation>
        <Address>D&#252;sseldorf</Address>
      </Publisher>
    </PublisherList>
    <SubjectGroup>
      <SubjectheadingDDB>610</SubjectheadingDDB>
    </SubjectGroup>
    <DatePublishedList>
      <DatePublished>20250318</DatePublished>
    </DatePublishedList>
    <Language>germ</Language>
    <License license-type="open-access" xlink:href="http://creativecommons.org/licenses/by/4.0/">
      <AltText language="en">This is an Open Access article distributed under the terms of the Creative Commons Attribution 4.0 License.</AltText>
      <AltText language="de">Dieser Artikel ist ein Open-Access-Artikel und steht unter den Lizenzbedingungen der Creative Commons Attribution 4.0 License (Namensnennung).</AltText>
    </License>
    <SourceGroup>
      <Meeting>
        <MeetingId>M0607</MeetingId>
        <MeetingSequence>046</MeetingSequence>
        <MeetingCorporation>Deutsche Gesellschaft f&#252;r Audiologie e. V. und ADANO</MeetingCorporation>
        <MeetingName>27. Jahrestagung der Deutschen Gesellschaft f&#252;r Audiologie und Arbeitstagung der Arbeitsgemeinschaft Deutschsprachiger Audiologen, Neurootologen und Otologen</MeetingName>
        <MeetingTitle></MeetingTitle>
        <MeetingSession>Freie Vortr&#228;ge 5: CI: Rehabilitation</MeetingSession>
        <MeetingCity>G&#246;ttingen</MeetingCity>
        <MeetingDate>
          <DateFrom>20250319</DateFrom>
          <DateTo>20250321</DateTo>
        </MeetingDate>
      </Meeting>
    </SourceGroup>
    <ArticleNo>046</ArticleNo>
  </MetaData>
  <OrigData>
    <TextBlock name="Text" linked="yes">
      <MainHeadline>Text</MainHeadline><Pgraph><Mark1>Fragestellung:</Mark1> Prosodie ist der im Sprachsignal enthaltene sprecherisch-stimmliche Ausdruck, der neben der semantischen Aussage durch die Wortwahl wirkt, und z.B. unsere Gef&#252;hle verr&#228;t. Sie spielt in der zwischenmenschlichen Kommunikation eine wesentliche Rolle. Den CI-Tragenden stehen jedoch nur eingeschr&#228;nkt Merkmale des Sprechschalls zum H&#246;rverstehen zur Verf&#252;gung. Dadurch ist die Bedeutungszuschreibung prosodischer Muster schwierig. Das f&#252;hrt zu Fehlinterpretationen und Missverstehen. Dies wurde in unserer Studie untersucht, bei der CI-Tragende hinsichtlich ihrer M&#246;glichkeiten zur emotionalen Prosodiewahrnehmung getestet wie auch befragt wurden.</Pgraph><Pgraph><Mark1>Methoden:</Mark1> F&#252;r die Pr&#252;fung der Wahrnehmung des im Sprachsignals enthaltenen emotional sprecherisch-stimmlichen Ausdrucks wurde der &#8222;Test zur emotionalen Prosodieperzeption&#8220; (TEPP) verwendet, der an normalh&#246;renden Probanden entwickelt und validiert wurde <TextLink reference="1"></TextLink> und bereits bei CI-Tragenden zum Einsatz kam <TextLink reference="2"></TextLink>. Dar&#252;ber hinaus kommt der &#8222;Fragebogen zur emotionalen Kommunikation in H&#246;rsituationen&#8220; (EMO-CheQ) zum Einsatz. Der Fragebogen untersucht, ob im Zusammenhang mit einer H&#246;rst&#246;rung Probleme mit der Erkennung des emotionalen Klangs der Sprechstimme bestehen, und wie die daraus resultierenden Fehlinterpretationen und Missverst&#228;ndnisse sich auf die Schwere des subjektiv empfundenen Handicaps auswirken <TextLink reference="3"></TextLink>. An der Studie haben bisher 150 erfahrene CI-Tragende (Alter: 18&#8211;90 Jahre) teilgenommen. Die CI-Tragenden f&#252;hrten den TEPP durch. Er beinhaltet 2-silbige Pseudow&#246;rter. Diese wurden von zwei Schauspielern (eine Frau, ein Mann) in den prosodischen Ausdr&#252;cken Freude, Trauer, Wut, Angst, Ekel sowie sachlich gesprochen. Jeder Stimulus musste von den CI-Tragenden &#252;ber einen Touch-Screen-Monitor hinsichtlich des intendierten emotional prosodischen Ausdrucks zugeordnet werden (six-alternative forced-choice paradigm). Etliche CI-Tragende haben dar&#252;ber hinaus den EMO-CheQ beantwortet. Die beiden Ergebnisse wurden miteinander verglichen.</Pgraph><Pgraph><Mark1>Ergebnisse:</Mark1> Im TEPP lagen die mittleren Trefferquoten f&#252;r die emotionale Prosodie mit 36&#37; &#252;ber dem Zufallsniveau, wenn auch mit gro&#223;er Streuung. Die korrekten Zuordnungen f&#252;r die einzelnen prosodischen Ausdr&#252;cke variierten, sowohl innerhalb eines prosodischen Ausdrucks als auch &#252;ber verschiedene emotionale Ausdr&#252;cke hinweg. Im EMO-CheQ lagen die CI-Tragenden im Mittel bei der Angabe ihres Handycaps mit 2,7 zwischen 1 &#8211; &#8222;stimme &#252;berhaupt nicht zu&#8220; und 5 &#8211; &#8222;stimme voll und ganz zu&#8220;.  Beide Ergebnisse korrelierten dahingehend miteinander, dass die CI-Tragenden die im TEPP gut waren ihr Handycap als geringer angaben, als die CI-Tragenden die im TEPP schlechter abschnitten.</Pgraph><Pgraph><Mark1>Schlussfolgerungen:</Mark1> Die CI-Tragenden sind in der Lage, emotional prosodische Ausdr&#252;cke zu unterscheiden, wenn auch mit gro&#223;er Varianz. Die mit dem TEPP gemessenen Ergebnisse der Wahrnehmung emotionaler Prosodie stimmten mit den Selbsteinsch&#228;tzungen der CI-Tragenden im EMO-CheQ &#252;berein.</Pgraph></TextBlock>
    <References linked="yes">
      <Reference refNo="3">
        <RefAuthor>Singh G</RefAuthor>
        <RefAuthor>Liskovoi L</RefAuthor>
        <RefAuthor>Launer S</RefAuthor>
        <RefAuthor>Russo F</RefAuthor>
        <RefTitle>The Emotional Communication in Hearing Questionnaire (EMO-CHeQ): Development and Evaluation</RefTitle>
        <RefYear>2019</RefYear>
        <RefJournal>Ear Hear</RefJournal>
        <RefPage>260-71</RefPage>
        <RefTotal>Singh G, Liskovoi L, Launer S, Russo F. The Emotional Communication in Hearing Questionnaire (EMO-CHeQ): Development and Evaluation. Ear Hear. 2019 Mar&#47;Apr;40(2):260-71. DOI: 10.1097&#47;AUD.0000000000000611</RefTotal>
        <RefLink>http:&#47;&#47;dx.doi.org&#47;10.1097&#47;AUD.0000000000000611</RefLink>
      </Reference>
      <Reference refNo="1">
        <RefAuthor>Wendt B</RefAuthor>
        <RefTitle></RefTitle>
        <RefYear>2007</RefYear>
        <RefBookTitle>Analysen emotionaler Prosodie</RefBookTitle>
        <RefPage></RefPage>
        <RefTotal>Wendt B. Analysen emotionaler Prosodie. Frankfurt&#47;M.: Peter Lang; 2007. (HSSP 20).</RefTotal>
      </Reference>
      <Reference refNo="2">
        <RefAuthor>Wendt B</RefAuthor>
        <RefAuthor></RefAuthor>
        <RefTitle>Unterscheiden sich pr&#228;- und postlingual ertaubte CI-Tr&#228;ger hinsichtlich ihrer emotionalen Prosodieperzeption&#63;</RefTitle>
        <RefYear>2013</RefYear>
        <RefBookTitle>16. Jahrestagung der Deutschen Gesellschaft f&#252;r Audiologie; 2013; Rostock</RefBookTitle>
        <RefPage></RefPage>
        <RefTotal>Wendt B, et al. Unterscheiden sich pr&#228;- und postlingual ertaubte CI-Tr&#228;ger hinsichtlich ihrer emotionalen Prosodieperzeption&#63; 16. Jahrestagung der Deutschen Gesellschaft f&#252;r Audiologie; 2013; Rostock.</RefTotal>
      </Reference>
      <Reference refNo="4">
        <RefAuthor>Wendt</RefAuthor>
        <RefAuthor>B</RefAuthor>
        <RefTitle>et al. Emotionale Prosodieperzeption bei CI-Tr&#228;gern</RefTitle>
        <RefYear>2020</RefYear>
        <RefJournal>Sprachtherapie aktuell</RefJournal>
        <RefPage>e2020-25</RefPage>
        <RefTotal>Wendt, B. et al. Emotionale Prosodieperzeption bei CI-Tr&#228;gern. Sprachtherapie aktuell. 2020:e2020-25.</RefTotal>
      </Reference>
    </References>
    <Media>
      <Tables>
        <NoOfTables>0</NoOfTables>
      </Tables>
      <Figures>
        <NoOfPictures>0</NoOfPictures>
      </Figures>
      <InlineFigures>
        <NoOfPictures>0</NoOfPictures>
      </InlineFigures>
      <Attachments>
        <NoOfAttachments>0</NoOfAttachments>
      </Attachments>
    </Media>
  </OrigData>
</GmsArticle>