TY - THES A1 - Eisenbarth, Hedwig T1 - Assessment of emotional detachment in psychopathy via self-report and an emotion detection task T1 - Messung emotionaler Distanziertheit bei Psychopathie mittels eines Selbstbeurteilungsfragebogens und eines Paradigmas zur Emotionserkennung N2 - The personality construct of psychopathy is subject of growing research, but data on psychopathy in female incarcerated and in non-institutionalized samples are rare. In this thesis emotional detachment as one factor of psychopathy is investigated in general population, in patients and in incarcerated samples. After verifying the validity of the Psychopathy Personality Inventory Revised (PPI-R) measuring emotional detachment, the sensitivity of the questionnaire concerning emotional detachment has been proven. Additionally it has been shown that symptoms of attention deficit and hyperactivity disorder can be distinguished from psychopathic traits by emotional detachment. In addition, these results confirm the core role of the feature emotional detachment for psychopathy. Furthermore, two emotion recognition tasks have been conducted in a criminal female inpatients sample. Compared to the low psychopathic patients, the high psychopathic patients showed deficits in categorization only in shortly presented sad facial expressions, but rated emotional facial expressions as less arousing. These results point to emotional detachment as a core characteristic of psychopathy, and is specific even in non-incarcerated and female incarcerated samples. It can be measured with the PPI-R as well as with emotion detection tasks. N2 - Das Persönlichkeitskonstrukt Psychopathie rückt in der wissenschaftlichen Literatur zunehmend in den Vordergrund, jedoch liegen bisher nur wenige Daten zur Ausprägung von Psychopathie in nicht-straffälligen und weiblichen Populationen vor. In dieser Arbeit wird die Emotionale Distanziertheit als ein Symptom von Psychopathie in der Normalbevölkerung sowie in Patienten- und Straffälligenpopulationen untersucht. Nach der Überprüfung der Validität des Psychopathy Personality Inventory Revised (PPI-R) bezüglich der Messung von emotionaler Distanziertheit wurde die Sensitivität des Fragebogens hinsichtlich emotionaler Distanziertheit nachgewiesen. Zudem konnte gezeigt werden, dass anhand von Emotionaler Distanziertheit Aufmerksamkeitsdefizits- und Hyperaktivitätssymptome von psychopathischen Eigenschaften unterschieden werden können. Diese Ergebnisse bestätigen darüber hinaus das Merkmal Emotionale Distanziertheit als ein Kernsymptom von Psychopathie. Weiterhin wurden in einer Stichprobe forensisch-psychiatrischer Patientinnen zwei Emotionserkennungsaufgaben durchgeführt. Im Vergleich zu gering psychopathischen Patientinnen kategorisierten die hoch psychopathischen Patientinnen nur gerade supraliminal präsentierte traurige Gesichtsausdrücke weniger korrekt, bewerteten aber die emotionalen Gesichtsausdrücke hinsichtlich Arousal als weniger emotional bewegend. Diese Ergebnisse zeigen, dass Emotionale Distanziertheit ein Kernsymptom von Psychopathie ist, und auch in nicht-straffälligen und weiblichen straffälligen Populationen spezifisch ist. Das Merkmal kann sowohl anhand des PPI-R als auch anhand von Aufgaben zur Emotionserkennung gemessen werden. KW - Psychopathie KW - Selbsteinschätzung KW - Frauen KW - Emotionserkennung KW - psychopathy KW - women KW - self-report KW - emotion detection Y1 - 2008 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-27817 ER - TY - THES A1 - Hirschfeld, Josefine T1 - Entwurf und Evaluation eines Prosodieverständnistests in deutscher Pseudosprache T1 - Design and evaluation of a prosody recognition test in german pseudo-language N2 - In der CI-Forschung ist bislang wenig untersucht worden, ob CI-Träger in der Lage sind, mit Hilfe ihrer Implantate Melodie- und Betonungsverläufe in der menschlichen Sprache zu erkennen. Da Cochlea-Implantate ursprünglich mit dem Fokus auf das phonologische Sprachverstehen entwickelt wurden, in den letzten Jahren jedoch technologische Verbesserungen kontinuierlich eingeführt wurden, ist diese Fragestellung besonders interessant. Solche Merkmale der Sprache, die sich in Form von Grundfrequenz- und Lautheitsschwankungen, sowie Sprechtempo- und Rhythmus darstellen, werden als Prosodie bezeichnet. Die menschliche Sprache ist affektiv geprägt und bei intensiven Gemütsregungen sind diese Melodieverläufe bzw. die prosodischen Merkmale besonders deutlich. Daher bietet es sich an, mit emotionaler Sprache zu arbeiten, sie dient als Lieferant für Grundfrequenz- und Intensitätsschwankungen. Im Rahmen psychologischer und linguistischer Untersuchungen sind solcherlei Versuche bereits an normalhörenden Personen durchgeführt worden, allerdings stets auf der Grundlage semantisch-sinntragender Sprache, deren Inhalt bei der Bewertung des Gehörten nicht ohne Einfluss bleibt. Daher wurde in der vorliegenden Arbeit eine künstliche Sprache automatisiert erzeugt, die in der statistischen Struktur ihrer Buchstabenzusammensetzung und Lautfolge der deutschen Sprache ähnelt. Diese Pseudosprache wurde in Form von 44 Sätzen in zehn verschiedenen Emotionen aufgenommen und durch nachträgliche Schneide- und Auswahlarbeiten als abhörbare Audiodateien fertiggestellt. Dabei lagen sie je zur Hälfte als 10- und 15-silbige Sätze vor. Es kamen professionelle digitale Aufnahmegeräte zum Einsatz, deren Aufstellung in Vorversuchen systematisch optimiert wurde. Die Evaluierung der Sätze und die anschließende Auswertung der Ergebnisse geschahen im Rahmen einer Untersuchung mit Probanden ohne Höreinschränkungen, um diesen neuartigen Test zunächst auf seine prinzipielle Anwendbarkeit hin zu prüfen. Die zugrundeliegende Fragestellung war, ob bei normalhörenden Personen ein korrektes Erkennen von Emotionen in der gesprochenen Sprache nachweisbar ist. Durch die Ergebnisse sollten Hinweise auf die Einsatzmöglichkeiten des Tests bei CI-Trägern gewonnen werden. Der Test wurde erst nach Ablauf einer vorgeschalteten Pilotstudie konstruiert. Dadurch konnten Verbesserungsmöglichkeiten im Design und in der Durchführung des Tests vorab erkannt und umgesetzt werden. Die Sätze wurden den Probanden der Hauptgruppe in einem genau festgelegten Schema vorgespielt, der Test war untergliedert in einen offen und einen geschlossen zu beurteilenden Abschnitt. Die Ergebnisse zeigen, dass die Fähigkeit der Probanden zur Erkennung der Emotionen nachweislich vorhanden ist, ohne Unterschied zwischen männlichen und weiblichen Probanden. Dabei wurden sowohl im offenen als auch im geschlossenen Test bestimmte Emotionen (z.B. Gleichgültigkeit, Panik, Trauer) grundsätzlich besser erkannt als andere (z.B. Ekel, Freude, Stolz). Zwei der Emotionen (Ärger, Zorn) erwiesen sich als kaum unterscheidbar, weswegen eine davon herausgenommen werden sollte und somit neun verwendbare Emotionen resultieren. Die Aufsprachen und die Evaluierung der prosodischen Sätze in dieser Arbeit sind Grundsteine für die Erörterung und Durchführung sinnvoller Veränderungen an diesem Prosodieverständnistest, bevor er bei CI-Trägern zur Anwendung kommt. Solche Veränderungen könnten in technischen Verbesserungen bestehen, in der Variation der prosodischen Darstellungsmöglichkeiten von Emotionen, in der Aufsprache durch professionelle Schauspieler oder in der Erweiterung um eine weibliche Sprecherstimme. Das Ziel zukünftiger Arbeiten zu diesem Thema ist es, den vorliegenden Test so weiterzuentwickeln, dass er in der Lage ist, in der CI-Forschung zur Gewinnung neuer Erkenntnisse beizutragen. Im Hinblick auf den weiteren praktischen Einsatz konnten bereits in dieser Arbeit die wichtigsten Voraussetzungen und Anforderungen erfüllt und das Konzept eines klinisch anwendbaren Emotions-Prosodietests erfolgreich umgesetzt werden. N2 - In cochlear implant research it has been only marginally investigated, whether CI-users are able to recognize melody contour and accentuation in human speech with their implants. Since cochlear implants have been developed with the focus on phonological speech understanding, yet technological improvements have been continuously introduced, this question is especially interesting. Such properties of speech, that manifest in fundamental frequency and loudness fluctuations as well as speech tempo and rhythm are referred to as prosody. Human speech is affective and at intense emotions these prosodic characteristics are notably distinct. Therefore, working with emotional speech appears suitable, since it serves as a source of fundamental frequency and intensity fluctuations. In the context of psychological and linguistic studies, such tests have already been performed with normal hearing subjects. However, the speech material used was always semantically meaningful, which likely affects the subjects' judgment. Hence, in this thesis artificial, computer-generated language was employed, which replicates German regarding the occurrence probability of letters and letter sequences. 44 pseudo-German sentences, repeatedly spoken in 10 different emotions each, were recorded, cut, selected and prepared as audio files. Half of the sentences consisted of 10, the other half of 15 syllables per sentence. The recording was performed with professional digital recording equipment, where the set-up had been optimized systematically in preceding tests. Evaluation of the sentences and subsequent analysis of results were conducted as a study with normal hearing subjects in order to test the new speech material for its applicability in principle. The underlying question was whether it could be demonstrated that normal hearing subjects were able to correctly recognize the 10 different emotions in speech. Also, indicators regarding the suitability for CI-users were hoped for. The main experiment was designed only after a preceding pilot study. Thus, improvements in the study design and implementation could be identified in advance. The sentences were offered to the main group in a precisely defined scheme. The test was divided into an open and a closed part. Results show statistically significant capabilities of emotion recognition in the test subjects. There was no difference between male and female subjects. In both the open as well as in the closed section, specific emotions (e.g. boredom, panic, grief) were recognized significantly better than others (e.g. disgust, joy, pride). Two of the emotions (anger, rage) could be barely distinguished. Thus, one of the two should be eliminated, leaving nine usable emotions. The recordings and the evaluation of the prosodic sentences are building blocks for the discussion and implementation of necessary changes of this prosody recognition test prior to its application to CI users. Such modifications could consist of technological improvements, variations of the prosodic presentation of emotions or the assignment of professional actors or an additional female speaker. The aim of future work on this topic is to further develop this test in such a way, that it contributes to new insights in CI research. With respect to further practical use, within this thesis some of the most important prerequisites and requirements could be fulfilled and the concept of a clinically applicable prosody test was implemented. KW - Prosodie KW - Intonation KW - Sprechtempo KW - Sprachverständnistest KW - Prosodieverständnistest KW - deutsche Pseudosprache KW - Emotionserkennung KW - speech recognition test KW - prosody recognition test KW - german pseudo-language KW - emotion recognition Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-66208 ER - TY - THES A1 - Herrmann, Martin Josef T1 - Neurophysiologische Korrelate der Verarbeitung von Gesichtern und emotionalen Gesichtsausdrücken bei Gesunden und Patienten mit schizophrenen Erkrankungen T1 - Neurophysiologic correlates of face processing and facial affect decoding in healthy controls and schizophrenic patients N2 - Ausgangspunkt für diese Arbeit war die Diskrepanz zwischen der vielfach belegten Schwierigkeit schizophrener Patienten bei der Dekodierung emotionaler Gesichtsausdrücke und dem mangelhaften Wissen über die hierfür verantwortlichen Prozesse. In der Literatur der letzten Jahre gab es einige viel versprechende Ergebnisse, die nahe legten, dass mit dem Elektroenzephalogramm (EEG) sowohl die Verarbeitung von Gesichtern, als auch der Mimik messbar ist. Somit wäre das EEG eine geeignete Methode den Prozess der Emotionsdekodierung bei schizophrenen Patienten zu untersuchen. Diese Arbeit untersucht folgende zwei Hauptfragestellungen. Erstens, wie lassen sich die für die Verarbeitung von Gesichtern und das Erkennen von emotionalen Gesichtsausdrücken verantwortlichen kognitiven Prozesse mit Hilfe ereigniskorrelierter Potentiale des EEGs reliabel messen? Zweitens, sind diese Prozesse bei schizophrenen Patienten im Vergleich zu gesunden Probanden beeinträchtigt? Zur Klärung der ersten Fragestellung wurden drei Stichproben gesunder Personen untersucht. Es zeigte sich in allen drei Untersuchungen, dass sich die Verarbeitung von Gesichtern im Vergleich zu Kontrollreizen in einer negativen Komponente um 170 ms über temporalen Elektrodenpositionen widerspiegelt (Gesichterpeak, N170). Die N170 konnte mit dem Quellenlokalisationsprogramm LORETA unter anderem im Gyrus Fusiformis, der entsprechenden Hirnregion für die Gesichtsverarbeitung, lokalisiert werden. Für die Dekodierung emotionaler Gesichtsausdrücke konnten keine wiederholbaren Effekte nachgewiesen werden. Im Weiteren wurde die Gesichtsverarbeitung bei schizophrenen Patienten untersucht. 22 als schizophren diagnostizierte Patienten wurden mit einer nach dem Alter, dem Geschlecht und dem Bildungsstatus angepassten Kontrollgruppe verglichen. In dieser Auswertung deutete sich bei schizophrenen Patienten ein Defizit in den frühen Verarbeitungsschritten von Gesichtern an. Dieses Ergebnis wurde in dieser Art noch nicht gezeigt und reiht sich ein in Studien, die sowohl strukturelle Veränderungen in den für die Gesichtsverarbeitung wesentlichen Hirnregionen bei schizophrenen Patienten zeigen konnten als auch ein allgemeines Defizit früher visueller Verarbeitung nahe legen. N2 - This study was based on the fact that schizophrenic patients show severe deficits in facial affect recognition and face processing but the affected processes are still unknown. Recent studies claimed that face processing as well as facial affect recognition can be measured with the electroencephalogram (EEG). Therefore this study had two main aims. First, we tried to measure face processing and facial affect recognition in a reliable manner in three independent samples of healthy controls. Secondly, we investigated whether these processes are impaired in schizophrenic patients. For face processing we replicated in all three samples the face specific N170 component, with higher negative amplitudes in the event-related potentials at 170 ms after face presentation. LORETA source localisation revealed higher activity for the N170 in the Gyrus Fusiformis, a region well known for face processing. For the facial affect recognition no reliable parameters could be reported. The comparison between 22 schizophrenic patients and 22 healthy controls revealed deficits in the N170 component and therefore for face processing in the group of patients. This result has not been reported before but is accordance with reduced volumes of the Gyrus Fusiformis in schizophrenic patients KW - Schizophrener KW - Mimik KW - Gesunder KW - Neurophysiologie KW - Emotionserkennung KW - Gesichtsverarbeitung KW - EEG KW - EKP KW - Schizophrenie KW - facial affect decoding KW - face processing KW - EEG KW - ERP KW - schizophrenia Y1 - 2003 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-8202 ER - TY - THES A1 - Huber, Stephan T1 - Proxemo: Documenting Observed Emotions in HCI T1 - Proxemo: Die Dokumentation Beobachteter Emotionen in der Mensch-Computer-Interaktion N2 - For formative evaluations of user experience (UX) a variety of methods have been developed over the years. However, most techniques require the users to interact with the study as a secondary task. This active involvement in the evaluation is not inclusive of all users and potentially biases the experience currently being studied. Yet there is a lack of methods for situations in which the user has no spare cognitive resources. This condition occurs when 1) users' cognitive abilities are impaired (e.g., people with dementia) or 2) users are confronted with very demanding tasks (e.g., air traffic controllers). In this work we focus on emotions as a key component of UX and propose the new structured observation method Proxemo for formative UX evaluations. Proxemo allows qualified observers to document users' emotions by proxy in real time and then directly link them to triggers. Technically this is achieved by synchronising the timestamps of emotions documented by observers with a video recording of the interaction. In order to facilitate the documentation of observed emotions in highly diverse contexts we conceptualise and implement two separate versions of a documentation aid named Proxemo App. For formative UX evaluations of technology-supported reminiscence sessions with people with dementia, we create a smartwatch app to discreetly document emotions from the categories anger, general alertness, pleasure, wistfulness and pride. For formative UX evaluations of prototypical user interfaces with air traffic controllers we create a smartphone app to efficiently document emotions from the categories anger, boredom, surprise, stress and pride. Descriptive case studies in both application domains indicate the feasibility and utility of the method Proxemo and the appropriateness of the respectively adapted design of the Proxemo App. The third part of this work is a series of meta-evaluation studies to determine quality criteria of Proxemo. We evaluate Proxemo regarding its reliability, validity, thoroughness and effectiveness, and compare Proxemo's efficiency and the observers' experience to documentation with pen and paper. Proxemo is reliable, as well as more efficient, thorough and effective than handwritten notes and provides a better UX to observers. Proxemo compares well with existing methods where benchmarks are available. With Proxemo we contribute a validated structured observation method that has shown to meet requirements formative UX evaluations in the extreme contexts of users with cognitive impairments or high task demands. Proxemo is agnostic regarding researchers' theoretical approaches and unites reductionist and holistic perspectives within one method. Future work should explore the applicability of Proxemo for further domains and extend the list of audited quality criteria to include, for instance, downstream utility. With respect to basic research we strive to better understand the sources leading observers to empathic judgments and propose reminisce and older adults as model environment for investigating mixed emotions. N2 - Für formative Evaluationen der User Experience (UX) wurden im Laufe der Jahre zahlreiche Methoden entwickelt. Die meisten Methoden erfordern jedoch, dass die Benutzer als Nebenaufgabe mit der Studie interagieren. Diese aktive Beteiligung an der Evaluation kann das untersuchte Erlebnis verfälschen und schließt Benutzer komplett aus, die keine kognitiven Ressourcen zur Verfügung haben. Dies ist der Fall, wenn 1) die kognitiven Fähigkeiten der Benutzer beeinträchtigt sind (z. B. Menschen mit Demenz) oder 2) Benutzer mit sehr anspruchsvollen Aufgaben konfrontiert sind (z. B. Fluglotsen). In dieser Arbeit konzentrieren wir uns auf Emotionen als eine Schlüsselkomponente von UX und schlagen die neue strukturierte Beobachtungsmethode Proxemo für formative UX-Evaluationen vor. Proxemo ermöglicht es qualifizierten Beobachtern, die Emotionen der Nutzer in Echtzeit zu dokumentieren und sie direkt mit Auslösern zu verknüpfen. Technisch wird dies erreicht, indem die Zeitstempel der von den Beobachtern dokumentierten Emotionen mit einer Videoaufzeichnung der Interaktion synchronisiert werden. Um die Dokumentation von beobachteten Emotionen in sehr unterschiedlichen Kontexten zu erleichtern, konzipieren und implementieren wir zwei verschiedene Versionen einer Dokumentationshilfe namens Proxemo App. Für formative UX-Evaluationen von technologiegestützten Erinnerungssitzungen mit Menschen mit Demenz erstellen wir eine Smartwatch-App zur unauffälligen Dokumentation von Emotionen aus den Kategorien Ärger, allgemeine Wachsamkeit, Freude, Wehmut und Stolz. Für formative UX-Evaluationen prototypischer Nutzerschnittstellen mit Fluglotsen erstellen wir eine Smartphone-App zur effizienten Dokumentation von Emotionen aus den Kategorien Ärger, Langeweile, Überraschung, Stress und Stolz. Deskriptive Fallstudien in beiden Anwendungsfeldern zeigen die Machbarkeit und den Nutzen der Methode Proxemo und die Angemessenheit des jeweiligen Designs der Proxemo App. Der dritte Teil dieser Arbeit besteht aus einer Reihe von Meta-Evaluationsstudien zu den Gütekriterien von Proxemo. Wir evaluieren Proxemo hinsichtlich der Reliabilität, Validität, Gründlichkeit und Effektivität, und vergleichen die Effizienz von Proxemo und die UX der Beobachter mit der Dokumentation mit Stift und Papier. Proxemo ist reliabel, sowie effizienter, gründlicher und effektiver als handschriftliche Notizen und bietet den Beobachtern eine bessere UX. Proxemo schneidet gut ab im Vergleich zu bestehenden Methoden, für die Benchmarks verfügbar sind. Mit Proxemo stellen wir eine validierte, strukturierte Beobachtungsmethode vor, die nachweislich den Anforderungen formativer UX Evaluationen in den extremen Kontexten von Benutzern mit kognitiven Beeinträchtigungen oder hohen Aufgabenanforderungen gerecht wird. Proxemo ist agnostisch bezüglich der theoretischen Ansätze von Forschenden und vereint reduktionistische und ganzheitliche Perspektiven in einer Methode. Zukünftige Arbeiten sollten die Anwendbarkeit von Proxemo für weitere Domänen erkunden und die Liste der geprüften Gütekriterien erweitern, zum Beispiel um das Kriterium Downstream Utility. In Bezug auf die Grundlagenforschung werden wir versuchen, die Quellen besser zu verstehen, auf denen die empathischen Urteile der Beobachter fußen und schlagen Erinnerungen und ältere Erwachsene als Modellumgebung für die künftige Erforschung gemischter Emotionen vor. KW - Gefühl KW - Wissenschaftliche Beobachtung KW - Methode KW - Benutzererlebnis KW - Benutzerforschung KW - Emotionserkennung KW - Emotion inference KW - Emotionsinterpretation Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-305730 ER -