@phdthesis{Eisenbarth2008, author = {Eisenbarth, Hedwig}, title = {Assessment of emotional detachment in psychopathy via self-report and an emotion detection task}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-27817}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2008}, abstract = {The personality construct of psychopathy is subject of growing research, but data on psychopathy in female incarcerated and in non-institutionalized samples are rare. In this thesis emotional detachment as one factor of psychopathy is investigated in general population, in patients and in incarcerated samples. After verifying the validity of the Psychopathy Personality Inventory Revised (PPI-R) measuring emotional detachment, the sensitivity of the questionnaire concerning emotional detachment has been proven. Additionally it has been shown that symptoms of attention deficit and hyperactivity disorder can be distinguished from psychopathic traits by emotional detachment. In addition, these results confirm the core role of the feature emotional detachment for psychopathy. Furthermore, two emotion recognition tasks have been conducted in a criminal female inpatients sample. Compared to the low psychopathic patients, the high psychopathic patients showed deficits in categorization only in shortly presented sad facial expressions, but rated emotional facial expressions as less arousing. These results point to emotional detachment as a core characteristic of psychopathy, and is specific even in non-incarcerated and female incarcerated samples. It can be measured with the PPI-R as well as with emotion detection tasks.}, subject = {Psychopathie}, language = {en} } @phdthesis{Hirschfeld2011, author = {Hirschfeld, Josefine}, title = {Entwurf und Evaluation eines Prosodieverst{\"a}ndnistests in deutscher Pseudosprache}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-66208}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2011}, abstract = {In der CI-Forschung ist bislang wenig untersucht worden, ob CI-Tr{\"a}ger in der Lage sind, mit Hilfe ihrer Implantate Melodie- und Betonungsverl{\"a}ufe in der menschlichen Sprache zu erkennen. Da Cochlea-Implantate urspr{\"u}nglich mit dem Fokus auf das phonologische Sprachverstehen entwickelt wurden, in den letzten Jahren jedoch technologische Verbesserungen kontinuierlich eingef{\"u}hrt wurden, ist diese Fragestellung besonders interessant. Solche Merkmale der Sprache, die sich in Form von Grundfrequenz- und Lautheitsschwankungen, sowie Sprechtempo- und Rhythmus darstellen, werden als Prosodie bezeichnet. Die menschliche Sprache ist affektiv gepr{\"a}gt und bei intensiven Gem{\"u}tsregungen sind diese Melodieverl{\"a}ufe bzw. die prosodischen Merkmale besonders deutlich. Daher bietet es sich an, mit emotionaler Sprache zu arbeiten, sie dient als Lieferant f{\"u}r Grundfrequenz- und Intensit{\"a}tsschwankungen. Im Rahmen psychologischer und linguistischer Untersuchungen sind solcherlei Versuche bereits an normalh{\"o}renden Personen durchgef{\"u}hrt worden, allerdings stets auf der Grundlage semantisch-sinntragender Sprache, deren Inhalt bei der Bewertung des Geh{\"o}rten nicht ohne Einfluss bleibt. Daher wurde in der vorliegenden Arbeit eine k{\"u}nstliche Sprache automatisiert erzeugt, die in der statistischen Struktur ihrer Buchstabenzusammensetzung und Lautfolge der deutschen Sprache {\"a}hnelt. Diese Pseudosprache wurde in Form von 44 S{\"a}tzen in zehn verschiedenen Emotionen aufgenommen und durch nachtr{\"a}gliche Schneide- und Auswahlarbeiten als abh{\"o}rbare Audiodateien fertiggestellt. Dabei lagen sie je zur H{\"a}lfte als 10- und 15-silbige S{\"a}tze vor. Es kamen professionelle digitale Aufnahmeger{\"a}te zum Einsatz, deren Aufstellung in Vorversuchen systematisch optimiert wurde. Die Evaluierung der S{\"a}tze und die anschließende Auswertung der Ergebnisse geschahen im Rahmen einer Untersuchung mit Probanden ohne H{\"o}reinschr{\"a}nkungen, um diesen neuartigen Test zun{\"a}chst auf seine prinzipielle Anwendbarkeit hin zu pr{\"u}fen. Die zugrundeliegende Fragestellung war, ob bei normalh{\"o}renden Personen ein korrektes Erkennen von Emotionen in der gesprochenen Sprache nachweisbar ist. Durch die Ergebnisse sollten Hinweise auf die Einsatzm{\"o}glichkeiten des Tests bei CI-Tr{\"a}gern gewonnen werden. Der Test wurde erst nach Ablauf einer vorgeschalteten Pilotstudie konstruiert. Dadurch konnten Verbesserungsm{\"o}glichkeiten im Design und in der Durchf{\"u}hrung des Tests vorab erkannt und umgesetzt werden. Die S{\"a}tze wurden den Probanden der Hauptgruppe in einem genau festgelegten Schema vorgespielt, der Test war untergliedert in einen offen und einen geschlossen zu beurteilenden Abschnitt. Die Ergebnisse zeigen, dass die F{\"a}higkeit der Probanden zur Erkennung der Emotionen nachweislich vorhanden ist, ohne Unterschied zwischen m{\"a}nnlichen und weiblichen Probanden. Dabei wurden sowohl im offenen als auch im geschlossenen Test bestimmte Emotionen (z.B. Gleichg{\"u}ltigkeit, Panik, Trauer) grunds{\"a}tzlich besser erkannt als andere (z.B. Ekel, Freude, Stolz). Zwei der Emotionen ({\"A}rger, Zorn) erwiesen sich als kaum unterscheidbar, weswegen eine davon herausgenommen werden sollte und somit neun verwendbare Emotionen resultieren. Die Aufsprachen und die Evaluierung der prosodischen S{\"a}tze in dieser Arbeit sind Grundsteine f{\"u}r die Er{\"o}rterung und Durchf{\"u}hrung sinnvoller Ver{\"a}nderungen an diesem Prosodieverst{\"a}ndnistest, bevor er bei CI-Tr{\"a}gern zur Anwendung kommt. Solche Ver{\"a}nderungen k{\"o}nnten in technischen Verbesserungen bestehen, in der Variation der prosodischen Darstellungsm{\"o}glichkeiten von Emotionen, in der Aufsprache durch professionelle Schauspieler oder in der Erweiterung um eine weibliche Sprecherstimme. Das Ziel zuk{\"u}nftiger Arbeiten zu diesem Thema ist es, den vorliegenden Test so weiterzuentwickeln, dass er in der Lage ist, in der CI-Forschung zur Gewinnung neuer Erkenntnisse beizutragen. Im Hinblick auf den weiteren praktischen Einsatz konnten bereits in dieser Arbeit die wichtigsten Voraussetzungen und Anforderungen erf{\"u}llt und das Konzept eines klinisch anwendbaren Emotions-Prosodietests erfolgreich umgesetzt werden.}, subject = {Prosodie}, language = {de} } @phdthesis{Herrmann2003, author = {Herrmann, Martin Josef}, title = {Neurophysiologische Korrelate der Verarbeitung von Gesichtern und emotionalen Gesichtsausdr{\"u}cken bei Gesunden und Patienten mit schizophrenen Erkrankungen}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-8202}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2003}, abstract = {Ausgangspunkt f{\"u}r diese Arbeit war die Diskrepanz zwischen der vielfach belegten Schwierigkeit schizophrener Patienten bei der Dekodierung emotionaler Gesichtsausdr{\"u}cke und dem mangelhaften Wissen {\"u}ber die hierf{\"u}r verantwortlichen Prozesse. In der Literatur der letzten Jahre gab es einige viel versprechende Ergebnisse, die nahe legten, dass mit dem Elektroenzephalogramm (EEG) sowohl die Verarbeitung von Gesichtern, als auch der Mimik messbar ist. Somit w{\"a}re das EEG eine geeignete Methode den Prozess der Emotionsdekodierung bei schizophrenen Patienten zu untersuchen. Diese Arbeit untersucht folgende zwei Hauptfragestellungen. Erstens, wie lassen sich die f{\"u}r die Verarbeitung von Gesichtern und das Erkennen von emotionalen Gesichtsausdr{\"u}cken verantwortlichen kognitiven Prozesse mit Hilfe ereigniskorrelierter Potentiale des EEGs reliabel messen? Zweitens, sind diese Prozesse bei schizophrenen Patienten im Vergleich zu gesunden Probanden beeintr{\"a}chtigt? Zur Kl{\"a}rung der ersten Fragestellung wurden drei Stichproben gesunder Personen untersucht. Es zeigte sich in allen drei Untersuchungen, dass sich die Verarbeitung von Gesichtern im Vergleich zu Kontrollreizen in einer negativen Komponente um 170 ms {\"u}ber temporalen Elektrodenpositionen widerspiegelt (Gesichterpeak, N170). Die N170 konnte mit dem Quellenlokalisationsprogramm LORETA unter anderem im Gyrus Fusiformis, der entsprechenden Hirnregion f{\"u}r die Gesichtsverarbeitung, lokalisiert werden. F{\"u}r die Dekodierung emotionaler Gesichtsausdr{\"u}cke konnten keine wiederholbaren Effekte nachgewiesen werden. Im Weiteren wurde die Gesichtsverarbeitung bei schizophrenen Patienten untersucht. 22 als schizophren diagnostizierte Patienten wurden mit einer nach dem Alter, dem Geschlecht und dem Bildungsstatus angepassten Kontrollgruppe verglichen. In dieser Auswertung deutete sich bei schizophrenen Patienten ein Defizit in den fr{\"u}hen Verarbeitungsschritten von Gesichtern an. Dieses Ergebnis wurde in dieser Art noch nicht gezeigt und reiht sich ein in Studien, die sowohl strukturelle Ver{\"a}nderungen in den f{\"u}r die Gesichtsverarbeitung wesentlichen Hirnregionen bei schizophrenen Patienten zeigen konnten als auch ein allgemeines Defizit fr{\"u}her visueller Verarbeitung nahe legen.}, subject = {Schizophrener}, language = {de} } @phdthesis{Huber2023, author = {Huber, Stephan}, title = {Proxemo: Documenting Observed Emotions in HCI}, doi = {10.25972/OPUS-30573}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-305730}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2023}, abstract = {For formative evaluations of user experience (UX) a variety of methods have been developed over the years. However, most techniques require the users to interact with the study as a secondary task. This active involvement in the evaluation is not inclusive of all users and potentially biases the experience currently being studied. Yet there is a lack of methods for situations in which the user has no spare cognitive resources. This condition occurs when 1) users' cognitive abilities are impaired (e.g., people with dementia) or 2) users are confronted with very demanding tasks (e.g., air traffic controllers). In this work we focus on emotions as a key component of UX and propose the new structured observation method Proxemo for formative UX evaluations. Proxemo allows qualified observers to document users' emotions by proxy in real time and then directly link them to triggers. Technically this is achieved by synchronising the timestamps of emotions documented by observers with a video recording of the interaction. In order to facilitate the documentation of observed emotions in highly diverse contexts we conceptualise and implement two separate versions of a documentation aid named Proxemo App. For formative UX evaluations of technology-supported reminiscence sessions with people with dementia, we create a smartwatch app to discreetly document emotions from the categories anger, general alertness, pleasure, wistfulness and pride. For formative UX evaluations of prototypical user interfaces with air traffic controllers we create a smartphone app to efficiently document emotions from the categories anger, boredom, surprise, stress and pride. Descriptive case studies in both application domains indicate the feasibility and utility of the method Proxemo and the appropriateness of the respectively adapted design of the Proxemo App. The third part of this work is a series of meta-evaluation studies to determine quality criteria of Proxemo. We evaluate Proxemo regarding its reliability, validity, thoroughness and effectiveness, and compare Proxemo's efficiency and the observers' experience to documentation with pen and paper. Proxemo is reliable, as well as more efficient, thorough and effective than handwritten notes and provides a better UX to observers. Proxemo compares well with existing methods where benchmarks are available. With Proxemo we contribute a validated structured observation method that has shown to meet requirements formative UX evaluations in the extreme contexts of users with cognitive impairments or high task demands. Proxemo is agnostic regarding researchers' theoretical approaches and unites reductionist and holistic perspectives within one method. Future work should explore the applicability of Proxemo for further domains and extend the list of audited quality criteria to include, for instance, downstream utility. With respect to basic research we strive to better understand the sources leading observers to empathic judgments and propose reminisce and older adults as model environment for investigating mixed emotions.}, subject = {Gef{\"u}hl}, language = {en} }