TY - JOUR A1 - Wieser, Mattias J. A1 - Brosch, Tobias T1 - Faces in context: A review and systematization of contextual influences on affective face processing N2 - Facial expressions are of eminent importance for social interaction as they convey information about other individuals’ emotions and social intentions. According to the predominant “basic emotion” approach, the perception of emotion in faces is based on the rapid, auto- matic categorization of prototypical, universal expressions. Consequently, the perception of facial expressions has typically been investigated using isolated, de-contextualized, static pictures of facial expressions that maximize the distinction between categories. However, in everyday life, an individual’s face is not perceived in isolation, but almost always appears within a situational context, which may arise from other people, the physical environment surrounding the face, as well as multichannel information from the sender. Furthermore, situational context may be provided by the perceiver, including already present social infor- mation gained from affective learning and implicit processing biases such as race bias.Thus, the perception of facial expressions is presumably always influenced by contextual vari- ables. In this comprehensive review, we aim at (1) systematizing the contextual variables that may influence the perception of facial expressions and (2) summarizing experimental paradigms and findings that have been used to investigate these influences. The studies reviewed here demonstrate that perception and neural processing of facial expressions are substantially modified by contextual information, including verbal, visual, and auditory information presented together with the face as well as knowledge or processing biases already present in the observer. These findings further challenge the assumption of auto- matic, hardwired categorical emotion extraction mechanisms predicted by basic emotion theories. Taking into account a recent model on face processing, we discuss where and when these different contextual influences may take place, thus outlining potential avenues in future research. KW - Psychologie KW - facial expression KW - face perception KW - emotion KW - context KW - “basic emotion” Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-76351 ER - TY - JOUR A1 - Wieser, Matthias J. A1 - Gerdes, Antje B. M. A1 - Reicherts, Philipp A1 - Pauli, Paul T1 - Mutual influences of pain and emotional face processing JF - Frontiers in Psychology N2 - The perception of unpleasant stimuli enhances whereas the perception of pleasant stimuli decreases pain perception. In contrast, the effects of pain on the processing of emotional stimuli are much less known. Especially given the recent interest in facial expressions of pain as a special category of emotional stimuli, a main topic in this research line is the mutual influence of pain and facial expression processing. Therefore, in this mini-review we selectively summarize research on the effects of emotional stimuli on pain, but more extensively turn to the opposite direction namely how pain influences concurrent processing of affective stimuli such as facial expressions. Based on the motivational priming theory one may hypothesize that the perception of pain enhances the processing of unpleasant stimuli and decreases the processing of pleasant stimuli. This review reveals that the literature is only partly consistent with this assumption: pain reduces the processing of pleasant pictures and happy facial expressions, but does not – or only partly – affect processing of unpleasant pictures. However, it was demonstrated that pain selectively enhances the processing of facial expressions if these are pain-related (i.e., facial expressions of pain). Extending a mere affective modulation theory, the latter results suggest pain-specific effects which may be explained by the perception-action model of empathy. Together, these results underscore the important mutual influence of pain and emotional face processing. KW - emotion KW - facial expression KW - ERPs KW - perception-action KW - pain Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-118446 SN - 1664-1078 VL - 5 ER - TY - JOUR A1 - Topolinski, Sascha A1 - Strack, Fritz T1 - Corrugator activity confirms immediate negative affect in surprise JF - Frontiers in Psychology N2 - The emotion of surprise entails a complex of immediate responses, such as cognitive interruption, attention allocation to, and more systematic processing of the surprising stimulus. All these processes serve the ultimate function to increase processing depth and thus cognitively master the surprising stimulus. The present account introduces phasic negative affect as the underlying mechanism responsible for this switch in operating mode. Surprising stimuli are schema discrepant and thus entail cognitive disfluency, which elicits immediate negative affect. This affect in turn works like a phasic cognitive tuning switching the current processing mode from more automatic and heuristic to more systematic and reflective processing. Directly testing the initial elicitation of negative affect by surprising events, the present experiment presented high and low surprising neutral trivia statements to N = 28 participants while assessing their spontaneous facial expressions via facial electromyography. High compared to low surprising trivia elicited higher corrugator activity, indicative of negative affect and mental effort, while leaving zygomaticus (positive affect) and frontalis (cultural surprise expression) activity unaffected. Future research shall investigate the mediating role of negative affect in eliciting surprise-related outcomes. KW - phasic affective modulation KW - processing fluency KW - intuition KW - surprise KW - EMG KW - elevator EMG activity KW - facial expressions KW - semantic coherence KW - emotion KW - judgments KW - attention KW - memory KW - affect KW - expectancy Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-144068 VL - 6 IS - 134 ER - TY - THES A1 - Stemmler, Thomas T1 - Just do it! Guilt as a moral intuition to cooperate - A parallel constraint satisfaction approach T1 - Schuld als moralische Intuition zu Kooperation - ein parallel constraint satisfaction Ansatz N2 - Nach langer Dominanz rationaler Urteils- und Entscheidungsmodelle in der Moralpsychologie (z.B. Kohlberg, 1969) besteht seit einiger Zeit verstärktes Interesse an intuitiven, emotionalen Einflüssen auf moralische Urteile und Entscheidungen (z.B. Greene, 2007; Haidt, 2001; Monin, Pizarro, & Beer, 2007). Der Einfluss von Emotionen auf moralische Entscheidungen wird in der Literatur u.a. mittels heuristischer, non-kompensatorischer Informationsverarbeitung erklärt (z.B. Sinnott-Armstrong, Young, & Cushman, 2010; Sunstein, 2005; Tobler, Kalis, & Kalenscher, 2008). Hierbei wird jedoch der Prozess der Emotionsentstehung ignoriert. Appraisaltheorien postulieren, dass Emotionen durch die Inkohärenz (oder Diskrepanz) von Verhaltensrepräsentationen wie Zielen und Aktionen entstehen (Moors, 2009). Emotionsentstehung und (intuitives) Entscheiden kann in einem Modell vereint werden sobald man bei beiden Prozessen eine konnektionistische Struktur (z.B. Barnes & Thagard, 1996) zugrunde legt. Die vorliegende Arbeit kontrastiert beide Perspektiven intuitiv-emotionalen Entscheidens im Hinblick auf Schuld und Kooperation. N2 - After a long dominance of rational models of judgment and decision-making in moral psychology (e.g. Kohlberg, 1969) there is now a strong interest in how intuitions and emotions influence moral judgments and decisions (e.g. Greene, 2007; Haidt, 2001; Monin, Pizarro, & Beer, 2007). In the literature, the influence of emotions on moral decisions is explained by heuristic or non-compensatory information processing (e.g. Sinnott-Armstrong, Young, & Cushman, 2010; Sunstein, 2005; Tobler, Kalis, & Kalenscher, 2008). However, the process of emotion elicitation is ignored. Appraisal theories postulate that emotion elicitation is due to the incoherence (or discrepancy) of behavioral representations like goals and actions (Moors, 2009). Emotion elicitation and intuitive decision-making can be combined if both processes apply a connectionist information processing structure (e.g. Barnes & Thagard, 1996). The current work contrasts both perspectives of intuitive-emotional decision-making with respect to guilt and cooperation. KW - Kooperation KW - Schuldgefühl KW - Moralisches Handeln KW - parallel constraint satisfaction KW - Intuition KW - Entscheidung KW - Gefühl KW - Informationsverarbeitung KW - morality KW - guilt KW - cooperation KW - emotion KW - intuition KW - decision-making KW - parallel constraint satisfaction Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-74873 ER - TY - JOUR A1 - Stegmann, Yannik A1 - Andreatta, Marta A1 - Wieser, Matthias J. T1 - The effect of inherently threatening contexts on visuocortical engagement to conditioned threat JF - Psychophysiology N2 - Fear and anxiety are crucial for adaptive responding in life‐threatening situations. Whereas fear is a phasic response to an acute threat accompanied by selective attention, anxiety is characterized by a sustained feeling of apprehension and hypervigilance during situations of potential threat. In the current literature, fear and anxiety are usually considered mutually exclusive, with partially separated neural underpinnings. However, there is accumulating evidence that challenges this distinction between fear and anxiety, and simultaneous activation of fear and anxiety networks has been reported. Therefore, the current study experimentally tested potential interactions between fear and anxiety. Fifty‐two healthy participants completed a differential fear conditioning paradigm followed by a test phase in which the conditioned stimuli were presented in front of threatening or neutral contextual images. To capture defense system activation, we recorded subjective (threat, US‐expectancy), physiological (skin conductance, heart rate) and visuocortical (steady‐state visual evoked potentials) responses to the conditioned stimuli as a function of contextual threat. Results demonstrated successful fear conditioning in all measures. In addition, threat and US‐expectancy ratings, cardiac deceleration, and visuocortical activity were enhanced for fear cues presented in threatening compared with neutral contexts. These results are in line with an additive or interactive rather than an exclusive model of fear and anxiety, indicating facilitated defensive behavior to imminent danger in situations of potential threat. KW - anxiety KW - EEG KW - emotion KW - fear KW - heart rate KW - ssVEP Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-312465 VL - 60 IS - 4 ER - TY - CHAP A1 - Schmitz, Barbara T1 - Antiochus Epiphanes und der epiphane Gott. Gefühle, Emotionen und Affekte im Zweiten Makkabäerbuch N2 - Das Zweite Makkabäerbuch ist eine absichtsvoll komponierte Erzählung, die ihr Erzählinteresse in der Vorrede (2Makk 2,19–32) und im Epilog (2Makk 15,37–39) benennt. Die Erzählung soll – so die Selbstauskunft der Erzählung im Vorwort – den Leserinnen und Lesern zur Psnchagogia, „Seelenführung, Vergnügung, Lockung“, zur eukopia, „Leichtigkeit“ sowie zur opheleia, „Vorteil, Nutzen, nützlichen Kenntnis“ dienen (2Makk 2,25). Damit präsentiert sich das Zweite Makkabäerbuch als eine absichtsvolle literarische Erzählung, die ganz bewusst bei den Leserinnen und Lesern emotionale Wirkung, Gefühle und Affekte hervorrufen will. Dieses Ziel wird gleich zu Beginn der Erzählung auf der Kommunikationsebene zwischen Erzählstimme und Lesenden benannt. Das auf diese Weise offengelegte Vorhaben der Erzählung lässt zunächst fragen, wie die emotionale Wirkung bei den Leserinnen und Lesern erzielt werden soll. Darüber hinaus ist die viel grundlegendere Frage zu stellen, warum es für das Zweite Makkabäerbuch von so zentralem Interesse ist, Emotionen bei den Rezipienten hervorzurufen. KW - emotion KW - Maccabees KW - Makkabäer KW - Gefühl Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-108916 ER - TY - THES A1 - Ramirez Pasos, Uri Eduardo T1 - Subthalamic Nucleus Neural Synchronization and Connectivity during Limbic Processing of Emotional Pictures: Evidence from Invasive Recordings in Patients with Parkinson's Disease T1 - Synchronisierung und Konnektivität des Nucleus subthalamicus während limbischer Bearbeitung affektiver Bilder: Evidenz aus invasiven Aufzeichnungen in Patienten mit Morbus Parkinson N2 - In addition to bradykinesia and tremor, patients with Parkinson’s disease (PD) are known to exhibit non-motor symptoms such as apathy and hypomimia but also impulsivity in response to dopaminergic replacement therapy. Moreover, a plethora of studies observe differences in electrocortical and autonomic responses to both visual and acoustic affective stimuli in PD subjects compared to healthy controls. This suggests that the basal ganglia (BG), as well as the hyperdirect pathway and BG thalamocortical circuits, are involved in affective processing. Recent studies have shown valence and dopamine-dependent changes in synchronization in the subthalamic nucleus (STN) in PD patients during affective tasks. This thesis investigates the role of dopamine, valence, and laterality in STN electrophysiology by analyzing event-related potentials (ERP), synchronization, and inter-hemispheric STN connectivity. STN recordings were obtained from PD patients with chronically implanted electrodes for deep brain stimulation during a passive affective picture presentation task. The STN exhibited valence-dependent ERP latencies and lateralized ‘high beta’ (28–40 Hz) event-related desynchronization. This thesis also examines the role of dopamine, valence, and laterality on STN functional connectivity with the anterior cingulate cortex (ACC) and the amygdala. The activity of these limbic structures was reconstructed using simultaneously recorded electroencephalographic signals. While the STN was found to establish early coupling with both structures, STN-ACC coupling in the ‘alpha’ range (7–11 Hz) and uncoupling in the ‘low beta’ range (14–21 Hz) were lateralized. Lateralization was also observed at the level of synchrony in both reconstructed sources and for ACC ERP amplitude, whereas dopamine modulated ERP latency in the amygdala. These results may deepen our current understanding of the STN as a limbic node within larger emotional-motor networks in the brain.
 N2 - Neben Bradykinese und Tremor weisen Patienten mit Morbus Parkinson (PD) bekannterweise nicht-motorische Symptome auf wie Apathie und Hypomimie, aber auch Impulsivität, welche durch Dopaminersatztherapien bedingt ist. Viele Studien belegen außerdem Unterschiede von kortikalen und autonomen Reaktionen auf sowohl visuelle als auch akustische Reize bei Patienten mit PD im Vergleich zu gesunden Kontrollgruppen. Dies legt nahe, dass sich die Basalganglien (BG), und auch die hyperdirekte Verbindung sowie die BG-thalamokortikalen Schleifen, an der Affektbearbeitung beteiligen. Jüngere Studien haben Valenz- und Dopamin-bedingte Veränderungen der Synchronisierung im Nucleus subthalamicus (STN) von Parkinson-Patienten bei affektiven Aufgaben belegt. Diese Promotionsarbeit untersucht die Rolle von Dopamin, Valenz und Lateralität in der STN-Elektrophysiologie mittels Analysen von ereigniskorrelierten Potentialen (ERP), Synchronisierung und interhemisphärischer funktioneller Konnektivität. STN-Aufzeichnungen wurden von Patienten mit dauerhaft implantierten Elektroden für die Tiefenhirnstimulation während einer passiven Aufgabe abgeleitet, bei den ihnen Bilder mit emotionalen Inhalten gezeigt wurden. Der STN wies Valenz-bedingte ERP-Latenz und lateralisierte ereigniskorrelierte Desynchronisierung in ‘hohem Beta’ (28–40 Hz) auf. Diese Dissertation untersucht auch die Rolle von Dopamin, Valenz und Lateralität bezüglich der funktionellen Konnektivität zwischen dem STN und dem Gyrus cinguli pars anterior (ACC) sowie der Amygdala. Die Aktivität dieser Strukturen wurde aus simultanen elektroenzephalographischen Aufzeichnungen rekonstruiert. Obwohl eine STN-Kopplung mit beiden Strukturen auftritt, war die STN-ACC-Kopplung im ‘Alpha’- Bereich (7–11 Hz) und die Entkopplung im ‘niedrigen Beta’-Bereich (14–21 Hz) lateralisiert. Lateralisierung wurde auch an der Synchronisierung in beiden rekonstruierten Quellen und an der ACC-ERP-Amplitude festgestellt, wohingegen Dopamin die ERP-Latenz in der Amygdala modulierte. Diese Ergebnisse mögen das gegenwärtige Wissen vom STN als limbischem Knoten innerhalb größerer affektiv-motorischer Schleifen im Gehirn vertiefen. KW - Nucleus subthalamicus KW - subthalamic nucleus KW - Emotionales Verhalten KW - functional connectivity KW - oscillations KW - emotion KW - Affekt KW - Elektrophysiologie Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-169850 ER - TY - THES A1 - Menne, Isabelle M. T1 - Facing Social Robots – Emotional Reactions towards Social Robots N2 - Ein Army Colonel empfindet Mitleid mit einem Roboter, der versuchsweise Landminen entschärft und deklariert den Test als inhuman (Garreau, 2007). Roboter bekommen militärische Beförderungen, Beerdigungen und Ehrenmedaillen (Garreau, 2007; Carpenter, 2013). Ein Schildkrötenroboter wird entwickelt, um Kindern beizubringen, Roboter gut zu behandeln (Ackermann, 2018). Der humanoide Roboter Sophia wurde erst kürzlich Saudi-Arabischer Staatsbürger und es gibt bereits Debatten, ob Roboter Rechte bekommen sollen (Delcker, 2018). Diese und ähnliche Entwicklungen zeigen schon jetzt die Bedeutsamkeit von Robotern und die emotionale Wirkung die diese auslösen. Dennoch scheinen sich diese emotionalen Reaktionen auf einer anderen Ebene abzuspielen, gemessen an Kommentaren in Internetforen. Dort ist oftmals die Rede davon, wieso jemand überhaupt emotional auf einen Roboter reagieren kann. Tatsächlich ist es, rein rational gesehen, schwierig zu erklären, warum Menschen mit einer leblosen (‚mindless‘) Maschine mitfühlen sollten. Und dennoch zeugen nicht nur oben genannte Berichte, sondern auch erste wissenschaftliche Studien (z.B. Rosenthal- von der Pütten et al., 2013) von dem emotionalen Einfluss den Roboter auf Menschen haben können. Trotz der Bedeutsamkeit der Erforschung emotionaler Reaktionen auf Roboter existieren bislang wenige wissenschaftliche Studien hierzu. Tatsächlich identifizierten Kappas, Krumhuber und Küster (2013) die systematische Analyse und Evaluation sozialer Reaktionen auf Roboter als eine der größten Herausforderungen der affektiven Mensch-Roboter Interaktion. Nach Scherer (2001; 2005) bestehen Emotionen aus der Koordination und Synchronisation verschiedener Komponenten, die miteinander verknüpft sind. Motorischer Ausdruck (Mimik), subjektives Erleben, Handlungstendenzen, physiologische und kognitive Komponenten gehören hierzu. Um eine Emotion vollständig zu erfassen, müssten all diese Komponenten gemessen werden, jedoch wurde eine solch umfassende Analyse bisher noch nie durchgeführt (Scherer, 2005). Hauptsächlich werden Fragebögen eingesetzt (vgl. Bethel & Murphy, 2010), die allerdings meist nur das subjektive Erleben abfragen. Bakeman und Gottman (1997) geben sogar an, dass nur etwa 8% der psychologischen Forschung auf Verhaltensdaten basiert, obwohl die Psychologie traditionell als das ‚Studium von Psyche und Verhalten‘ (American Psychological Association, 2018) definiert wird. Die Messung anderer Emotionskomponenten ist selten. Zudem sind Fragebögen mit einer Reihe von Nachteilen behaftet (Austin, Deary, Gibson, McGregor, Dent, 1998; Fan et al., 2006; Wilcox, 2011). Bethel und Murphy (2010) als auch Arkin und Moshkina (2015) plädieren für einen Multi-Methodenansatz um ein umfassenderes Verständnis von affektiven Prozessen in der Mensch-Roboter Interaktion zu erlangen. Das Hauptziel der vorliegenden Dissertation ist es daher, mithilfe eines Multi-Methodenansatzes verschiedene Komponenten von Emotionen (motorischer Ausdruck, subjektive Gefühlskomponente, Handlungstendenzen) zu erfassen und so zu einem vollständigeren und tiefgreifenderem Bild emotionaler Prozesse auf Roboter beizutragen. Um dieses Ziel zu erreichen, wurden drei experimentelle Studien mit insgesamt 491 Teilnehmern durchgeführt. Mit unterschiedlichen Ebenen der „apparent reality“ (Frijda, 2007) sowie Macht / Kontrolle über die Situation (vgl. Scherer & Ellgring, 2007) wurde untersucht, inwiefern sich Intensität und Qualität emotionaler Reaktionen auf Roboter ändern und welche weiteren Faktoren (Aussehen des Roboters, emotionale Expressivität des Roboters, Behandlung des Roboters, Autoritätsstatus des Roboters) Einfluss ausüben. Experiment 1 basierte auf Videos, die verschiedene Arten von Robotern (tierähnlich, anthropomorph, maschinenartig), die entweder emotional expressiv waren oder nicht (an / aus) in verschiedenen Situationen (freundliche Behandlung des Roboters vs. Misshandlung) zeigten. Fragebögen über selbstberichtete Gefühle und die motorisch-expressive Komponente von Emotionen: Mimik (vgl. Scherer, 2005) wurden analysiert. Das Facial Action Coding System (Ekman, Friesen, & Hager, 2002), die umfassendste und am weitesten verbreitete Methode zur objektiven Untersuchung von Mimik, wurde hierfür verwendet. Die Ergebnisse zeigten, dass die Probanden Gesichtsausdrücke (Action Unit [AU] 12 und AUs, die mit positiven Emotionen assoziiert sind, sowie AU 4 und AUs, die mit negativen Emotionen assoziiert sind) sowie selbstberichtete Gefühle in Übereinstimmung mit der Valenz der in den Videos gezeigten Behandlung zeigten. Bei emotional expressiven Robotern konnten stärkere emotionale Reaktionen beobachtet werden als bei nicht-expressiven Robotern. Der tierähnliche Roboter Pleo erfuhr in der Misshandlungs-Bedingung am meisten Mitleid, Empathie, negative Gefühle und Traurigkeit, gefolgt vom anthropomorphen Roboter Reeti und am wenigsten für den maschinenartigen Roboter Roomba. Roomba wurde am meisten Antipathie zugeschrieben. Die Ergebnisse knüpfen an frühere Forschungen an (z.B. Krach et al., 2008; Menne & Schwab, 2018; Riek et al., 2009; Rosenthal-von der Pütten et al., 2013) und zeigen das Potenzial der Mimik für eine natürliche Mensch-Roboter Interaktion. Experiment 2 und Experiment 3 übertrugen die klassischen Experimente von Milgram (1963; 1974) zum Thema Gehorsam in den Kontext der Mensch-Roboter Interaktion. Die Gehorsamkeitsstudien von Milgram wurden als sehr geeignet erachtet, um das Ausmaß der Empathie gegenüber einem Roboter im Verhältnis zum Gehorsam gegenüber einem Roboter zu untersuchen. Experiment 2 unterschied sich von Experiment 3 in der Ebene der „apparent reality“ (Frijda, 2007): in Anlehnung an Milgram (1963) wurde eine rein text-basierte Studie (Experiment 2) einer live Mensch-Roboter Interaktion (Experiment 3) gegenübergestellt. Während die abhängigen Variablen von Experiment 2 aus den Selbstberichten emotionaler Gefühle sowie Einschätzungen des hypothetischen Verhaltens bestand, erfasste Experiment 3 subjektive Gefühle sowie reales Verhalten (Reaktionszeit: Dauer des Zögerns; Gehorsamkeitsrate; Anzahl der Proteste; Mimik) der Teilnehmer. Beide Experimente untersuchten den Einfluss der Faktoren „Autoritätsstatus“ (hoch / niedrig) des Roboters, der die Befehle erteilt (Nao) und die emotionale Expressivität (an / aus) des Roboters, der die Strafen erhält (Pleo). Die subjektiven Gefühle der Teilnehmer aus Experiment 2 unterschieden sich zwischen den Gruppen nicht. Darüber hinaus gaben nur wenige Teilnehmer (20.2%) an, dass sie den „Opfer“-Roboter definitiv bestrafen würden. Ein ähnliches Ergebnis fand auch Milgram (1963). Das reale Verhalten von Versuchsteilnehmern in Milgrams‘ Labor-Experiment unterschied sich jedoch von Einschätzungen hypothetischen Verhaltens von Teilnehmern, denen Milgram das Experiment nur beschrieben hatte. Ebenso lassen Kommentare von Teilnehmern aus Experiment 2 darauf schließen, dass das beschriebene Szenario möglicherweise als fiktiv eingestuft wurde und Einschätzungen von hypothetischem Verhalten daher kein realistisches Bild realen Verhaltens gegenüber Roboter in einer live Interaktion zeichnen können. Daher wurde ein weiteres Experiment (Experiment 3) mit einer Live Interaktion mit einem Roboter als Autoritätsfigur (hoher Autoritätsstatus vs. niedriger) und einem weiteren Roboter als „Opfer“ (emotional expressiv vs. nicht expressiv) durchgeführt. Es wurden Gruppenunterschiede in Fragebögen über emotionale Reaktionen gefunden. Dem emotional expressiven Roboter wurde mehr Empathie entgegengebracht und es wurde mehr Freude und weniger Antipathie berichtet als gegenüber einem nicht-expressiven Roboter. Außerdem konnten Gesichtsausdrücke beobachtet werden, die mit negativen Emotionen assoziiert sind während Probanden Nao’s Befehl ausführten und Pleo bestraften. Obwohl Probanden tendenziell länger zögerten, wenn sie einen emotional expressiven Roboter bestrafen sollten und der Befehl von einem Roboter mit niedrigem Autoritätsstatus kam, wurde dieser Unterschied nicht signifikant. Zudem waren alle bis auf einen Probanden gehorsam und bestraften Pleo, wie vom Nao Roboter befohlen. Dieses Ergebnis steht in starkem Gegensatz zu dem selbstberichteten hypothetischen Verhalten der Teilnehmer aus Experiment 2 und unterstützt die Annahme, dass die Einschätzungen von hypothetischem Verhalten in einem Mensch-Roboter-Gehorsamkeitsszenario nicht zuverlässig sind für echtes Verhalten in einer live Mensch-Roboter Interaktion. Situative Variablen, wie z.B. der Gehorsam gegenüber Autoritäten, sogar gegenüber einem Roboter, scheinen stärker zu sein als Empathie für einen Roboter. Dieser Befund knüpft an andere Studien an (z.B. Bartneck & Hu, 2008; Geiskkovitch et al., 2016; Menne, 2017; Slater et al., 2006), eröffnet neue Erkenntnisse zum Einfluss von Robotern, zeigt aber auch auf, dass die Wahl einer Methode um Empathie für einen Roboter zu evozieren eine nicht triviale Angelegenheit ist (vgl. Geiskkovitch et al., 2016; vgl. Milgram, 1965). Insgesamt stützen die Ergebnisse die Annahme, dass die emotionalen Reaktionen auf Roboter tiefgreifend sind und sich sowohl auf der subjektiven Ebene als auch in der motorischen Komponente zeigen. Menschen reagieren emotional auf einen Roboter, der emotional expressiv ist und eher weniger wie eine Maschine aussieht. Sie empfinden Empathie und negative Gefühle, wenn ein Roboter misshandelt wird und diese emotionalen Reaktionen spiegeln sich in der Mimik. Darüber hinaus unterscheiden sich die Einschätzungen von Menschen über ihr eigenes hypothetisches Verhalten von ihrem tatsächlichen Verhalten, weshalb videobasierte oder live Interaktionen zur Analyse realer Verhaltensreaktionen empfohlen wird. Die Ankunft sozialer Roboter in der Gesellschaft führt zu nie dagewesenen Fragen und diese Dissertation liefert einen ersten Schritt zum Verständnis dieser neuen Herausforderungen. N2 - An Army Colonel feels sorry for a robot that defuses landmines on a trial basis and declares the test inhumane (Garreau, 2007). Robots receive military promotions, funerals and medals of honor (Garreau, 2007; Carpenter, 2013). A turtle robot is being developed to teach children to treat robots well (Ackermann, 2018). The humanoid robot Sophia recently became a Saudi Arabian citizen and there are now debates whether robots should have rights (Delcker, 2018). These and similar developments already show the importance of robots and the emotional impact they have. Nevertheless, these emotional reactions seem to take place on a different level, judging by comments in internet forums alone: Most often, emotional reactions towards robots are questioned if not denied at all. In fact, from a purely rational point of view, it is difficult to explain why people should empathize with a mindless machine. However, not only the reports mentioned above but also first scientific studies (e.g. Rosenthal- von der Pütten et al., 2013) bear witness to the emotional influence of robots on humans. Despite the importance of researching emotional reactions towards robots, there are few scientific studies on this subject. In fact, Kappas, Krumhuber and Küster (2013) identified effective testing and evaluation of social reactions towards robots as one of the major challenges of affective Human-Robot Interaction (HRI). According to Scherer (2001; 2005), emotions consist of the coordination and synchronization of different components that are linked to each other. These include motor expression (facial expressions), subjective experience, action tendencies, physiological and cognitive components. To fully capture an emotion, all these components would have to be measured, but such a comprehensive analysis has never been performed (Scherer, 2005). Primarily, questionnaires are used (cf. Bethel & Murphy, 2010) but most of them only capture subjective experiences. Bakeman and Gottman (1997) even state that only about 8% of psychological research is based on behavioral data, although psychology is traditionally defined as the 'study of the mind and behavior' (American Psychological Association, 2018). The measurement of other emotional components is rare. In addition, questionnaires have a number of disadvantages (Austin, Deary, Gibson, McGregor, Dent, 1998; Fan et al., 2006; Wilcox, 2011). Bethel and Murphy (2010) as well as Arkin and Moshkina (2015) argue for a multi-method approach to achieve a more comprehensive understanding of affective processes in HRI. The main goal of this dissertation is therefore to use a multi-method approach to capture different components of emotions (motor expression, subjective feeling component, action tendencies) and thus contribute to a more complete and profound picture of emotional processes towards robots. To achieve this goal, three experimental studies were conducted with a total of 491 participants. With different levels of ‘apparent reality’ (Frijda, 2007) and power/control over the situation (cf. Scherer & Ellgring, 2007), the extent to which the intensity and quality of emotional responses to robots change were investigated as well as the influence of other factors (appearance of the robot, emotional expressivity of the robot, treatment of the robot, authority status of the robot). Experiment 1 was based on videos showing different types of robots (animal-like, anthropomorphic, machine-like) in different situations (friendly treatment of the robot vs. torture treatment) while being either emotionally expressive or not. Self-reports of feelings as well as the motoric-expressive component of emotion: facial expressions (cf. Scherer, 2005) were analyzed. The Facial Action Coding System (Ekman, Friesen, & Hager, 2002), the most comprehensive and most widely used method for objectively assessing facial expressions, was utilized for this purpose. Results showed that participants displayed facial expressions (Action Unit [AU] 12 and AUs associated with positive emotions as well as AU 4 and AUs associated with negative emotions) as well as self-reported feelings in line with the valence of the treatment shown in the videos. Stronger emotional reactions could be observed for emotionally expressive robots than non-expressive robots. Most pity, empathy, negative feelings and sadness were reported for the animal-like robot Pleo while watching it being tortured, followed by the anthropomorphic robot Reeti and least for the machine-like robot Roomba. Most antipathy was attributed to Roomba. The findings are in line with previous research (e.g., Krach et al., 2008; Menne & Schwab, 2018; Riek et al., 2009; Rosenthal-von der Pütten et al., 2013) and show facial expressions’ potential for a natural HRI. Experiment 2 and Experiment 3 transferred Milgram’s classic experiments (1963; 1974) on obedience into the context of HRI. Milgram’s obedience studies were deemed highly suitable to study the extent of empathy towards a robot in relation to obedience to a robot. Experiment 2 differed from Experiment 3 in the level of ‘apparent reality’ (Frijda, 2007): based on Milgram (1963), a purely text-based study (Experiment 2) was compared with a live HRI (Experiment 3). While the dependent variables of Experiment 2 consisted of self-reports of emotional feelings and assessments of hypothetical behavior, Experiment 3 measured subjective feelings and real behavior (reaction time: duration of hesitation; obedience rate; number of protests; facial expressions) of the participants. Both experiments examined the influence of the factors "authority status" (high / low) of the robot giving the orders (Nao) and the emotional expressivity (on / off) of the robot receiving the punishments (Pleo). The subjective feelings of the participants from Experiment 2 did not differ between the groups. In addition, only few participants (20.2%) stated that they would definitely punish the "victim" robot. Milgram (1963) found a similar result. However, the real behavior of participants in Milgram's laboratory experiment differed from the estimates of hypothetical behavior of participants to whom Milgram had only described the experiment. Similarly, comments from participants in Experiment 2 suggest that the scenario described may have been considered fictitious and that assessments of hypothetical behavior may not provide a realistic picture of real behavior towards robots in a live interaction. Therefore, another experiment (Experiment 3) was performed with a live interaction with a robot as authority figure (high authority status vs. low) and another robot as "victim" (emotional expressive vs. non-expressive). Group differences were found in questionnaires on emotional responses. More empathy was shown for the emotionally expressive robot and more joy and less antipathy was reported than for a non-expressive robot. In addition, facial expressions associated with negative emotions could be observed while subjects executed Nao's command and punished Pleo. Although subjects tended to hesitate longer when punishing an emotionally expressive robot and the order came from a robot with low authority status, this difference did not reach significance. Furthermore, all but one subject were obedient and punished Pleo as commanded by the Nao robot. This result stands in stark contrast to the self-reported hypothetical behavior of the participants from Experiment 2 and supports the assumption that the assessments of hypothetical behavior in a Human-Robot obedience scenario are not reliable for real behavior in a live HRI. Situational variables, such as obedience to authorities, even to a robot, seem to be stronger than empathy for a robot. This finding is in line with previous studies (e.g. Bartneck & Hu, 2008; Geiskkovitch et al., 2016; Menne, 2017; Slater et al., 2006), opens up new insights into the influence of robots, but also shows that the choice of a method to evoke empathy for a robot is not a trivial matter (cf. Geiskkovitch et al., 2016; cf. Milgram, 1965). Overall, the results support the assumption that emotional reactions to robots are profound and manifest both at the subjective level and in the motor component. Humans react emotionally to a robot that is emotionally expressive and looks less like a machine. They feel empathy and negative feelings when a robot is abused and these emotional reactions are reflected in facial expressions. In addition, people's assessments of their own hypothetical behavior differ from their actual behavior, which is why video-based or live interactions are recommended for analyzing real behavioral responses. The arrival of social robots in society leads to unprecedented questions and this dissertation provides a first step towards understanding these new challenges. N2 - Are there emotional reactions towards social robots? Could you love a robot? Or, put the other way round: Could you mistreat a robot, tear it apart and sell it? Media reports people honoring military robots with funerals, mourning the “death” of a robotic dog, and granting the humanoid robot Sophia citizenship. But how profound are these reactions? Three experiments take a closer look on emotional reactions towards social robots by investigating the subjective experience of people as well as the motor expressive level. Contexts of varying degrees of Human-Robot Interaction (HRI) sketch a nuanced picture of emotions towards social robots that encompass conscious as well as unconscious reactions. The findings advance the understanding of affective experiences in HRI. It also turns the initial question into: Can emotional reactions towards social robots even be avoided? T2 - Im Angesicht sozialer Roboter - Emotionale Reaktionen angesichts sozialer Roboter KW - Roboter KW - social robot KW - emotion KW - FACS KW - Facial Action Coding System KW - facial expressions KW - emotional reaction KW - Human-Robot Interaction KW - HRI KW - obedience KW - empathy KW - Gefühl KW - Mimik KW - Mensch-Maschine-Kommunikation Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-187131 SN - 978-3-95826-120-4 SN - 978-3-95826-121-1 N1 - Parallel erschienen als Druckausgabe in Würzburg University Press, 978-3-95826-120-4, 27,80 EUR. PB - Würzburg University Press CY - Würzburg ET - 1. Auflage ER - TY - JOUR A1 - Madan, Christopher R. A1 - Bayer, Janine A1 - Gamer, Matthias A1 - Lonsdorf, Tina B. A1 - Sommer, Tobias T1 - Visual Complexity and Affect: Ratings Reflect More Than Meets the Eye JF - Frontiers in Psychology N2 - Pictorial stimuli can vary on many dimensions, several aspects of which are captured by the term ‘visual complexity.’ Visual complexity can be described as, “a picture of a few objects, colors, or structures would be less complex than a very colorful picture of many objects that is composed of several components.” Prior studies have reported a relationship between affect and visual complexity, where complex pictures are rated as more pleasant and arousing. However, a relationship in the opposite direction, an effect of affect on visual complexity, is also possible; emotional arousal and valence are known to influence selective attention and visual processing. In a series of experiments, we found that ratings of visual complexity correlated with affective ratings, and independently also with computational measures of visual complexity. These computational measures did not correlate with affect, suggesting that complexity ratings are separately related to distinct factors. We investigated the relationship between affect and ratings of visual complexity, finding an ‘arousal-complexity bias’ to be a robust phenomenon. Moreover, we found this bias could be attenuated when explicitly indicated but did not correlate with inter-individual difference measures of affective processing, and was largely unrelated to cognitive and eyetracking measures. Taken together, the arousal-complexity bias seems to be caused by a relationship between arousal and visual processing as it has been described for the greater vividness of arousing pictures. The described arousal-complexity bias is also of relevance from an experimental perspective because visual complexity is often considered a variable to control for when using pictorial stimuli. KW - visual complexity KW - affect KW - arousal KW - valence KW - eyetracking KW - emotion Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-190015 SN - 1664-1078 VL - 8 IS - 2368 ER - TY - THES A1 - Likowski, Katja U. T1 - Facial mimicry, valence evaluation or emotional reaction? Mechanisms underlying the modulation of congruent and incongruent facial reactions to emotional facial expressions T1 - Faziale Mimikry, Valenzevaluation oder Emotionale Reaktion? Mechanismen der Modulation kongruenter und inkongruenter fazialer Reaktionen auf emotionale Gesichtsausdrücke N2 - Humans have the tendency to react with congruent facial expressions when looking at an emotional face. Interestingly, recent studies revealed that several situational moderators can modulate strength and direction of these reactions. In current literature, congruent facial reactions to emotional facial expressions are usually described in terms of “facial mimicry” and interpreted as imitative behavior. Thereby, facial mimicry is understood as a process of pure motor resonance resulting from overlapping representations for the perception and the execution of a certain behavior. Motor mimicry, however, is not the only mechanism by which congruent facial reactions can occur. Numerous studies have shown that facial muscles also indicate valence evaluations. Furthermore, facial reactions are also determined by our current emotional state. These thoughts suggest that the modulation of congruent facial reactions to emotional expressions can be based on both motor and affective processes. However, a separation of motor and affective processes in facial reactions is hard to make. None of the published studies that tried that could show a clear involvement of one or the other process so far. Therefore, the aim of the present line of experiments is to shed light on the involvement of motor and affective processes in the modulation of congruent and incongruent facial reactions. Specifically, the experiments are designed to test the assumptions of a working model on mechanisms underlying the modulation of facial reactions and to examine the neuronal correlates involved in such modulations with a broad range of methods. Experiments 1 and 2 experimentally manipulate motor and affective mechanisms by using specific contexts. In the chose settings, motor process models and affective models of valence evaluations make competing predictions about resulting facial reactions. The results of Experiment 1 did not support the involvement of valence evaluations in the modulation of congruent and incongruent facial reactions to facial expressions. The results of Experiments 2a and 2b suggest that emotional reactions are the predominant determinant of facial reactions. Experiment 3 aimed at identifying the psychological mediators that indicate motor and affective mechanisms. Motor mechanisms are assessed via the psychological mediator empathy. Additionally, as a psychological mediator for clarifying the role of affective mechanisms subjective measures of the participants’ current emotional state in response to the presented facial expressions were taken. Mediational analyses show that the modulation of congruent facial reactions can be explained by a decrease of state cognitive empathy. This suggests that motor processes mediate the effects of the context on congruent facial reactions. However, such a mechanism could not be observed for incongruent reactions. Instead, it was found that affective processes in terms of emotional reactions are involved in incongruent facial reactions. Additionally, the involvement of a third class of processes, namely strategic processes, was observed. Experiment 4 aimed at investigating whether a change in the strength of perception can explain the contextual modulation of facial reactions to facial expressions. According to motor process models the strength of perception is directly related to the strength of the spread of activation from perception to the execution of an action and thereby to the strength of the resulting mimicry behavior. The results suggest that motor mechanisms were involved in the modulation of congruent facial reactions by attitudes. Such an involvement of motor mechanisms could, however, not be observed for the modulation of incongruent reactions. In Experiment 5 the investigation of neuronal correlates shall be extended to the observation of involved brain areas via fMRI. The proposed brain areas depicting motor areas were prominent parts of the mirror neuron system. The regions of interest depicting areas involved in the affective processing were amygdala, insula, striatum. Furthermore, it could be shown that changes in the activity of parts of the MNS are related to the modulation of congruent facial reactions. Further on, results revealed the involvement of affective processes in the modulation of incongruent facial reactions. In sum, these results lead to a revised working model on the mechanisms underlying the modulation of facial reactions to emotional facial expressions. The results of the five experiments provide strong support for the involvement of motor mechanisms in congruent facial reactions. No evidence was found for the involvement of motor mechanisms in the occurrence or modulation of incongruent facial reactions. Furthermore, no evidence was found for the involvement of valence evaluations in the modulation of facial reactions. Instead, emotional reactions were found to be involved in the modulation of mainly incongruent facial reactions. N2 - Menschen haben die automatische Tendenz, auf emotionale Gesichtsausdrücke anderer kongruente muskuläre Reaktionen zu zeigen. Solche Reaktionen werden allerdings durch eine Vielzahl situativer Faktoren moduliert. Die dieser Modulation zugrunde liegenden Prozesse sind bisher jedoch kaum erforscht. Die Modulation kongruenter und inkongruenter fazialer Reaktionen wird in der Literatur zu fazialer Mimikry bisher nahezu ausschließlich mit motorischen Resonanzprozessen erklärt. Faziale Reaktionen haben jedoch noch weitere Determinanten. So belegen Studien, dass faziale muskuläre Reaktionen Valenzindikatoren bei der Beurteilung positiver und negativer Stimuli sind. Weiterhin zeigt der Gesichtsausdruck den momentanen emotionalen Zustand an. Dies legt nahe, dass die in der Literatur zu fazialer Mimikry beobachteten Modulationen fazialer Reaktionen auf Gesichtsausdrücke eventuell nicht nur auf rein motorischen Prozessen beruht haben. Vielmehr könnten affektive Prozesse diese Reaktionen beeinflusst haben. Tatsächlich gibt es bisher keine Studie, die das Zusammenspiel motorischer und affektiver Mechanismen bei der Modulation fazialer Reaktionen auf Gesichtsausdrücke näher aufklären konnte. Dies sollte in dieser Arbeit geleistet werden. Genauer gesagt wurde folgende zentrale Fragestellung untersucht: Welche spezifischen psychologischen Mediatoren und neuronalen Korrelate liegen der sozialen Modulation kongruenter und inkongruenter fazialer Reaktionen auf emotionale Gesichtsausdrücke zugrunde? Zur Beantwortung dieser Frage wurde ein Arbeitsmodell aufgestellt und mit einer systematischen Reihe an Experimenten auf Gültigkeit getestet. In Experiment 1 und 2 wurden mittels spezifischer sozialer Kontextinformationen motorische und affektive Mechanismen experimentell manipuliert, um Aussagen über deren Beteiligung an der Modulation kongruenter und inkongruenter fazialer Reaktionen auf emotionale Gesichtsausdrücke machen zu können. Motorische und affektive Prozessmodelle sagten hier jeweils unterschiedliche faziale Reaktionen vorher. Die Ergebnisse von Experiment 1 lieferten keinen Beleg für die Beteiligung affektiver Mechanismen der Valenzevaluation an der Modulation kongruenter und inkongruenter fazialer Reaktionen. Das Ergebnismuster der Experimente 2a und 2b lässt sich einzig mit emotionalen Reaktionen in Form von Mitleid und Mitgefühl erklären. In Experiment 3 wurden motorische und affektive Mechanismen mittels psychischer Variablen gemessen und deren Beteiligung an der Modulation fazialer Reaktionen durch Mediatorenanalysen festgestellt. Die Stärke motorischer Prozesse wurde mittels zweier Empathie-Maße indiziert. Affektive Prozesse wurden mittels subjektiver Angaben über die eigene emotionale Reaktion erfasst. Die Ergebnisse von Experiment 3 zeigen eine Beteiligung motorischer Prozesse an der Modulation kongruenter Reaktionen. Es zeigte sich zudem, dass affektive Prozesse in der Modulation und dem Zustandekommen inkongruenter Reaktionen involviert sind. Hingegen zeigte sich keine Beteiligung affektiver Prozesse an der Modulation kongruenter Reaktionen. Zusätzlich wurde die Beteiligung von strategischen Prozessen gefunden. In Experiment 4 wurden motorische Prozesse mittels EEG direkt auf neuronaler Ebene erfasst. Aus motorischen Prozessmodellen ließ sich die Annahme ableiten, dass die Aufmerksamkeitsstärke, mit der Stärke der Aktivierung der zugehörigen Repräsentationen einhergeht und folglich eine verringerte oder erhöhte Mimikry zur Folge haben sollte. Die Ergebnisse unterstützen die Annahme, dass motorische Mechanismen an der Modulation kongruenter fazialer Reaktionen beteiligt sind. Solch eine Beteiligung konnte jedoch wiederum nicht für die Modulation inkongruenter Reaktionen gezeigt werden. In Experiment 5 erfolgte mittels fMRT die Untersuchung der neuronalen Korrelate der Modulation fazialer Reaktionen. Zur Aufklärung der Beteiligung motorischer Mechanismen sollte der Zusammenhang des Spiegelneuronensystems sowie von Zentren der emotionalen Verarbeitung mit der Modulation fazialer Reaktionen betrachtet werden. Es konnte gezeigt werden, dass Modulationen des Spiegelneuronensytems mit Modulationen kongruenter, aber inkongruenter Reaktionen in Zusammenhang stehen. Dies spricht dafür, dass motorische Prozesse bei der Modulation kongruenter Reaktionen involviert sind. Weiterhin unterstützen die Ergebnisse die Annahme der Beteiligung affektiver Prozesse an der Modulation inkongruenter Reaktionen. Zusammengefasst führen die Ergebnisse zu einer revidierten Form des Arbeitsmodells. Die Experimente unterstützen die Annahme, dass bei der Modulation kongruenter fazialer Reaktionen vorwiegend motorische Prozesse involviert sind. Weiterhin zeigte sich kein Beleg für eine Beteiligung von Prozessen der Valenzevaluation an der Modulation fazialer Reaktionen. Stattdessen wurden zahlreiche Belege dafür gefunden, dass emotionale Reaktionen für das Zustandekommen und die Modulation inkongruenter Reaktionen verantwortlich sind. KW - Gefühl KW - Mimik KW - Nichtverbale Kommunikation KW - Emotionsausdruck KW - nonverbale Kommunikation KW - Valenz KW - Emotion KW - mimicry KW - valence KW - emotion KW - facial expressions KW - nonverbal communication Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-65013 ER -