@phdthesis{Menne2020, author = {Menne, Isabelle M.}, title = {Facing Social Robots - Emotional Reactions towards Social Robots}, edition = {1. Auflage}, publisher = {W{\"u}rzburg University Press}, address = {W{\"u}rzburg}, isbn = {978-3-95826-120-4}, doi = {10.25972/WUP-978-3-95826-121-1}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-187131}, school = {W{\"u}rzburg University Press}, pages = {XXIV, 201}, year = {2020}, abstract = {Ein Army Colonel empfindet Mitleid mit einem Roboter, der versuchsweise Landminen entsch{\"a}rft und deklariert den Test als inhuman (Garreau, 2007). Roboter bekommen milit{\"a}rische Bef{\"o}rderungen, Beerdigungen und Ehrenmedaillen (Garreau, 2007; Carpenter, 2013). Ein Schildkr{\"o}tenroboter wird entwickelt, um Kindern beizubringen, Roboter gut zu behandeln (Ackermann, 2018). Der humanoide Roboter Sophia wurde erst k{\"u}rzlich Saudi-Arabischer Staatsb{\"u}rger und es gibt bereits Debatten, ob Roboter Rechte bekommen sollen (Delcker, 2018). Diese und {\"a}hnliche Entwicklungen zeigen schon jetzt die Bedeutsamkeit von Robotern und die emotionale Wirkung die diese ausl{\"o}sen. Dennoch scheinen sich diese emotionalen Reaktionen auf einer anderen Ebene abzuspielen, gemessen an Kommentaren in Internetforen. Dort ist oftmals die Rede davon, wieso jemand {\"u}berhaupt emotional auf einen Roboter reagieren kann. Tats{\"a}chlich ist es, rein rational gesehen, schwierig zu erkl{\"a}ren, warum Menschen mit einer leblosen (‚mindless') Maschine mitf{\"u}hlen sollten. Und dennoch zeugen nicht nur oben genannte Berichte, sondern auch erste wissenschaftliche Studien (z.B. Rosenthal- von der P{\"u}tten et al., 2013) von dem emotionalen Einfluss den Roboter auf Menschen haben k{\"o}nnen. Trotz der Bedeutsamkeit der Erforschung emotionaler Reaktionen auf Roboter existieren bislang wenige wissenschaftliche Studien hierzu. Tats{\"a}chlich identifizierten Kappas, Krumhuber und K{\"u}ster (2013) die systematische Analyse und Evaluation sozialer Reaktionen auf Roboter als eine der gr{\"o}ßten Herausforderungen der affektiven Mensch-Roboter Interaktion. Nach Scherer (2001; 2005) bestehen Emotionen aus der Koordination und Synchronisation verschiedener Komponenten, die miteinander verkn{\"u}pft sind. Motorischer Ausdruck (Mimik), subjektives Erleben, Handlungstendenzen, physiologische und kognitive Komponenten geh{\"o}ren hierzu. Um eine Emotion vollst{\"a}ndig zu erfassen, m{\"u}ssten all diese Komponenten gemessen werden, jedoch wurde eine solch umfassende Analyse bisher noch nie durchgef{\"u}hrt (Scherer, 2005). Haupts{\"a}chlich werden Frageb{\"o}gen eingesetzt (vgl. Bethel \& Murphy, 2010), die allerdings meist nur das subjektive Erleben abfragen. Bakeman und Gottman (1997) geben sogar an, dass nur etwa 8\% der psychologischen Forschung auf Verhaltensdaten basiert, obwohl die Psychologie traditionell als das ‚Studium von Psyche und Verhalten' (American Psychological Association, 2018) definiert wird. Die Messung anderer Emotionskomponenten ist selten. Zudem sind Frageb{\"o}gen mit einer Reihe von Nachteilen behaftet (Austin, Deary, Gibson, McGregor, Dent, 1998; Fan et al., 2006; Wilcox, 2011). Bethel und Murphy (2010) als auch Arkin und Moshkina (2015) pl{\"a}dieren f{\"u}r einen Multi-Methodenansatz um ein umfassenderes Verst{\"a}ndnis von affektiven Prozessen in der Mensch-Roboter Interaktion zu erlangen. Das Hauptziel der vorliegenden Dissertation ist es daher, mithilfe eines Multi-Methodenansatzes verschiedene Komponenten von Emotionen (motorischer Ausdruck, subjektive Gef{\"u}hlskomponente, Handlungstendenzen) zu erfassen und so zu einem vollst{\"a}ndigeren und tiefgreifenderem Bild emotionaler Prozesse auf Roboter beizutragen. Um dieses Ziel zu erreichen, wurden drei experimentelle Studien mit insgesamt 491 Teilnehmern durchgef{\"u}hrt. Mit unterschiedlichen Ebenen der „apparent reality" (Frijda, 2007) sowie Macht / Kontrolle {\"u}ber die Situation (vgl. Scherer \& Ellgring, 2007) wurde untersucht, inwiefern sich Intensit{\"a}t und Qualit{\"a}t emotionaler Reaktionen auf Roboter {\"a}ndern und welche weiteren Faktoren (Aussehen des Roboters, emotionale Expressivit{\"a}t des Roboters, Behandlung des Roboters, Autorit{\"a}tsstatus des Roboters) Einfluss aus{\"u}ben. Experiment 1 basierte auf Videos, die verschiedene Arten von Robotern (tier{\"a}hnlich, anthropomorph, maschinenartig), die entweder emotional expressiv waren oder nicht (an / aus) in verschiedenen Situationen (freundliche Behandlung des Roboters vs. Misshandlung) zeigten. Frageb{\"o}gen {\"u}ber selbstberichtete Gef{\"u}hle und die motorisch-expressive Komponente von Emotionen: Mimik (vgl. Scherer, 2005) wurden analysiert. Das Facial Action Coding System (Ekman, Friesen, \& Hager, 2002), die umfassendste und am weitesten verbreitete Methode zur objektiven Untersuchung von Mimik, wurde hierf{\"u}r verwendet. Die Ergebnisse zeigten, dass die Probanden Gesichtsausdr{\"u}cke (Action Unit [AU] 12 und AUs, die mit positiven Emotionen assoziiert sind, sowie AU 4 und AUs, die mit negativen Emotionen assoziiert sind) sowie selbstberichtete Gef{\"u}hle in {\"U}bereinstimmung mit der Valenz der in den Videos gezeigten Behandlung zeigten. Bei emotional expressiven Robotern konnten st{\"a}rkere emotionale Reaktionen beobachtet werden als bei nicht-expressiven Robotern. Der tier{\"a}hnliche Roboter Pleo erfuhr in der Misshandlungs-Bedingung am meisten Mitleid, Empathie, negative Gef{\"u}hle und Traurigkeit, gefolgt vom anthropomorphen Roboter Reeti und am wenigsten f{\"u}r den maschinenartigen Roboter Roomba. Roomba wurde am meisten Antipathie zugeschrieben. Die Ergebnisse kn{\"u}pfen an fr{\"u}here Forschungen an (z.B. Krach et al., 2008; Menne \& Schwab, 2018; Riek et al., 2009; Rosenthal-von der P{\"u}tten et al., 2013) und zeigen das Potenzial der Mimik f{\"u}r eine nat{\"u}rliche Mensch-Roboter Interaktion. Experiment 2 und Experiment 3 {\"u}bertrugen die klassischen Experimente von Milgram (1963; 1974) zum Thema Gehorsam in den Kontext der Mensch-Roboter Interaktion. Die Gehorsamkeitsstudien von Milgram wurden als sehr geeignet erachtet, um das Ausmaß der Empathie gegen{\"u}ber einem Roboter im Verh{\"a}ltnis zum Gehorsam gegen{\"u}ber einem Roboter zu untersuchen. Experiment 2 unterschied sich von Experiment 3 in der Ebene der „apparent reality" (Frijda, 2007): in Anlehnung an Milgram (1963) wurde eine rein text-basierte Studie (Experiment 2) einer live Mensch-Roboter Interaktion (Experiment 3) gegen{\"u}bergestellt. W{\"a}hrend die abh{\"a}ngigen Variablen von Experiment 2 aus den Selbstberichten emotionaler Gef{\"u}hle sowie Einsch{\"a}tzungen des hypothetischen Verhaltens bestand, erfasste Experiment 3 subjektive Gef{\"u}hle sowie reales Verhalten (Reaktionszeit: Dauer des Z{\"o}gerns; Gehorsamkeitsrate; Anzahl der Proteste; Mimik) der Teilnehmer. Beide Experimente untersuchten den Einfluss der Faktoren „Autorit{\"a}tsstatus" (hoch / niedrig) des Roboters, der die Befehle erteilt (Nao) und die emotionale Expressivit{\"a}t (an / aus) des Roboters, der die Strafen erh{\"a}lt (Pleo). Die subjektiven Gef{\"u}hle der Teilnehmer aus Experiment 2 unterschieden sich zwischen den Gruppen nicht. Dar{\"u}ber hinaus gaben nur wenige Teilnehmer (20.2\%) an, dass sie den „Opfer"-Roboter definitiv bestrafen w{\"u}rden. Ein {\"a}hnliches Ergebnis fand auch Milgram (1963). Das reale Verhalten von Versuchsteilnehmern in Milgrams' Labor-Experiment unterschied sich jedoch von Einsch{\"a}tzungen hypothetischen Verhaltens von Teilnehmern, denen Milgram das Experiment nur beschrieben hatte. Ebenso lassen Kommentare von Teilnehmern aus Experiment 2 darauf schließen, dass das beschriebene Szenario m{\"o}glicherweise als fiktiv eingestuft wurde und Einsch{\"a}tzungen von hypothetischem Verhalten daher kein realistisches Bild realen Verhaltens gegen{\"u}ber Roboter in einer live Interaktion zeichnen k{\"o}nnen. Daher wurde ein weiteres Experiment (Experiment 3) mit einer Live Interaktion mit einem Roboter als Autorit{\"a}tsfigur (hoher Autorit{\"a}tsstatus vs. niedriger) und einem weiteren Roboter als „Opfer" (emotional expressiv vs. nicht expressiv) durchgef{\"u}hrt. Es wurden Gruppenunterschiede in Frageb{\"o}gen {\"u}ber emotionale Reaktionen gefunden. Dem emotional expressiven Roboter wurde mehr Empathie entgegengebracht und es wurde mehr Freude und weniger Antipathie berichtet als gegen{\"u}ber einem nicht-expressiven Roboter. Außerdem konnten Gesichtsausdr{\"u}cke beobachtet werden, die mit negativen Emotionen assoziiert sind w{\"a}hrend Probanden Nao's Befehl ausf{\"u}hrten und Pleo bestraften. Obwohl Probanden tendenziell l{\"a}nger z{\"o}gerten, wenn sie einen emotional expressiven Roboter bestrafen sollten und der Befehl von einem Roboter mit niedrigem Autorit{\"a}tsstatus kam, wurde dieser Unterschied nicht signifikant. Zudem waren alle bis auf einen Probanden gehorsam und bestraften Pleo, wie vom Nao Roboter befohlen. Dieses Ergebnis steht in starkem Gegensatz zu dem selbstberichteten hypothetischen Verhalten der Teilnehmer aus Experiment 2 und unterst{\"u}tzt die Annahme, dass die Einsch{\"a}tzungen von hypothetischem Verhalten in einem Mensch-Roboter-Gehorsamkeitsszenario nicht zuverl{\"a}ssig sind f{\"u}r echtes Verhalten in einer live Mensch-Roboter Interaktion. Situative Variablen, wie z.B. der Gehorsam gegen{\"u}ber Autorit{\"a}ten, sogar gegen{\"u}ber einem Roboter, scheinen st{\"a}rker zu sein als Empathie f{\"u}r einen Roboter. Dieser Befund kn{\"u}pft an andere Studien an (z.B. Bartneck \& Hu, 2008; Geiskkovitch et al., 2016; Menne, 2017; Slater et al., 2006), er{\"o}ffnet neue Erkenntnisse zum Einfluss von Robotern, zeigt aber auch auf, dass die Wahl einer Methode um Empathie f{\"u}r einen Roboter zu evozieren eine nicht triviale Angelegenheit ist (vgl. Geiskkovitch et al., 2016; vgl. Milgram, 1965). Insgesamt st{\"u}tzen die Ergebnisse die Annahme, dass die emotionalen Reaktionen auf Roboter tiefgreifend sind und sich sowohl auf der subjektiven Ebene als auch in der motorischen Komponente zeigen. Menschen reagieren emotional auf einen Roboter, der emotional expressiv ist und eher weniger wie eine Maschine aussieht. Sie empfinden Empathie und negative Gef{\"u}hle, wenn ein Roboter misshandelt wird und diese emotionalen Reaktionen spiegeln sich in der Mimik. Dar{\"u}ber hinaus unterscheiden sich die Einsch{\"a}tzungen von Menschen {\"u}ber ihr eigenes hypothetisches Verhalten von ihrem tats{\"a}chlichen Verhalten, weshalb videobasierte oder live Interaktionen zur Analyse realer Verhaltensreaktionen empfohlen wird. Die Ankunft sozialer Roboter in der Gesellschaft f{\"u}hrt zu nie dagewesenen Fragen und diese Dissertation liefert einen ersten Schritt zum Verst{\"a}ndnis dieser neuen Herausforderungen.}, subject = {Roboter}, language = {en} } @phdthesis{Seger2021, author = {Seger, Benedikt Thomas}, title = {Children's Comprehension of Illustrated Narrative Text: The Role of Tripartite Representations and Perceptual Simulation}, doi = {10.25972/OPUS-24228}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-242280}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2021}, abstract = {This doctoral thesis is part of a research project on the development of the cognitive compre-hension of film at W{\"u}rzburg University that was funded by the German Research Foundation (Deutsche Forschungsgemeinschaft) between 2013 and 2019 and awarded to Gerhild Nied-ing. That project examined children's comprehension of narrative text and its development in illustrated versus non-illustrated formats. For this purpose, van Dijk and Kintsch's (1983) tri-partite model was used, according to which text recipients form text surface and textbase rep-resentations and construct a situation model. In particular, predictions referring to the influ-ence of illustrations on these three levels of text representation were derived from the inte-grated model of text and picture comprehension (ITPC; Schnotz, 2014), which holds that text-picture units are processed on both text-based (descriptive) and picture-based (depictive) paths. Accordingly, illustrations support the construction of a situation model. Moreover, in line with the embodied cognition account (e.g., Barsalou, 1999), it was assumed that the situa-tion model is grounded in perception and action; text recipients mentally simulate the situation addressed in the text through their neural systems related to perception (perceptual simulation) and action (motor resonance). Therefore, the thesis also examines whether perceptual simula-tion takes place during story reception, whether it improves the comprehension of illustrated stories, and whether motor resonance is related to the comprehension of text accompanied by dynamic illustrations. Finally, predictions concerning the development of comprehending illus-trated text were made in line with Springer's (2001) hypotheses according to which younger children, compared with older children and adults, focus more on illustrations during text comprehension (perceptual boundedness) and use illustrations for the development of cogni-tive skills (perceptual support). The first research question sought to validate the tripartite model in the context of children's comprehension of narrative text, so Hypothesis 1 predicted that children yield representations of the text surface, the textbase, and the situation model during text reception. The second research question comprised the assumptions regarding the impact of illustrations on text comprehension. Accordingly, it was expected that illustrations improve the situation model (Hypothesis 2a), especially when they are processed before their corresponding text passages (Hypothesis 2b). Both hypotheses were derived from the ITPC and the assumption that per-ceptual simulation supports the situation model. It was further predicted that dynamic illustra-tions evoke more accurate situation models than static ones (Hypothesis 2c); this followed from the assumption that motor resonance supports the situation model. In line with the ITPC, it was assumed that illustrations impair the textbase (Hypothesis 2d), especially when they are presented after their corresponding text passages (Hypothesis 2e). In accordance with earlier results, it was posited that illustrations have a beneficial effect for the text surface (Hypothesis 2f). The third research question addressed the embodied approach to the situation model. Here, it was assumed that perceptual simulation takes place during text reception (Hypothesis 3a) and that it is more pronounced in illustrated than in non-illustrated text (Hypothesis 3b); the latter hypothesis was related to a necessary premise of the assumption that perceptual sim-ulation improves the comprehension of illustrated text. The fourth research question was relat-ed to perceptual boundedness and perceptual support and predicted age-related differences; younger children were expected to benefit more from illustrations regarding the situation model (Hypothesis 4a) and to simulate vertical object movements in a more pronounced fash-ion (Hypothesis 4b) than older children. In addition, Hypothesis 4c held that perceptual simu-lation is more pronounced in younger children particularly when illustrations are present. Three experiments were conducted to investigate these hypotheses. Experiment 1 (Seger, Wannagat, \& Nieding, submitted).compared the tripartite representations of written text without illustrations, with illustrations presented first, and with illustrations presented after their corresponding sentences. Students between 7 and 13 years old (N = 146) took part. Ex-periment 2 (Seger, Wannagat, \& Nieding, 2019) investigated the tripartite representations of auditory text, audiovisual text with static illustrations, and audiovisual text with dynamic il-lustrations among children in the same age range (N = 108). In both experiments, a sentence recognition method similar to that introduced by Schmalhofer and Glavanov (1986) was em-ployed. This method enables the simultaneous measurement of all three text representations. Experiment 3 (Seger, Hauf, \& Nieding, 2020) determined the perceptual simulation of vertical object movements during the reception of auditory and audiovisual narrative text among chil-dren between 5 and 11 years old and among adults (N = 190). For this experiment, a picture verification task based on Stanfield and Zwaan's (2001) paradigm and adapted from Hauf (2016) was used. The first two experiments confirmed Hypothesis 1, indicating that the tripartite model is appli-cable to the comprehension of auditory and written narrative text among children. A benefi-cial effect of illustrations to the situation model was observed when they were presented syn-chronously with auditory text (Hypotheses 2a), but not when presented asynchronously with written text (Hypothesis 2b), so the ITPC is partly supported on this point. Hypothesis 2c was rejected, indicating that motor resonance does not make an additional contribution to the comprehension of narrative text with dynamic illustrations. Regarding the textbase, a general negative effect of illustrations was not observed (Hypothesis 2d), but a specific negative effect of illustrations that follow their corresponding text passages was seen (Hypothesis 2e); the latter result is also in line with the ITPC. The text surface (Hypothesis 2f) appears to benefit from illustrations in auditory but not written text. The results obtained in Experiment 3 sug-gest that children and adults perceptually simulate vertical object movements (Hypothesis 3a), but there appears to be no difference between auditory and audiovisual text (Hypothesis 3b), so there is no support for a functional relationship between perceptual simulation and the situ-ation model in illustrated text. Hypotheses 4a-4c were investigated in all three experiments and did not receive support in any of them, which indicates that representations of illustrated and non-illustrated narrative text remain stable within the age range examined here.}, subject = {Textverstehen}, language = {en} } @phdthesis{Marker2020, author = {Marker, Caroline}, title = {On a meta-level: Contributions of meta-analytic summaries in media psychological research}, doi = {10.25972/OPUS-20917}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-209173}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2020}, abstract = {The rising use of new media has given rise to public discussions about their possible negative consequences. The social sciences have answered these concerns, providing many studies investigating different media types (e.g., social media, video games) and different related variables (e.g., psychological well-being, academic achievement). Within this big body of research, some research results have confirmed negative associations with frequent media use; other studies have found no or even positive relationships. With heterogeneous results, it is difficult to obtain a clear picture of the relationships and causalities of new media. The method of meta-analysis allows a synthesis of all existing data, providing an overall effect size as well as moderator and mediator analyses which might explain the heterogeneity. Three manuscripts present meta-analytic evidence related to a) the relationship between social media use and academic achievement, b) the relationship between video gaming and overweight, and c) the relationship between social media and psychological correlates. Manuscript \#1 found small relationships which depend on the usage pattern of social media. The relationship is positive, as long as social media use is related to school. Manuscript \#2 showed that children's and adolescents' video gaming is independent from their body mass, while adults who play more have a higher body mass. Manuscript \#3 summarized existing meta-analytic evidence that links social media with psychological wellbeing, academic achievement, and narcissism with small to moderate effect sizes. All three manuscripts underscore the potential of meta-analyses to synthesize previous research and to identify moderators. Although meta-analyses are not necessarily superior to other approaches because of their limitations (e.g. limited information or quality of primary studies) they are very promising for media psychology. Meta-analyses can reduce complexity and might be helpful for the communication of research results to the general public.}, subject = {Medienkonsum}, language = {en} }