TY - THES A1 - Wandtner, Bernhard T1 - Non-driving related tasks in highly automated driving - Effects of task characteristics and drivers' self-regulation on take-over performance T1 - Fahrfremde Tätigkeiten beim hochautomatisierten Fahren - Einfluss des Aufgabentyps und der Selbstregulation auf die Übernahmeleistung N2 - The rise of automated driving will fundamentally change our mobility in the near future. This thesis specifically considers the stage of so called highly automated driving (Level 3, SAE International, 2014). At this level, a system carries out vehicle guidance in specific application areas, e.g. on highway roads. The driver can temporarily suspend from monitoring the driving task and might use the time by engaging in so called non-driving related tasks (NDR-tasks). However, the driver is still in charge to resume vehicle control when prompted by the system. This new role of the driver has to be critically examined from a human factors perspective. The main aim of this thesis was to systematically investigate the impact of different NDR-tasks on driver behavior and take-over performance. Wickens’ (2008) architecture of multiple resource theory was chosen as theoretical framework, with the building blocks of multiplicity (task interference due to resource overlap), mental workload (task demands), and aspects of executive control or self-regulation. Specific adaptations and extensions of the theory were discussed to account for the context of NDR-task interactions in highly automated driving. Overall four driving simulator studies were carried out to investigate the role of these theoretical components. Study 1 showed that drivers focused NDR-task engagement on sections of highly automated compared to manual driving. In addition, drivers avoided task engagement prior to predictable take-over situations. These results indicate that self-regulatory behavior, as reported for manual driving, also takes place in the context of highly automated driving. Study 2 specifically addressed the impact of NDR-tasks’ stimulus and response modalities on take-over performance. Results showed that particularly visual-manual tasks with high motoric load (including the need to get rid of a handheld object) had detrimental effects. However, drivers seemed to be aware of task specific distraction in take-over situations and strictly canceled visual-manual tasks compared to a low impairing auditory-vocal task. Study 3 revealed that also the mental demand of NDR-tasks should be considered for drivers’ take-over performance. Finally, different human-machine-interfaces were developed and evaluated in Simulator Study 4. Concepts including an explicit pre-alert (“notification”) clearly supported drivers’ self-regulation and achieved high usability and acceptance ratings. Overall, this thesis indicates that the architecture of multiple resource theory provides a useful framework for research in this field. Practical implications arise regarding the potential legal regulation of NDR-tasks as well as the design of elaborated human-machine-interfaces. N2 - In den nächsten Jahren wird die Fahrzeugautomatisierung stufenweise immer weiter zunehmen. Im Fokus dieser Arbeit steht das Hochautomatisierte Fahren (HAF), bei dem ein System in definierten Anwendungsbereichen, z.B. auf Autobahnen, die Fahraufgabe vollständig übernehmen kann (Level 3; SAE International, 2014). Der Fahrer muss das Verkehrsgeschehen nicht mehr überwachen, jedoch bereit sein, nach Aufforderung durch das System die Fahraufgabe wieder zu übernehmen. Bisherige Forschung legt nahe, dass Fahrer die freigewordene Zeit oftmals zur Beschäftigung mit sog. fahrfremden Tätigkeiten (FFTs) nutzen werden. Die vorliegende Arbeit beschäftigt sich mit den Herausforderungen, die diese neue Rolle des Fahrers mit sich bringt. Der Fokus liegt auf dem Einfluss unterschiedlicher FFTs auf die Übernahmeleistung und der Frage, inwieweit Fahrer den Umgang mit FFTs an die situativen Bedingungen anpassen. Die Theorie der multiplen Ressourcen (Wickens, 2008) wurde dabei als Rahmenmodell gewählt und für den spezifischen Anwendungsfall von HAF-Systemen ausgelegt. In vier Fahrsimulatorstudien wurden die unterschiedlichen Komponenten der Theorie untersucht. Studie 1 beschäftigte sich mit dem Aspekt der Ressourcenallokation (Selbstregulation). Die Ergebnisse zeigten, dass Fahrer die Beschäftigung mit einer prototypischen FFT an die Verfügbarkeit des HAF-Systems anpassten. Die Tätigkeit wurde bevorzugt im HAF und nicht im manuellen Fahrbetrieb durchgeführt und vor Übernahmesituationen wurden weniger Aufgaben neu begonnen. Studie 2 betrachtete den Aspekt der Interferenz zwischen FFT und Fahraufgabe. Die Modalitäten einer FFT wurden dazu systematisch variiert. Dabei zeigte sich, dass insbesondere visuell-manuelle Tätigkeiten mit hoher motorischer Beanspruchung (z.B. ein in der Hand gehaltenes Tablet) die Übernahme erschwerten. Fahrer schienen sich der Ablenkung bewusst zu sein und brachen diese Art von Aufgaben bei der Übernahme eher ab. Studie 3 ergab Hinweise, dass neben den Aufgabenmodalitäten auch kognitive Beanspruchung die Übernahmeleistung beeinträchtigen kann. Studie 4 beschäftigte sich mit der Mensch-Maschine-Schnittstelle (HMI) für HAF-Systeme. Die Ergebnisse ergaben, dass eine explizite Vorankündigung von Übernahmesituationen die Selbstregulation des Fahrers unterstützen kann. Die Arbeit zeigt die Eignung der multiplen Ressourcentheorie als Rahmenmodell für Forschung im Bereich HAF. Praktische Implikationen ergeben sich für mögliche gesetzliche Regelungen über erlaubte Tätigkeiten beim HAF, genauso wie konkrete HMI-Gestaltungsempfehlungen. KW - Autonomes Fahrzeug KW - Fahrerverhalten KW - automated driving KW - human-automation interaction KW - driver behavior KW - driver distraction KW - Automatisiertes Fahren KW - Mensch-Maschine-Interaktion KW - Fahrerablenkung KW - Automation KW - Verkehrspsychologie KW - Mensch-Maschine-Kommunikation Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-173956 ER - TY - THES A1 - Tscharn, Robert T1 - Innovative And Age-Inclusive Interaction Design with Image-Schematic Metaphors T1 - Innovatives und Alters-Inklusives Interaktionsdesign mit Image-Schematischen Metaphern N2 - The field of human-computer interaction (HCI) strives for innovative user interfaces. Innovative and novel user interfaces are a challenge for a growing population of older users and endanger older adults to be excluded from an increasingly digital world. This is because older adults often have lower cognitive abilities and little prior experiences with technology. This thesis aims at resolving the tension between innovation and age-inclusiveness by developing user interfaces that can be used regardless of cognitive abilities and technology-dependent prior knowledge. The method of image-schematic metaphors holds promises for innovative and age-inclusive interaction design. Image-schematic metaphors represent a form of technology-independent prior knowledge. They reveal basic mental models and can be gathered in language (e.g. bank account is container from "I put money into my bank account"). Based on a discussion of previous applications of image-schematic metaphors in HCI, the present work derives three empirical research questions regarding image-schematic metaphors for innovative and age-inclusive interaction design. The first research question addresses the yet untested assumption that younger and older adults overlap in their technology-independent prior knowledge and, therefore, their usage of image-schematic metaphors. In study 1, a total of 41 participants described abstract concepts from the domains of online banking and everyday life. In study 2, ten contextual interviews were conducted. In both studies, younger and older adults showed a substantial overlap of 70% to 75%, indicating that also their mental models overlap substantially. The second research question addresses the applicability and potential of image-schematic metaphors for innovative design from the perspective of designers. In study 3, 18 student design teams completed an ideation process with either an affinity diagram as the industry standard, image-schematic metaphors or both methods in combination and created paper prototypes. The image-schematic metaphor method alone, but not the combination of both methods, was readily adopted and applied just as a well as the more familiar standard method. In study 4, professional interaction designers created prototypes either with or without image-schematic metaphors. In both studies, the method of image-schematic metaphors was perceived as applicable and creativity stimulating. The third research question addresses whether designs that explicitly follow image-schematic metaphors are more innovative and age-inclusive regarding differences in cognitive abilities and prior technological knowledge. In two experimental studies (study 5 and 6) involving a total of 54 younger and 53 older adults, prototypes that were designed with image-schematic metaphors were perceived as more innovative compared to those who were designed without image-schematic metaphors. Moreover, the impact of prior technological knowledge on interaction was reduced for prototypes that had been designed with image-schematic metaphors. However, participants' cognitive abilities and age still influenced the interaction significantly. The present work provides empirical as well as methodological findings that can help to promote the method of image-schematic metaphors in interaction design. As a result of these studies it can be concluded that the image-schematic metaphors are an applicable and effective method for innovative user interfaces that can be used regardless of prior technological knowledge. N2 - Innovative Benutzungsoberflächen sind eines der Hauptziele der Mensch-Computer Interaktion. Diese neuartigen Benutzungsoberflächen sind eine Herausforderung gerade für ältere Benutzer und drohen diese aus der immer digitaleren Welt auszuschließen. Hierbei spielen abnehmende kognitive Fähigkeiten und eine geringere Vorerfahrung mit Technologie eine wichtige Rolle. Diese Arbeit zielt darauf ab, die Spannung zwischen Innovation und Alters-Inklusivität zu verringern und Benutzungsoberflächen zu entwickeln, die unabhängig von kognitiven Fähigkeiten und technologieabhängigem Vorwissen benutzt werden können. Die Methode der image-schematischen Metaphern verspricht innovative und zugleich alters-inklusives Interaktionsdesign. Image-schematische Metaphern stellen eine technologieunabhängige Form von Vorwissen dar. Sie offenbaren grundlegende mentale Modelle und können aus metaphorischer Sprache extrahiert werden (z.B. Bankkonto ist Container ausgehend von "Geld ein}zahlen). Die vorliegende Arbeit leitet aus vorangegangen Anwendung von image-schematischen Metaphern im Bereich der Mensch-Computer Interaktion drei empirische Forschungsfragen mit dem Fokus auf innovatives und alters-inklusives Interaktionsdesign ab. Die erste Forschungsfrage behandelt die bisher ungetestete Annahme, dass junge und ältere Menschen in ihrem technologieunabhängigem Vorwissen und damit auch im Gebrauch image-schematischer Metaphern übereinstimmen. In Studie 1 beschrieben 41 Probanden abstrakte Konzepte in den Bereichen Online Banking und Alltag. In Studie 2 wurden zehn kontextuelle Interviews durchgeführt. In beiden Studien wurde eine Übereinstimmung zwischen 70% und 75% gefunden, was auf eine substantielle Übereinstimmung der mentalen Modelle hinweist. Die zweite Forschungsfrage zielte auf die Anwendbarkeit und das Potential image-schematischer Metaphern für innovatives Design aus der Perspektive von Designern ab. In Studie 3 durchliefen 18 studentische Designteams einen Ideenfindungsprozess mit Prototypenerstellung, der entweder auf einem Affinity Diagramm als Industriestandard, image-schematischen Metaphern oder beiden Ansätzen in Kombination basierte. Die Methode der image-schematischen Metaphern, aber nicht die Kombination beider Methoden, war ebenso leicht anwendbar wie die bekanntere Standardmethode. In Studie 4 erstellten professionelle Interaktionsdesigner Prototypen mit oder ohne image-schematische Metaphern. In beiden Studien wurde die neue Methode als leicht anwendbar und die Kreativität stimulierend wahrgenommen. Die dritte Forschungsfrage ging der Frage nach, ob Prototypen, die explizit auf image-schematischen Metaphern basieren, tatsächlich innovativer wahrgenommen werden und alters-inklusiver bezüglich kognitiver Fähigkeiten und Technologievorwissen sind. In zwei experimentellen Studien (Studie 5 und 6) mit insgesamt 54 jüngeren und 53 älteren Menschen wurden Prototypen, die mit image-schematischen Metaphern entwickelt worden waren, als innovativer wahrgenommen als solche, die nicht explizit mit der neuen Methode entwickelt worden waren. Zudem war der Einfluss von Technologievorwissen auf die Interaktion geringer für Prototypen, die mit image-schematischen Metaphern erstellt worden waren. Der Einfluss von kognitiven Fähigkeiten und Alter auf die Interaktion blieb jedoch signifikant. Die vorliegende Arbeit liefert sowohl in empirischer als auch methodischer Hinsicht einen Beitrag zur Weiterentwicklung der Methode der image-schematischen Metaphern im Interaktionsdesign. Als Ergebnis dieser Arbeit lässt sich festhalten, dass image-schematische Metaphern eine leicht anwendbare und effektive Methode darstellen, um innovative Benutzungsoberflächen zu entwickeln, die unabhängig von Technologievorwissen benutzt werden können. KW - Mensch-Maschine-Kommunikation KW - Innovation KW - Human-Computer Interaction KW - Innovation KW - Experimental Studies KW - Interaction Design KW - Methodology KW - Benutzeroberfläche Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-175762 ER - TY - THES A1 - Schneider, Florian Alexander T1 - Voice Assistants are Social Actors – An Empirical Analysis of Media Equation Effects in Human-Voice Assistant Interaction T1 - Sprachassistenten als soziale Akteure - Eine empirische Untersuchung von Media Equation Effekten in der Mensch-Sprachassistenten Interaktion N2 - Ownership and usage of personal voice assistant devices like Amazon Echo or Google Home have increased drastically over the last decade since their market launch. This thesis builds upon existing computers are social actors (CASA) and media equation research that is concerned with humans displaying social reactions usually exclusive to human-human interaction when interacting with media and technological devices. CASA research has been conducted with a variety of technological devices such as desktop computers, smartphones, embodied virtual agents, and robots. However, despite their increasing popularity, little empirical work has been done to examine social reactions towards these personal stand-alone voice assistant devices, also referred to as smart speakers. Thus, this dissertation aims to adopt the CASA approach to empirically evaluate social responses to smart speakers. With this goal in mind, four laboratory experiments with a total of 407 participants have been conducted for this thesis. Results show that participants display a wide range of social reactions when interacting with voice assistants. This includes the utilization of politeness strategies such as the interviewer-bias, which led to participants giving better evaluations directly to a smart speaker device compared to a separate computer. Participants also displayed prosocial behavior toward a smart speaker after interdependence and thus a team affiliation had been induced. In a third study, participants applied gender stereotypes to a smart speaker not only in self-reports but also exhibited conformal behavior patterns based on the voice the device used. In a fourth and final study, participants followed the rule of reciprocity and provided help to a smart speaker device that helped them in a prior interaction. This effect was also moderated by subjects’ personalities, indicating that individual differences are relevant for CASA research. Consequently, this thesis provides strong empirical support for a voice assistants are social actors paradigm. This doctoral dissertation demonstrates the power and utility of this research paradigm for media psychological research and shows how considering voice assistant devices as social actors lead to a more profound understanding of voice-based technology. The findings discussed in this thesis also have implications for these devices that need to be carefully considered both in future research as well as in practical design. N2 - Die Verbreitung und Nutzung von persönlichen Sprachassistenten wie Amazon Echo oder Google Home haben seit deren Veröffentlichung im Laufe des letzten Jahrzehnts stark zugenommen. Diese Thesis baut auf existierender computers are social actors (CASA) und media equation Forschung auf, die sich mit sozialen Reaktionen auf Medien und technologische Geräte befasst, die normalerweise nur in der Mensch-Mensch Interaktion auftreten. CASA Forschung wurde bereits zu einer Bandbreite an technologischen Geräten durchgeführt, darunter Desktopcomputer, Smartphones, virtuelle Agenten und Roboter. Trotz ihrer zunehmenden Popularität wurde bisher wenig empirische Forschung zu sozialen Reaktionen auf Geräte wie die genannten Sprachassistenten, auch Smart Speaker genannt, durchgeführt. Deshalb ist es das Ziel dieser Dissertation, soziale Reaktionen auf Smart Speaker basierend auf dem CASA Ansatz empirisch zu evaluieren. Zu diesem Zweck wurden im Rahmen dieser Thesis vier Laborexperimente mit insgesamt 407 TeilnehmerInnen durchgeführt. Die Ergebnisse machen deutlich, dass Nutzer eine Bandbreite an sozialen Reaktionen in der Interaktion mit Sprachassistenten zeigen. Darunter die Verwendung von Höflichkeitsstrategien wie des Interviewer-Bias, was zu besseren Bewertungen eines Smart Speakers geführt hat, wenn dieser direkt am Gerät selbst bewertet wurde. Im Vergleich dazu fielen Bewertungen, die an einem separaten Computer abgegeben wurden, schlechter aus. Die TeilnehmerInnen zeigten außerdem prosoziales Verhalten gegenüber einem Sprachassistenten, nachdem eine Interdependenz und Teamzugehörigkeit induziert wurde. In einer dritten Studie wandten die TeilnehmerInnen Geschlechterstereotype auf Sprachassistenten an, basierend nur auf der Stimme, die das Gerät in der Interaktion verwendet hatte. Dies zeige sich sowohl in einer Bewertung des Geräts als auch durch konforme Verhaltensmuster. In einer vierten und letzten Studie zeigten die TeilnehmerInnen reziprokes Verhalten und halfen einem Smart Speaker Gerät, das ihnen zuvor bereits geholfen hatte. Dieser Effekt wurde außerdem durch die Persönlichkeit der TeilnehmerInnen moderiert, was ein starkes Indiz dafür liefert, dass individuelle Unterschiede relevant für die CASA Forschung sind. Folglich liefert diese Dissertation starke empirische Belege für ein voice assistants are social actors Paradigma. Sie demonstriert die Nützlichkeit dieses Paradigmas für medienpsychologische Forschung und wie die Betrachtung von Smart Speaker Geräten als soziale Akteure zu einem vertieften Verständnis von sprachbasierten Technologien führen kann. Die Ergebnisse, die in dieser Dissertation diskutiert werden, haben Implikationen sowohl für zukünftige Forschung als auch für das praktische Design von Sprachassistenten. KW - Mensch-Maschine-Kommunikation KW - Media Equation KW - Voice Assistants KW - Human-Computer-Interaction Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-346704 ER - TY - THES A1 - Roth, Daniel T1 - Intrapersonal, Interpersonal, and Hybrid Interactions in Virtual Reality T1 - Intrapersonelle, Interpersonelle und Hybride Interaktionen in Virtual Reality N2 - Virtual reality and related media and communication technologies have a growing impact on professional application fields and our daily life. Virtual environments have the potential to change the way we perceive ourselves and how we interact with others. In comparison to other technologies, virtual reality allows for the convincing display of a virtual self-representation, an avatar, to oneself and also to others. This is referred to as user embodiment. Avatars can be of varying realism and abstraction in their appearance and in the behaviors they convey. Such userembodying interfaces, in turn, can impact the perception of the self as well as the perception of interactions. For researchers, designers, and developers it is of particular interest to understand these perceptual impacts, to apply them to therapy, assistive applications, social platforms, or games, for example. The present thesis investigates and relates these impacts with regard to three areas: intrapersonal effects, interpersonal effects, and effects of social augmentations provided by the simulation. With regard to intrapersonal effects, we specifically explore which simulation properties impact the illusion of owning and controlling a virtual body, as well as a perceived change in body schema. Our studies lead to the construction of an instrument to measure these dimensions and our results indicate that these dimensions are especially affected by the level of immersion, the simulation latency, as well as the level of personalization of the avatar. With regard to interpersonal effects we compare physical and user-embodied social interactions, as well as different degrees of freedom in the replication of nonverbal behavior. Our results suggest that functional levels of interaction are maintained, whereas aspects of presence can be affected by avatar-mediated interactions, and collaborative motor coordination can be disturbed by immersive simulations. Social interaction is composed of many unknown symbols and harmonic patterns that define our understanding and interpersonal rapport. For successful virtual social interactions, a mere replication of physical world behaviors to virtual environments may seem feasible. However, the potential of mediated social interactions goes beyond this mere replication. In a third vein of research, we propose and evaluate alternative concepts on how computers can be used to actively engage in mediating social interactions, namely hybrid avatar-agent technologies. Specifically, we investigated the possibilities to augment social behaviors by modifying and transforming user input according to social phenomena and behavior, such as nonverbal mimicry, directed gaze, joint attention, and grouping. Based on our results we argue that such technologies could be beneficial for computer-mediated social interactions such as to compensate for lacking sensory input and disturbances in data transmission or to increase aspects of social presence by visual substitution or amplification of social behaviors. Based on related work and presented findings, the present thesis proposes the perspective of considering computers as social mediators. Concluding from prototypes and empirical studies, the potential of technology to be an active mediator of social perception with regard to the perception of the self, as well as the perception of social interactions may benefit our society by enabling further methods for diagnosis, treatment, and training, as well as the inclusion of individuals with social disorders. To this regard, we discuss implications for our society and ethical aspects. This thesis extends previous empirical work and further presents novel instruments, concepts, and implications to open up new perspectives for the development of virtual reality, mixed reality, and augmented reality applications. N2 - Virtual Reality und weitere Medien- und Kommunikationstechnologien haben einen wachsenden Einfluss auf professionelle Anwendungsbereiche und unseren Alltag. Virtuelle Umgebungen haben das Potenzial, Einfluss darauf zu nehmen, wie Mensche sich selbst wahrnehmen und wie sie mit anderen umgehen. Im Vergleich zu anderen Technologien ermöglicht Virtual Reality die überzeugende Visualisierung einer virtuellen Selbstdarstellung, eines Avatars, sichtbar für den Nutzer/die Nutzerin selbst aber auch für andere. Dies bezeichnet man als Nutzerverk¨orperung. Avatare können von unterschiedlichem Realismus und Abstraktion in Bezug auf ihr Aussehen sowie der Darstellung von Verhaltensweisen geprägt sein. Solche nutzerverkörpernde Schnittstellen wiederum können die Wahrnehmung des Selbst sowie die Wahrnehmung von Interaktionen beeinflussen. Für Forscher/-innen, Designer/-innen und Entwickler/-innen ist es von besonderem Interesse, diese Wahrnehmungseffekte zu verstehen, um sie beispielsweise auf Therapie, assistive Anwendungen, soziale Plattformen oder Spiele anzuwenden. Die vorliegende Arbeit untersucht und bezieht sich auf diese Auswirkungen in drei Bereichen: intrapersonelle Effekte, zwischenmenschliche Effekte sowie Effekte durch soziale Augmentierungen, die durch die Simulation bereitgestellt werden. Im Hinblick auf intrapersonelle Effekte widmet sich die vorliegende Arbeit insbesondere der Frage, welche Simulationseigenschaften die Illusion des Besitzens/Innehabens und der Kontrolle eines virtuellen Körpers sowie eine wahrgenommene Veränderung des Körperschemas beeinflussen. Die vorgestellten Studien führen zur Konstruktion eines Instruments zur Erfassung dieser Dimensionen und die Ergebnisse zeigen, dass die empfundene Verkörperung besonders von dem Grad der Immersion, der Simulationslatenz sowie dem Grad der Personalisierung des Avatars abhängt. Im Hinblick auf zwischenmenschliche Effekte vergleicht diese Dissertation physische (realweltliche) und virtuelle soziale Interaktionen sowie unterschiedliche Freiheitsgrade in der Replikation nonverbalen Verhaltens. Die Ergebnisse deuten darauf hin, dass die funktionalen Ebenen der Interaktion aufrechterhalten werden, während Aspekte der Präsenz durch avatarvermittelte Interaktionen beeinflusst werden und die kollaborative motorische Koordination durch immersive Simulationen gestört werden kann. Die soziale Interaktion besteht aus vielen unbekannten Symbolen und harmonischen Mustern, die das menschliche Verst¨andnis und zwischenmenschliche Beziehungen definieren. Für erfolgreiche virtuelle soziale Interaktionen mag eine bloße Replikation von physikalischenWeltverhaltensweisen auf virtuelle Umgebungen m¨oglich erscheinen. Das Potenzial computervermittelter sozialer Interaktionen geht jedoch über diese bloße Replikation hinaus. Im dritten Bereich dieser Arbeit werden alternative Konzepte vorgeschlagen und evaluiert, wie Computer genutzt werden können, um eine aktive Rolle in sozialen Interaktionen einzunehmen. Diese Technologien werden als hybride Avatar-Agenten-Technologien definiert. Insbesondere wird untersucht, welche Möglichkeiten das soziale Verhalten zu erweitern emtstehen, indem die Verhaltensweisen der Benutzer/-innen entsprechend sozialer Ph¨anomene und Verhaltensweisen modifiziert und transformiert werden. Beispiele sind die nonverbale Spiegelung, der Fokus des Blicks, eine gemeinsame Aufmerksamkeit und die Gruppenbildung. Basierend auf den Ergebnissen argumentiert diese Arbeit, dass solche Technologien für computervermittelte soziale Interaktionen von Vorteil sein könnten, beispielsweise zum Ausgleich fehlender Sensorik, Störungen bei der Datenübertragung oder zur Verbesserung sozialer Präsenz durch visuelle Substitution oder Verstärkung des sozialen Verhaltens. Basierend auf verwandten Arbeiten und präsentierten Ergebnissen wird abgeleitet, dass Computer als soziale Mediatoren fungieren können. Ausgehend von Prototypen und empirischen Studien kann das Potenzial der Technologie, ein aktiver Vermittler in Bezug auf dieWahrnehmung des Selbst sowie dieWahrnehmung sozialer Interaktionen zu sein, unserer Gesellschaft zugutekommen. Dadurch können beispielsweise weitere Methoden zur Diagnose, der Behandlung und Ausbildung sowie der Inklusion von Menschen mit sozialen Störungen ermöglicht werden. In diesem Zusammenhang werden die Auswirkungen auf unsere Gesellschaft und ethische Aspekte diskutiert. Diese Arbeit erweitert frühere empirische Arbeiten und präasentiert darüber hinaus neue Instrumente, Konzepte und Implikationen, um neue Perspektiven für die Entwicklung von Virtual Reality, Mixed Reality und Augmented Reality Anwendungen zu beleuchten. KW - Virtuelle Realität KW - Mensch-Maschine-Kommunikation KW - virtual embodiment KW - virtual social interaction KW - hybrid avatar-agent systems KW - collaborative interaction KW - avatars KW - virtual reality KW - augmented reality KW - social artificial intelligence KW - Avatar KW - Künstliche Intelligenz Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-188627 ER - TY - THES A1 - Muth, Felicitas Vanessa T1 - Step by step: Sense of agency for complex action-event sequences T1 - Schritt für Schritt: Sense of Agency in komplexen Handlungs-Effekt Sequenzen N2 - From simply ringing a bell to preparing a five-course menu, human behavior commonly causes changes in the environment. Such episodes where an agent acts, thereby causing changes in their environment constitute the sense of agency. In this thesis four series of experi-ments elucidate how the sense of agency is represented in complex action-event sequences, thereby bridging a gap between basic cognitive research and real-life practice. It builds upon extensive research on the sense of agency in unequivocal sequences consisting of single ac-tions and distinct, predominantly auditory, outcomes. Employing implicit as well as explicit measures, the scope is opened up to multi-step sequences. The experiments show that it is worthwhile devoting more research to complex action-event sequences. With a newly introduced auditory measure (Chapter II), common phenomena such as temporal binding and a decrease in agency ratings following distorted feedback were replicated in multi-step sequences. However, diverging results between traditional implicit and explicit measures call for further inspection. Multisensory integration appears to gain more weight when multiple actions have to be performed to attain a goal leading to more accurate representations of the own actions (Chapter III). Additionally, freedom of choice (Chapter III) as well as early spatial ambiguity altered the perceived timing of outcomes, while late spatial ambi-guity (Chapter IV) and the outcome’s self-relevance did not (Chapter V). The data suggests that the cognitive system is capable of representing multi-step action-event sequences implicitly and explicitly. Actions and sensory events show a temporal attraction stemming from a bias in the perception of outcomes. Explicit knowledge about causing an event-sequence facilitates neither feelings of control nor taking authorship. The results corroborate current theorizing on the un-derpinnings of temporal binding and the divergence between traditional implicit and explicit measures of the sense of agency. Promising avenues for further research include structured analyses of how much inferred causality contributes to implicit and explicit measures of agency as well as finding alternative measures to capture conceptual as well as non-conceptual facets of the agency experience with one method. N2 - Vom Läuten einer Klingel bis hin zum Kochen eines Fünf-Gänge Menüs – menschliches Handeln verändert die Umwelt. Situationen, in denen eine Person handelt und so Veränderungen in ihrer Umgebung bewirkt, konstituieren den Sense of Agency. Diese Arbeit präsentiert vier Experimentalreihen, die die Repräsentation des Sense of Agency in komplexen Handlungs-Ereignis-Sequenzen erforschen und so eine Brücke zwischen kognitiver Grundla-genforschung und Alltagspraxis schlagen. Aufbauend auf umfangreicher Forschung zum Sense of Agency in Sequenzen aus einzelnen Handlungen und eindeutigen, vorwiegend auditiven Handlungseffekten wird der Forschungsbereich durch Einsatz impliziter sowie expliziter Maße auf mehrschrittige Sequenzen erweitert. Mittels eines neuen auditiven Maßes (Kapitel II) wurden gängige Phänomene wie Temporal Binding und die Abnahme von Agency Ratings nach verfremdetem Feedback in mehrschrittigen Sequenzen repliziert. Müssen mehrere Handlungen ausgeführt werden, um ein Ziel zu erreichen, scheint multisensorische Integration stärker ins Gewicht zu fallen, was zu genaueren Repräsentationen der eigenen Handlungen führt (Kapitel III). Darüber hinaus veränderten Wahl-freiheit (Kapitel III) und frühe räumliche Ambiguität das wahrgenommene Timing von Hand-lungseffekten, späte räumliche Ambiguität (Kapitel IV) sowie Selbstrelevanz des Handlungsef-fekts taten dies nicht (Kapitel V). Die Daten deuten darauf hin, dass das kognitive System mehrschrittige Handlungs-Ereignis-Sequenzen sowohl implizit als auch explizit repräsentieren kann. Die zeitliche Kompression von Handlungs-Ereignis-Sequenzen ist auf eine Verzerrung der Wahrnehmung von Handlungseffekten zurückzuführen. Explizites Wissen über die Verursa-chung von Ereignis-Folgen fördert weder Kontrollerleben noch das Gefühl eigener Autoren-schaft. Die Ergebnisse bestätigen den derzeitigen Diskurs über die Grundlagen von Temporal Binding und die Divergenz zwischen den traditionellen impliziten und expliziten Maßen des Sense of Agency. Strukturierte Analysen zum Beitrag von Kausalität zu Sense of Agency sowie die Ent-wicklung alternativer Methoden zur Erfassung konzeptueller wie nicht-konzeptueller Facetten des Sense of Agency mit einem Maß würden zur Weiterentwicklung des Forschungsbereichs beitragen. KW - Psychologie KW - Experimentelle Psychologie KW - Mensch-Maschine-Kommunikation KW - Sense of agency KW - Temporal binding KW - Feelings of agency KW - Judgements of agency KW - Multisensory integration KW - Causality KW - Handlungserleben KW - Cognitive control KW - Kognitive Psychologie KW - Handlungsregulation KW - Kognitionspsychologie KW - Handlungssteuerung Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-307569 ER - TY - THES A1 - Menne, Isabelle M. T1 - Facing Social Robots – Emotional Reactions towards Social Robots N2 - Ein Army Colonel empfindet Mitleid mit einem Roboter, der versuchsweise Landminen entschärft und deklariert den Test als inhuman (Garreau, 2007). Roboter bekommen militärische Beförderungen, Beerdigungen und Ehrenmedaillen (Garreau, 2007; Carpenter, 2013). Ein Schildkrötenroboter wird entwickelt, um Kindern beizubringen, Roboter gut zu behandeln (Ackermann, 2018). Der humanoide Roboter Sophia wurde erst kürzlich Saudi-Arabischer Staatsbürger und es gibt bereits Debatten, ob Roboter Rechte bekommen sollen (Delcker, 2018). Diese und ähnliche Entwicklungen zeigen schon jetzt die Bedeutsamkeit von Robotern und die emotionale Wirkung die diese auslösen. Dennoch scheinen sich diese emotionalen Reaktionen auf einer anderen Ebene abzuspielen, gemessen an Kommentaren in Internetforen. Dort ist oftmals die Rede davon, wieso jemand überhaupt emotional auf einen Roboter reagieren kann. Tatsächlich ist es, rein rational gesehen, schwierig zu erklären, warum Menschen mit einer leblosen (‚mindless‘) Maschine mitfühlen sollten. Und dennoch zeugen nicht nur oben genannte Berichte, sondern auch erste wissenschaftliche Studien (z.B. Rosenthal- von der Pütten et al., 2013) von dem emotionalen Einfluss den Roboter auf Menschen haben können. Trotz der Bedeutsamkeit der Erforschung emotionaler Reaktionen auf Roboter existieren bislang wenige wissenschaftliche Studien hierzu. Tatsächlich identifizierten Kappas, Krumhuber und Küster (2013) die systematische Analyse und Evaluation sozialer Reaktionen auf Roboter als eine der größten Herausforderungen der affektiven Mensch-Roboter Interaktion. Nach Scherer (2001; 2005) bestehen Emotionen aus der Koordination und Synchronisation verschiedener Komponenten, die miteinander verknüpft sind. Motorischer Ausdruck (Mimik), subjektives Erleben, Handlungstendenzen, physiologische und kognitive Komponenten gehören hierzu. Um eine Emotion vollständig zu erfassen, müssten all diese Komponenten gemessen werden, jedoch wurde eine solch umfassende Analyse bisher noch nie durchgeführt (Scherer, 2005). Hauptsächlich werden Fragebögen eingesetzt (vgl. Bethel & Murphy, 2010), die allerdings meist nur das subjektive Erleben abfragen. Bakeman und Gottman (1997) geben sogar an, dass nur etwa 8% der psychologischen Forschung auf Verhaltensdaten basiert, obwohl die Psychologie traditionell als das ‚Studium von Psyche und Verhalten‘ (American Psychological Association, 2018) definiert wird. Die Messung anderer Emotionskomponenten ist selten. Zudem sind Fragebögen mit einer Reihe von Nachteilen behaftet (Austin, Deary, Gibson, McGregor, Dent, 1998; Fan et al., 2006; Wilcox, 2011). Bethel und Murphy (2010) als auch Arkin und Moshkina (2015) plädieren für einen Multi-Methodenansatz um ein umfassenderes Verständnis von affektiven Prozessen in der Mensch-Roboter Interaktion zu erlangen. Das Hauptziel der vorliegenden Dissertation ist es daher, mithilfe eines Multi-Methodenansatzes verschiedene Komponenten von Emotionen (motorischer Ausdruck, subjektive Gefühlskomponente, Handlungstendenzen) zu erfassen und so zu einem vollständigeren und tiefgreifenderem Bild emotionaler Prozesse auf Roboter beizutragen. Um dieses Ziel zu erreichen, wurden drei experimentelle Studien mit insgesamt 491 Teilnehmern durchgeführt. Mit unterschiedlichen Ebenen der „apparent reality“ (Frijda, 2007) sowie Macht / Kontrolle über die Situation (vgl. Scherer & Ellgring, 2007) wurde untersucht, inwiefern sich Intensität und Qualität emotionaler Reaktionen auf Roboter ändern und welche weiteren Faktoren (Aussehen des Roboters, emotionale Expressivität des Roboters, Behandlung des Roboters, Autoritätsstatus des Roboters) Einfluss ausüben. Experiment 1 basierte auf Videos, die verschiedene Arten von Robotern (tierähnlich, anthropomorph, maschinenartig), die entweder emotional expressiv waren oder nicht (an / aus) in verschiedenen Situationen (freundliche Behandlung des Roboters vs. Misshandlung) zeigten. Fragebögen über selbstberichtete Gefühle und die motorisch-expressive Komponente von Emotionen: Mimik (vgl. Scherer, 2005) wurden analysiert. Das Facial Action Coding System (Ekman, Friesen, & Hager, 2002), die umfassendste und am weitesten verbreitete Methode zur objektiven Untersuchung von Mimik, wurde hierfür verwendet. Die Ergebnisse zeigten, dass die Probanden Gesichtsausdrücke (Action Unit [AU] 12 und AUs, die mit positiven Emotionen assoziiert sind, sowie AU 4 und AUs, die mit negativen Emotionen assoziiert sind) sowie selbstberichtete Gefühle in Übereinstimmung mit der Valenz der in den Videos gezeigten Behandlung zeigten. Bei emotional expressiven Robotern konnten stärkere emotionale Reaktionen beobachtet werden als bei nicht-expressiven Robotern. Der tierähnliche Roboter Pleo erfuhr in der Misshandlungs-Bedingung am meisten Mitleid, Empathie, negative Gefühle und Traurigkeit, gefolgt vom anthropomorphen Roboter Reeti und am wenigsten für den maschinenartigen Roboter Roomba. Roomba wurde am meisten Antipathie zugeschrieben. Die Ergebnisse knüpfen an frühere Forschungen an (z.B. Krach et al., 2008; Menne & Schwab, 2018; Riek et al., 2009; Rosenthal-von der Pütten et al., 2013) und zeigen das Potenzial der Mimik für eine natürliche Mensch-Roboter Interaktion. Experiment 2 und Experiment 3 übertrugen die klassischen Experimente von Milgram (1963; 1974) zum Thema Gehorsam in den Kontext der Mensch-Roboter Interaktion. Die Gehorsamkeitsstudien von Milgram wurden als sehr geeignet erachtet, um das Ausmaß der Empathie gegenüber einem Roboter im Verhältnis zum Gehorsam gegenüber einem Roboter zu untersuchen. Experiment 2 unterschied sich von Experiment 3 in der Ebene der „apparent reality“ (Frijda, 2007): in Anlehnung an Milgram (1963) wurde eine rein text-basierte Studie (Experiment 2) einer live Mensch-Roboter Interaktion (Experiment 3) gegenübergestellt. Während die abhängigen Variablen von Experiment 2 aus den Selbstberichten emotionaler Gefühle sowie Einschätzungen des hypothetischen Verhaltens bestand, erfasste Experiment 3 subjektive Gefühle sowie reales Verhalten (Reaktionszeit: Dauer des Zögerns; Gehorsamkeitsrate; Anzahl der Proteste; Mimik) der Teilnehmer. Beide Experimente untersuchten den Einfluss der Faktoren „Autoritätsstatus“ (hoch / niedrig) des Roboters, der die Befehle erteilt (Nao) und die emotionale Expressivität (an / aus) des Roboters, der die Strafen erhält (Pleo). Die subjektiven Gefühle der Teilnehmer aus Experiment 2 unterschieden sich zwischen den Gruppen nicht. Darüber hinaus gaben nur wenige Teilnehmer (20.2%) an, dass sie den „Opfer“-Roboter definitiv bestrafen würden. Ein ähnliches Ergebnis fand auch Milgram (1963). Das reale Verhalten von Versuchsteilnehmern in Milgrams‘ Labor-Experiment unterschied sich jedoch von Einschätzungen hypothetischen Verhaltens von Teilnehmern, denen Milgram das Experiment nur beschrieben hatte. Ebenso lassen Kommentare von Teilnehmern aus Experiment 2 darauf schließen, dass das beschriebene Szenario möglicherweise als fiktiv eingestuft wurde und Einschätzungen von hypothetischem Verhalten daher kein realistisches Bild realen Verhaltens gegenüber Roboter in einer live Interaktion zeichnen können. Daher wurde ein weiteres Experiment (Experiment 3) mit einer Live Interaktion mit einem Roboter als Autoritätsfigur (hoher Autoritätsstatus vs. niedriger) und einem weiteren Roboter als „Opfer“ (emotional expressiv vs. nicht expressiv) durchgeführt. Es wurden Gruppenunterschiede in Fragebögen über emotionale Reaktionen gefunden. Dem emotional expressiven Roboter wurde mehr Empathie entgegengebracht und es wurde mehr Freude und weniger Antipathie berichtet als gegenüber einem nicht-expressiven Roboter. Außerdem konnten Gesichtsausdrücke beobachtet werden, die mit negativen Emotionen assoziiert sind während Probanden Nao’s Befehl ausführten und Pleo bestraften. Obwohl Probanden tendenziell länger zögerten, wenn sie einen emotional expressiven Roboter bestrafen sollten und der Befehl von einem Roboter mit niedrigem Autoritätsstatus kam, wurde dieser Unterschied nicht signifikant. Zudem waren alle bis auf einen Probanden gehorsam und bestraften Pleo, wie vom Nao Roboter befohlen. Dieses Ergebnis steht in starkem Gegensatz zu dem selbstberichteten hypothetischen Verhalten der Teilnehmer aus Experiment 2 und unterstützt die Annahme, dass die Einschätzungen von hypothetischem Verhalten in einem Mensch-Roboter-Gehorsamkeitsszenario nicht zuverlässig sind für echtes Verhalten in einer live Mensch-Roboter Interaktion. Situative Variablen, wie z.B. der Gehorsam gegenüber Autoritäten, sogar gegenüber einem Roboter, scheinen stärker zu sein als Empathie für einen Roboter. Dieser Befund knüpft an andere Studien an (z.B. Bartneck & Hu, 2008; Geiskkovitch et al., 2016; Menne, 2017; Slater et al., 2006), eröffnet neue Erkenntnisse zum Einfluss von Robotern, zeigt aber auch auf, dass die Wahl einer Methode um Empathie für einen Roboter zu evozieren eine nicht triviale Angelegenheit ist (vgl. Geiskkovitch et al., 2016; vgl. Milgram, 1965). Insgesamt stützen die Ergebnisse die Annahme, dass die emotionalen Reaktionen auf Roboter tiefgreifend sind und sich sowohl auf der subjektiven Ebene als auch in der motorischen Komponente zeigen. Menschen reagieren emotional auf einen Roboter, der emotional expressiv ist und eher weniger wie eine Maschine aussieht. Sie empfinden Empathie und negative Gefühle, wenn ein Roboter misshandelt wird und diese emotionalen Reaktionen spiegeln sich in der Mimik. Darüber hinaus unterscheiden sich die Einschätzungen von Menschen über ihr eigenes hypothetisches Verhalten von ihrem tatsächlichen Verhalten, weshalb videobasierte oder live Interaktionen zur Analyse realer Verhaltensreaktionen empfohlen wird. Die Ankunft sozialer Roboter in der Gesellschaft führt zu nie dagewesenen Fragen und diese Dissertation liefert einen ersten Schritt zum Verständnis dieser neuen Herausforderungen. N2 - An Army Colonel feels sorry for a robot that defuses landmines on a trial basis and declares the test inhumane (Garreau, 2007). Robots receive military promotions, funerals and medals of honor (Garreau, 2007; Carpenter, 2013). A turtle robot is being developed to teach children to treat robots well (Ackermann, 2018). The humanoid robot Sophia recently became a Saudi Arabian citizen and there are now debates whether robots should have rights (Delcker, 2018). These and similar developments already show the importance of robots and the emotional impact they have. Nevertheless, these emotional reactions seem to take place on a different level, judging by comments in internet forums alone: Most often, emotional reactions towards robots are questioned if not denied at all. In fact, from a purely rational point of view, it is difficult to explain why people should empathize with a mindless machine. However, not only the reports mentioned above but also first scientific studies (e.g. Rosenthal- von der Pütten et al., 2013) bear witness to the emotional influence of robots on humans. Despite the importance of researching emotional reactions towards robots, there are few scientific studies on this subject. In fact, Kappas, Krumhuber and Küster (2013) identified effective testing and evaluation of social reactions towards robots as one of the major challenges of affective Human-Robot Interaction (HRI). According to Scherer (2001; 2005), emotions consist of the coordination and synchronization of different components that are linked to each other. These include motor expression (facial expressions), subjective experience, action tendencies, physiological and cognitive components. To fully capture an emotion, all these components would have to be measured, but such a comprehensive analysis has never been performed (Scherer, 2005). Primarily, questionnaires are used (cf. Bethel & Murphy, 2010) but most of them only capture subjective experiences. Bakeman and Gottman (1997) even state that only about 8% of psychological research is based on behavioral data, although psychology is traditionally defined as the 'study of the mind and behavior' (American Psychological Association, 2018). The measurement of other emotional components is rare. In addition, questionnaires have a number of disadvantages (Austin, Deary, Gibson, McGregor, Dent, 1998; Fan et al., 2006; Wilcox, 2011). Bethel and Murphy (2010) as well as Arkin and Moshkina (2015) argue for a multi-method approach to achieve a more comprehensive understanding of affective processes in HRI. The main goal of this dissertation is therefore to use a multi-method approach to capture different components of emotions (motor expression, subjective feeling component, action tendencies) and thus contribute to a more complete and profound picture of emotional processes towards robots. To achieve this goal, three experimental studies were conducted with a total of 491 participants. With different levels of ‘apparent reality’ (Frijda, 2007) and power/control over the situation (cf. Scherer & Ellgring, 2007), the extent to which the intensity and quality of emotional responses to robots change were investigated as well as the influence of other factors (appearance of the robot, emotional expressivity of the robot, treatment of the robot, authority status of the robot). Experiment 1 was based on videos showing different types of robots (animal-like, anthropomorphic, machine-like) in different situations (friendly treatment of the robot vs. torture treatment) while being either emotionally expressive or not. Self-reports of feelings as well as the motoric-expressive component of emotion: facial expressions (cf. Scherer, 2005) were analyzed. The Facial Action Coding System (Ekman, Friesen, & Hager, 2002), the most comprehensive and most widely used method for objectively assessing facial expressions, was utilized for this purpose. Results showed that participants displayed facial expressions (Action Unit [AU] 12 and AUs associated with positive emotions as well as AU 4 and AUs associated with negative emotions) as well as self-reported feelings in line with the valence of the treatment shown in the videos. Stronger emotional reactions could be observed for emotionally expressive robots than non-expressive robots. Most pity, empathy, negative feelings and sadness were reported for the animal-like robot Pleo while watching it being tortured, followed by the anthropomorphic robot Reeti and least for the machine-like robot Roomba. Most antipathy was attributed to Roomba. The findings are in line with previous research (e.g., Krach et al., 2008; Menne & Schwab, 2018; Riek et al., 2009; Rosenthal-von der Pütten et al., 2013) and show facial expressions’ potential for a natural HRI. Experiment 2 and Experiment 3 transferred Milgram’s classic experiments (1963; 1974) on obedience into the context of HRI. Milgram’s obedience studies were deemed highly suitable to study the extent of empathy towards a robot in relation to obedience to a robot. Experiment 2 differed from Experiment 3 in the level of ‘apparent reality’ (Frijda, 2007): based on Milgram (1963), a purely text-based study (Experiment 2) was compared with a live HRI (Experiment 3). While the dependent variables of Experiment 2 consisted of self-reports of emotional feelings and assessments of hypothetical behavior, Experiment 3 measured subjective feelings and real behavior (reaction time: duration of hesitation; obedience rate; number of protests; facial expressions) of the participants. Both experiments examined the influence of the factors "authority status" (high / low) of the robot giving the orders (Nao) and the emotional expressivity (on / off) of the robot receiving the punishments (Pleo). The subjective feelings of the participants from Experiment 2 did not differ between the groups. In addition, only few participants (20.2%) stated that they would definitely punish the "victim" robot. Milgram (1963) found a similar result. However, the real behavior of participants in Milgram's laboratory experiment differed from the estimates of hypothetical behavior of participants to whom Milgram had only described the experiment. Similarly, comments from participants in Experiment 2 suggest that the scenario described may have been considered fictitious and that assessments of hypothetical behavior may not provide a realistic picture of real behavior towards robots in a live interaction. Therefore, another experiment (Experiment 3) was performed with a live interaction with a robot as authority figure (high authority status vs. low) and another robot as "victim" (emotional expressive vs. non-expressive). Group differences were found in questionnaires on emotional responses. More empathy was shown for the emotionally expressive robot and more joy and less antipathy was reported than for a non-expressive robot. In addition, facial expressions associated with negative emotions could be observed while subjects executed Nao's command and punished Pleo. Although subjects tended to hesitate longer when punishing an emotionally expressive robot and the order came from a robot with low authority status, this difference did not reach significance. Furthermore, all but one subject were obedient and punished Pleo as commanded by the Nao robot. This result stands in stark contrast to the self-reported hypothetical behavior of the participants from Experiment 2 and supports the assumption that the assessments of hypothetical behavior in a Human-Robot obedience scenario are not reliable for real behavior in a live HRI. Situational variables, such as obedience to authorities, even to a robot, seem to be stronger than empathy for a robot. This finding is in line with previous studies (e.g. Bartneck & Hu, 2008; Geiskkovitch et al., 2016; Menne, 2017; Slater et al., 2006), opens up new insights into the influence of robots, but also shows that the choice of a method to evoke empathy for a robot is not a trivial matter (cf. Geiskkovitch et al., 2016; cf. Milgram, 1965). Overall, the results support the assumption that emotional reactions to robots are profound and manifest both at the subjective level and in the motor component. Humans react emotionally to a robot that is emotionally expressive and looks less like a machine. They feel empathy and negative feelings when a robot is abused and these emotional reactions are reflected in facial expressions. In addition, people's assessments of their own hypothetical behavior differ from their actual behavior, which is why video-based or live interactions are recommended for analyzing real behavioral responses. The arrival of social robots in society leads to unprecedented questions and this dissertation provides a first step towards understanding these new challenges. N2 - Are there emotional reactions towards social robots? Could you love a robot? Or, put the other way round: Could you mistreat a robot, tear it apart and sell it? Media reports people honoring military robots with funerals, mourning the “death” of a robotic dog, and granting the humanoid robot Sophia citizenship. But how profound are these reactions? Three experiments take a closer look on emotional reactions towards social robots by investigating the subjective experience of people as well as the motor expressive level. Contexts of varying degrees of Human-Robot Interaction (HRI) sketch a nuanced picture of emotions towards social robots that encompass conscious as well as unconscious reactions. The findings advance the understanding of affective experiences in HRI. It also turns the initial question into: Can emotional reactions towards social robots even be avoided? T2 - Im Angesicht sozialer Roboter - Emotionale Reaktionen angesichts sozialer Roboter KW - Roboter KW - social robot KW - emotion KW - FACS KW - Facial Action Coding System KW - facial expressions KW - emotional reaction KW - Human-Robot Interaction KW - HRI KW - obedience KW - empathy KW - Gefühl KW - Mimik KW - Mensch-Maschine-Kommunikation Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-187131 SN - 978-3-95826-120-4 SN - 978-3-95826-121-1 N1 - Parallel erschienen als Druckausgabe in Würzburg University Press, 978-3-95826-120-4, 27,80 EUR. PB - Würzburg University Press CY - Würzburg ET - 1. Auflage ER - TY - THES A1 - Grundke, Andrea T1 - Head and Heart: On the Acceptability of Sophisticated Robots Based on an Enhancement of the Mind Perception Dichotomy and the Uncanny Valley of Mind T1 - Herz und Kopf: Zur Akzeptanz von elaborierten Robotern anhand einer Weiterentwicklung der Mind-Perception-Dichotomie und des Uncanny Valleys of Mind N2 - With the continuous development of artificial intelligence, there is an effort to let the expressed mind of robots resemble more and more human-like minds. However, just as the human-like appearance of robots can lead to feelings of aversion to such robots, recent research has shown that the apparent mind expressed by machines can also be responsible for their negative evaluations. This work strives to explore facets of aversion evoked by machines with human-like mind (uncanny valley of mind) within three empirical projects from a psychological point of view in different contexts, including the resulting consequences. In Manuscript #1, the perspective of previous work in the research area is reversed and thus shows that humans feel eeriness in response to robots that can read human minds, a capability unknown from human-human interaction. In Manuscript #2, it is explored whether empathy for a robot being harmed by a human is a way to alleviate the uncanny valley of mind. A result of this work worth highlighting is that aversion in this study did not arise from the manipulation of the robot’s mental capabilities but from its attributed incompetence and failure. The results of Manuscript #3 highlight that status threat is revealed if humans perform worse than machines in a work-relevant task requiring human-like mental capabilities, while higher status threat is linked with a higher willingness to interact, due to the machine’s perceived usefulness. In sum, if explanatory variables and concrete scenarios are considered, people will react fairly positively to machines with human-like mental capabilities. As long as the machine’s usefulness is palpable to people, but machines are not fully autonomous, people seem willing to interact with them, accepting aversion in favor of the expected benefits. N2 - Mit der stetigen Weiterentwicklung von künstlicher Intelligenz besteht das Bestreben, das ausgedrückte Bewusstsein von Robotern dem menschlichen Bewusstsein immer mehr nachzubilden. Die Forschung hat dargelegt, dass das augenscheinlich von Maschinen ausgedrückte Bewusstsein für negative Bewertungen verantwortlich sein kann (Uncanny Valley of Mind). Dieser Befund soll aus psychologischer Perspektive in verschiedenen Kontexten inklusive der daraus resultierenden Konsequenzen genauer betrachtet werden. Mit Manuskript #1 wird die Perspektive bisheriger Arbeiten in dem Forschungsgebiet umgekehrt und gezeigt, dass Menschen Unheimlichkeit gegenüber Robotern empfinden, die scheinbar menschliche Gedanken lesen können, was aus der Mensch-Mensch-Interaktion unbekannt ist. In Manuskript #2 wird der Frage nachgegangen, ob Empathie für einen von einem Menschen verletzt werdenden Roboter eine Möglichkeit ist, das Uncanny Valley of Mind abzuschwächen. Ein hervorzuhebendes Resultat dieser Arbeit ist, dass Aversion in dieser Studie nicht durch die Manipulation der Bewusstseinszustände des Roboters aufgekommen ist, sondern durch dessen attribuierte Inkompetenz und sein Versagen. Die Ergebnisse von Manuskript #3 zeigen, dass Statusbedrohung auftritt, wenn Menschen bei einer arbeitsrelevanten Aufgabe, die menschenähnliche mentale Fähigkeiten erfordert, schlechter abschneiden als Maschinen. Es wird auf die wahrgenommene Nützlichkeit der Maschine Bezug genommen um zu erklären, dass höhere Statusbedrohung mit höherer Bereitschaft zur Interaktion assoziiert ist. Zusammenfassend reagieren Menschen recht positiv auf Maschinen mit menschenähnlichen mentalen Fähigkeiten, sobald erklärende Variablen und konkrete Szenarien mitberücksichtigt werden. Solange die Nützlichkeit der Maschinen deutlich gemacht wird, diese aber nicht vollkommen autonom sind, scheinen Menschen gewillt zu sein, mit diesen zu interagieren und dabei Gefühle von Aversion zugunsten der antizipierten Vorteile in Kauf zu nehmen. KW - Humanoider Roboter KW - Künstliche Intelligenz KW - Mensch-Maschine-Kommunikation KW - Uncanny Valley of Mind KW - Eeriness KW - Empathy KW - Status Threat KW - Perceived Usefulness KW - Mensch-Maschine-Interaktion Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-330152 ER - TY - THES A1 - Gall, Dominik T1 - Increasing the effectiveness of human-computer interfaces for mental health interventions T1 - Steigerung der Effektivität von Mensch-Computer-Schnittstellen für Interventionen im Bereich der psychischen Gesundheit N2 - Human-computer interfaces have the potential to support mental health practitioners in alleviating mental distress. Adaption of this technology in practice is, however, slow. We provide means to extend the design space of human-computer interfaces for mitigating mental distress. To this end, we suggest three complementary approaches: using presentation technology, using virtual environments, and using communication technology to facilitate social interaction. We provide new evidence that elementary aspects of presentation technology affect the emotional processing of virtual stimuli, that perception of our environment affects the way we assess our environment, and that communication technologies affect social bonding between users. By showing how interfaces modify emotional reactions and facilitate social interaction, we provide converging evidence that human-computer interfaces can help alleviate mental distress. These findings may advance the goal of adapting technological means to the requirements of mental health practitioners. N2 - Mensch-Computer-Schnittstellen haben das Potenzial, psychosoziale Fachkräfte bei der Linderung von psychischen Problemen zu unterstützen. Die Adaption solcher Technologien in der Praxis verläuft jedoch langsam. Wir stellen Mittel zur Verfügung, um den Gestaltungsraum von Mensch-Computer-Schnittstellen zur Linderung von psychischen Belastungen zu erweitern. Zu diesem Zweck schlagen wir drei komplementäre Ansätze vor: die Verwendung von Präsentationstechnologie, die Verwendung virtueller Umgebungen und die Verwendung von Kommunikationstechnologie zur Erleichterung sozialer Interaktion. Wir liefern neue Belege dafür, dass elementare Aspekte der Präsentationstechnologie die emotionale Verarbeitung virtueller Stimuli beeinflussen, dass die Wahrnehmung unserer Umgebung die Art und Weise beeinflusst, wie wir unsere Umgebung bewerten, und dass Kommunikationstechnologien die soziale Bindung zwischen Nutzern beeinflussen. Indem wir zeigen, wie Benutzerschnittstellen emotionale Reaktionen modifizieren und soziale Interaktion erleichtern, liefern wir konvergierende Hinweise dafür, dass Mensch-Computer-Schnittstellen die Linderung von psychischen Belastungen unterstützen können. Diese Erkenntnisse können das Vorhaben unterstützen, technologische Möglichkeiten an die Bedürfnisse von psychosozialen Fachkräften anzupassen. KW - Mensch-Maschine-Kommunikation KW - Human-Computer Interaction KW - Mensch-Maschine-Schnittstelle KW - Psychische Gesundheit Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-230120 ER - TY - THES A1 - Dittrich, Monique T1 - Persuasive Technology to Mitigate Aggressive Driving : A Human-centered Design Approach T1 - Persuasive Technologie zur Minderung Aggressiven Fahrens : Ein menschzentrierter Design-Ansatz N2 - Manifestations of aggressive driving, such as tailgating, speeding, or swearing, are not trivial offenses but are serious problems with hazardous consequences—for the offender as well as the target of aggression. Aggression on the road erases the joy of driving, affects heart health, causes traffic jams, and increases the risk of traffic accidents. This work is aimed at developing a technology-driven solution to mitigate aggressive driving according to the principles of Persuasive Technology. Persuasive Technology is a scientific field dealing with computerized software or information systems that are designed to reinforce, change, or shape attitudes, behaviors, or both without using coercion or deception. Against this background, the Driving Feedback Avatar (DFA) was developed through this work. The system is a visual in-car interface that provides the driver with feedback on aggressive driving. The main element is an abstract avatar displayed in the vehicle. The feedback is transmitted through the emotional state of this avatar, i.e., if the driver behaves aggressively, the avatar becomes increasingly angry (negative feedback). If no aggressive action occurs, the avatar is more relaxed (positive feedback). In addition, directly after an aggressive action is recognized by the system, the display is flashing briefly to give the driver an instant feedback on his action. Five empirical studies were carried out as part of the human-centered design process of the DFA. They were aimed at understanding the user and the use context of the future system, ideating system ideas, and evaluating a system prototype. The initial research question was about the triggers of aggressive driving. In a driver study on a public road, 34 participants reported their emotions and their triggers while they were driving (study 1). The second research question asked for interventions to cope with aggression in everyday life. For this purpose, 15 experts dealing with the treatment of aggressive individuals were interviewed (study 2). In total, 75 triggers of aggressive driving and 34 anti-aggression interventions were identified. Inspired by these findings, 108 participants generated more than 100 ideas of how to mitigate aggressive driving using technology in a series of ideation workshops (study 3). Based on these ideas, the concept of the DFA was elaborated on. In an online survey, the concept was evaluated by 1,047 German respondents to get a first assessment of its perception (study 4). Later on, the DFA was implemented into a prototype and evaluated in an experimental driving study with 32 participants, focusing on the system’s effectiveness (study 5). The DFA had only weak and, in part, unexpected effects on aggressive driving that require a deeper discussion. With the DFA, this work has shown that there is room to change aggressive driving through Persuasive Technology. However, this is a very sensitive issue with special requirements regarding the design of avatar-based feedback systems in the context of aggressive driving. Moreover, this work makes a significant contribution through the number of empirical insights gained on the problem of aggressive driving and wants to encourage future research and design activities in this regard. N2 - Aggressives Fahren, egal ob Drängeln, Rasen oder Fluchen, ist kein Kavaliersdelikt, sondern ein ernstzunehmendes Problem mit schwerwiegenden Folgen—sowohl für den Täter als auch für das Opfer. Es nimmt die Freude am Fahren, beeinträchtigt die Herzgesundheit, verursacht Stau und erhöht das Unfallrisiko. Ziel dieser Arbeit war es daher nach den Prinzipien persuasiver Technologie (engl. Persuasive Technology) eine technische Lösung zu entwickeln, die aggressives Fahren verringert. Als persuasiv werden Systeme bezeichnet, die ein bestimmtes Verhalten oder eine bestimmte Einstellung ihres Nutzers verstärken, verändern oder formen, ohne dabei Zwang auf ihn auszuüben oder ihn zu täuschen. Vor diesem Hintergrund wurde im Rahmen dieser Arbeit der sogenannte Driving Feedback Avatar (DFA) entwickelt. Das System ist eine visuelle Benutzerschnittstelle im Fahrzeug, die dem Fahrer Rückmeldung zu bestimmten aggressiven Verhaltensweisen gibt. Hauptelement ist ein abstrakter Avatar, der in einem Display angezeigt wird. Das Feedback selbst wird durch den emotionalen Zustand dieses Avatars vermittelt. Verhält sich der Fahrer aggressiv, wird er zunehmend wütender (negatives Feedback). Legt der Fahrer hingegen keine aggressiven Verhaltensweisen an den Tag, zeigt sich der Avatar nach und nach entspannter (positives Feedback). Darüber hinaus erhält der Fahrer ein sofortiges Feedback, indem das Display kurz aufblinkt, direkt nachdem eine aggressive Handlung vom System erkannt wurde. Zur Entwicklung des Systems wurden, unter Einsatz menschenzentrierter Forschungsmethoden, insgesamt fünf empirische Studien durchgeführt. Diese dienten dazu, den Nutzer und den Nutzungskontext des zukünftigen Systems zu verstehen, Ideen für mögliche Systeme zu entwickeln und die finale Lösung anhand eines Prototypens zu evaluieren. Zunächst stand dabei die Forschungsfrage im Raum, welche Auslöser für aggressives Fahren es heute gibt. In einer Fahrerstudie auf öffentlicher Straße berichteten dazu 34 Teilnehmer während der Fahrt von ihren Emotionen und deren Auslösern (Studie 1). Die zweite Forschungsfrage ergründete Maßnahmen zur Bewältigung von Aggression im Alltag. Hierzu wurden 15 Experten, die sich beruflich mit der Behandlung von aggressiven Personen befassen, interviewt (Studie 2). Insgesamt konnten so 75 Auslöser aggressiven Fahrens und 34 Maßnahmen zur Regulierung von Aggression im Allgemeinen abgeleitet werden. Inspiriert von diesen Erkenntnissen, entwickelten 108 Teilnehmer in einer Reihe von Workshops mehr als 100 Ideen, wie Aggression beim Fahren, unter Einsatz von Technologie, verringert werden könnte (Studie 3). Basierend auf diesen Ideen, entstand das Konzept des DFA. In einer Onlineumfrage mit 1.047 deutschen Teilnehmern wurde das Konzept evaluiert, um eine erste Bewertung der Wahrnehmung des Systems zu erhalten (Studie 4). Später wurde der DFA prototypisch umgesetzt und dessen Effektivität in einer Fahrerstudie unter experimentellen Bedingungen untersucht (Studie 5). Es zeigte sich, dass das System nur schwache und in Teilen auch unerwartete Effekte hat, die eine eingehende Diskussion verlangen. Diese Arbeit hat gezeigt, dass es möglich ist, aggressives Fahren mit Hilfe persuasiver Technologie zu beeinflussen. Jedoch ist dies ein sehr sensibles Vorhaben, das besondere Anforderungen an das Design Avatar-basierter Feedbacksysteme im Kontext aggressiven Fahrens stellt. Darüber hinaus leistet diese Arbeit vor allem aufgrund der gewonnenen empirischen Erkenntnisse rund um das Problem aggressiven Fahrens einen wichtigen Beitrag für Wissenschaft und Praxis und will zu weiteren Forschungs- und Designaktivitäten anregen. KW - Fahrerassistenzsystem KW - Avatar KW - Fahrerverhalten KW - Aggression KW - Driving Behavior KW - Aggressive Driving KW - Behavior Change KW - Empirical Research KW - In-Car Interface KW - Mensch-Maschine-Kommunikation KW - Persuasive Technology KW - Human-Centered Design Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-230226 ER - TY - CHAP ED - von Mammen, Sebastian ED - Klemke, Roland ED - Lorber, Martin T1 - Proceedings of the 1st Games Technology Summit BT - part of Clash of Realites 11th International Conference on the Technology and Theory of Digital Games N2 - As part of the Clash of Realities International Conference on the Technology and Theory of Digital Games, the Game Technology Summit is a premium venue to bring together experts from academia and industry to disseminate state-of-the-art research on trending technology topics in digital games. In this first iteration of the Game Technology Summit, we specifically paid attention on how the successes in AI in Natural User Interfaces have been impacting the games industry (industry track) and which scientific, state-of-the-art ideas and approaches are currently pursued (scientific track). KW - Veranstaltung KW - Künstliche Intelligenz KW - Mensch-Maschine-Kommunikation KW - Computerspiel KW - natural user interfaces KW - artificial intelligence Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-245776 SN - 978-3-945459-36-2 ER -