TY - THES A1 - Dittrich, Monique T1 - Persuasive Technology to Mitigate Aggressive Driving : A Human-centered Design Approach T1 - Persuasive Technologie zur Minderung Aggressiven Fahrens : Ein menschzentrierter Design-Ansatz N2 - Manifestations of aggressive driving, such as tailgating, speeding, or swearing, are not trivial offenses but are serious problems with hazardous consequences—for the offender as well as the target of aggression. Aggression on the road erases the joy of driving, affects heart health, causes traffic jams, and increases the risk of traffic accidents. This work is aimed at developing a technology-driven solution to mitigate aggressive driving according to the principles of Persuasive Technology. Persuasive Technology is a scientific field dealing with computerized software or information systems that are designed to reinforce, change, or shape attitudes, behaviors, or both without using coercion or deception. Against this background, the Driving Feedback Avatar (DFA) was developed through this work. The system is a visual in-car interface that provides the driver with feedback on aggressive driving. The main element is an abstract avatar displayed in the vehicle. The feedback is transmitted through the emotional state of this avatar, i.e., if the driver behaves aggressively, the avatar becomes increasingly angry (negative feedback). If no aggressive action occurs, the avatar is more relaxed (positive feedback). In addition, directly after an aggressive action is recognized by the system, the display is flashing briefly to give the driver an instant feedback on his action. Five empirical studies were carried out as part of the human-centered design process of the DFA. They were aimed at understanding the user and the use context of the future system, ideating system ideas, and evaluating a system prototype. The initial research question was about the triggers of aggressive driving. In a driver study on a public road, 34 participants reported their emotions and their triggers while they were driving (study 1). The second research question asked for interventions to cope with aggression in everyday life. For this purpose, 15 experts dealing with the treatment of aggressive individuals were interviewed (study 2). In total, 75 triggers of aggressive driving and 34 anti-aggression interventions were identified. Inspired by these findings, 108 participants generated more than 100 ideas of how to mitigate aggressive driving using technology in a series of ideation workshops (study 3). Based on these ideas, the concept of the DFA was elaborated on. In an online survey, the concept was evaluated by 1,047 German respondents to get a first assessment of its perception (study 4). Later on, the DFA was implemented into a prototype and evaluated in an experimental driving study with 32 participants, focusing on the system’s effectiveness (study 5). The DFA had only weak and, in part, unexpected effects on aggressive driving that require a deeper discussion. With the DFA, this work has shown that there is room to change aggressive driving through Persuasive Technology. However, this is a very sensitive issue with special requirements regarding the design of avatar-based feedback systems in the context of aggressive driving. Moreover, this work makes a significant contribution through the number of empirical insights gained on the problem of aggressive driving and wants to encourage future research and design activities in this regard. N2 - Aggressives Fahren, egal ob Drängeln, Rasen oder Fluchen, ist kein Kavaliersdelikt, sondern ein ernstzunehmendes Problem mit schwerwiegenden Folgen—sowohl für den Täter als auch für das Opfer. Es nimmt die Freude am Fahren, beeinträchtigt die Herzgesundheit, verursacht Stau und erhöht das Unfallrisiko. Ziel dieser Arbeit war es daher nach den Prinzipien persuasiver Technologie (engl. Persuasive Technology) eine technische Lösung zu entwickeln, die aggressives Fahren verringert. Als persuasiv werden Systeme bezeichnet, die ein bestimmtes Verhalten oder eine bestimmte Einstellung ihres Nutzers verstärken, verändern oder formen, ohne dabei Zwang auf ihn auszuüben oder ihn zu täuschen. Vor diesem Hintergrund wurde im Rahmen dieser Arbeit der sogenannte Driving Feedback Avatar (DFA) entwickelt. Das System ist eine visuelle Benutzerschnittstelle im Fahrzeug, die dem Fahrer Rückmeldung zu bestimmten aggressiven Verhaltensweisen gibt. Hauptelement ist ein abstrakter Avatar, der in einem Display angezeigt wird. Das Feedback selbst wird durch den emotionalen Zustand dieses Avatars vermittelt. Verhält sich der Fahrer aggressiv, wird er zunehmend wütender (negatives Feedback). Legt der Fahrer hingegen keine aggressiven Verhaltensweisen an den Tag, zeigt sich der Avatar nach und nach entspannter (positives Feedback). Darüber hinaus erhält der Fahrer ein sofortiges Feedback, indem das Display kurz aufblinkt, direkt nachdem eine aggressive Handlung vom System erkannt wurde. Zur Entwicklung des Systems wurden, unter Einsatz menschenzentrierter Forschungsmethoden, insgesamt fünf empirische Studien durchgeführt. Diese dienten dazu, den Nutzer und den Nutzungskontext des zukünftigen Systems zu verstehen, Ideen für mögliche Systeme zu entwickeln und die finale Lösung anhand eines Prototypens zu evaluieren. Zunächst stand dabei die Forschungsfrage im Raum, welche Auslöser für aggressives Fahren es heute gibt. In einer Fahrerstudie auf öffentlicher Straße berichteten dazu 34 Teilnehmer während der Fahrt von ihren Emotionen und deren Auslösern (Studie 1). Die zweite Forschungsfrage ergründete Maßnahmen zur Bewältigung von Aggression im Alltag. Hierzu wurden 15 Experten, die sich beruflich mit der Behandlung von aggressiven Personen befassen, interviewt (Studie 2). Insgesamt konnten so 75 Auslöser aggressiven Fahrens und 34 Maßnahmen zur Regulierung von Aggression im Allgemeinen abgeleitet werden. Inspiriert von diesen Erkenntnissen, entwickelten 108 Teilnehmer in einer Reihe von Workshops mehr als 100 Ideen, wie Aggression beim Fahren, unter Einsatz von Technologie, verringert werden könnte (Studie 3). Basierend auf diesen Ideen, entstand das Konzept des DFA. In einer Onlineumfrage mit 1.047 deutschen Teilnehmern wurde das Konzept evaluiert, um eine erste Bewertung der Wahrnehmung des Systems zu erhalten (Studie 4). Später wurde der DFA prototypisch umgesetzt und dessen Effektivität in einer Fahrerstudie unter experimentellen Bedingungen untersucht (Studie 5). Es zeigte sich, dass das System nur schwache und in Teilen auch unerwartete Effekte hat, die eine eingehende Diskussion verlangen. Diese Arbeit hat gezeigt, dass es möglich ist, aggressives Fahren mit Hilfe persuasiver Technologie zu beeinflussen. Jedoch ist dies ein sehr sensibles Vorhaben, das besondere Anforderungen an das Design Avatar-basierter Feedbacksysteme im Kontext aggressiven Fahrens stellt. Darüber hinaus leistet diese Arbeit vor allem aufgrund der gewonnenen empirischen Erkenntnisse rund um das Problem aggressiven Fahrens einen wichtigen Beitrag für Wissenschaft und Praxis und will zu weiteren Forschungs- und Designaktivitäten anregen. KW - Fahrerassistenzsystem KW - Avatar KW - Fahrerverhalten KW - Aggression KW - Driving Behavior KW - Aggressive Driving KW - Behavior Change KW - Empirical Research KW - In-Car Interface KW - Mensch-Maschine-Kommunikation KW - Persuasive Technology KW - Human-Centered Design Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-230226 ER - TY - THES A1 - Roth, Daniel T1 - Intrapersonal, Interpersonal, and Hybrid Interactions in Virtual Reality T1 - Intrapersonelle, Interpersonelle und Hybride Interaktionen in Virtual Reality N2 - Virtual reality and related media and communication technologies have a growing impact on professional application fields and our daily life. Virtual environments have the potential to change the way we perceive ourselves and how we interact with others. In comparison to other technologies, virtual reality allows for the convincing display of a virtual self-representation, an avatar, to oneself and also to others. This is referred to as user embodiment. Avatars can be of varying realism and abstraction in their appearance and in the behaviors they convey. Such userembodying interfaces, in turn, can impact the perception of the self as well as the perception of interactions. For researchers, designers, and developers it is of particular interest to understand these perceptual impacts, to apply them to therapy, assistive applications, social platforms, or games, for example. The present thesis investigates and relates these impacts with regard to three areas: intrapersonal effects, interpersonal effects, and effects of social augmentations provided by the simulation. With regard to intrapersonal effects, we specifically explore which simulation properties impact the illusion of owning and controlling a virtual body, as well as a perceived change in body schema. Our studies lead to the construction of an instrument to measure these dimensions and our results indicate that these dimensions are especially affected by the level of immersion, the simulation latency, as well as the level of personalization of the avatar. With regard to interpersonal effects we compare physical and user-embodied social interactions, as well as different degrees of freedom in the replication of nonverbal behavior. Our results suggest that functional levels of interaction are maintained, whereas aspects of presence can be affected by avatar-mediated interactions, and collaborative motor coordination can be disturbed by immersive simulations. Social interaction is composed of many unknown symbols and harmonic patterns that define our understanding and interpersonal rapport. For successful virtual social interactions, a mere replication of physical world behaviors to virtual environments may seem feasible. However, the potential of mediated social interactions goes beyond this mere replication. In a third vein of research, we propose and evaluate alternative concepts on how computers can be used to actively engage in mediating social interactions, namely hybrid avatar-agent technologies. Specifically, we investigated the possibilities to augment social behaviors by modifying and transforming user input according to social phenomena and behavior, such as nonverbal mimicry, directed gaze, joint attention, and grouping. Based on our results we argue that such technologies could be beneficial for computer-mediated social interactions such as to compensate for lacking sensory input and disturbances in data transmission or to increase aspects of social presence by visual substitution or amplification of social behaviors. Based on related work and presented findings, the present thesis proposes the perspective of considering computers as social mediators. Concluding from prototypes and empirical studies, the potential of technology to be an active mediator of social perception with regard to the perception of the self, as well as the perception of social interactions may benefit our society by enabling further methods for diagnosis, treatment, and training, as well as the inclusion of individuals with social disorders. To this regard, we discuss implications for our society and ethical aspects. This thesis extends previous empirical work and further presents novel instruments, concepts, and implications to open up new perspectives for the development of virtual reality, mixed reality, and augmented reality applications. N2 - Virtual Reality und weitere Medien- und Kommunikationstechnologien haben einen wachsenden Einfluss auf professionelle Anwendungsbereiche und unseren Alltag. Virtuelle Umgebungen haben das Potenzial, Einfluss darauf zu nehmen, wie Mensche sich selbst wahrnehmen und wie sie mit anderen umgehen. Im Vergleich zu anderen Technologien ermöglicht Virtual Reality die überzeugende Visualisierung einer virtuellen Selbstdarstellung, eines Avatars, sichtbar für den Nutzer/die Nutzerin selbst aber auch für andere. Dies bezeichnet man als Nutzerverk¨orperung. Avatare können von unterschiedlichem Realismus und Abstraktion in Bezug auf ihr Aussehen sowie der Darstellung von Verhaltensweisen geprägt sein. Solche nutzerverkörpernde Schnittstellen wiederum können die Wahrnehmung des Selbst sowie die Wahrnehmung von Interaktionen beeinflussen. Für Forscher/-innen, Designer/-innen und Entwickler/-innen ist es von besonderem Interesse, diese Wahrnehmungseffekte zu verstehen, um sie beispielsweise auf Therapie, assistive Anwendungen, soziale Plattformen oder Spiele anzuwenden. Die vorliegende Arbeit untersucht und bezieht sich auf diese Auswirkungen in drei Bereichen: intrapersonelle Effekte, zwischenmenschliche Effekte sowie Effekte durch soziale Augmentierungen, die durch die Simulation bereitgestellt werden. Im Hinblick auf intrapersonelle Effekte widmet sich die vorliegende Arbeit insbesondere der Frage, welche Simulationseigenschaften die Illusion des Besitzens/Innehabens und der Kontrolle eines virtuellen Körpers sowie eine wahrgenommene Veränderung des Körperschemas beeinflussen. Die vorgestellten Studien führen zur Konstruktion eines Instruments zur Erfassung dieser Dimensionen und die Ergebnisse zeigen, dass die empfundene Verkörperung besonders von dem Grad der Immersion, der Simulationslatenz sowie dem Grad der Personalisierung des Avatars abhängt. Im Hinblick auf zwischenmenschliche Effekte vergleicht diese Dissertation physische (realweltliche) und virtuelle soziale Interaktionen sowie unterschiedliche Freiheitsgrade in der Replikation nonverbalen Verhaltens. Die Ergebnisse deuten darauf hin, dass die funktionalen Ebenen der Interaktion aufrechterhalten werden, während Aspekte der Präsenz durch avatarvermittelte Interaktionen beeinflusst werden und die kollaborative motorische Koordination durch immersive Simulationen gestört werden kann. Die soziale Interaktion besteht aus vielen unbekannten Symbolen und harmonischen Mustern, die das menschliche Verst¨andnis und zwischenmenschliche Beziehungen definieren. Für erfolgreiche virtuelle soziale Interaktionen mag eine bloße Replikation von physikalischenWeltverhaltensweisen auf virtuelle Umgebungen m¨oglich erscheinen. Das Potenzial computervermittelter sozialer Interaktionen geht jedoch über diese bloße Replikation hinaus. Im dritten Bereich dieser Arbeit werden alternative Konzepte vorgeschlagen und evaluiert, wie Computer genutzt werden können, um eine aktive Rolle in sozialen Interaktionen einzunehmen. Diese Technologien werden als hybride Avatar-Agenten-Technologien definiert. Insbesondere wird untersucht, welche Möglichkeiten das soziale Verhalten zu erweitern emtstehen, indem die Verhaltensweisen der Benutzer/-innen entsprechend sozialer Ph¨anomene und Verhaltensweisen modifiziert und transformiert werden. Beispiele sind die nonverbale Spiegelung, der Fokus des Blicks, eine gemeinsame Aufmerksamkeit und die Gruppenbildung. Basierend auf den Ergebnissen argumentiert diese Arbeit, dass solche Technologien für computervermittelte soziale Interaktionen von Vorteil sein könnten, beispielsweise zum Ausgleich fehlender Sensorik, Störungen bei der Datenübertragung oder zur Verbesserung sozialer Präsenz durch visuelle Substitution oder Verstärkung des sozialen Verhaltens. Basierend auf verwandten Arbeiten und präsentierten Ergebnissen wird abgeleitet, dass Computer als soziale Mediatoren fungieren können. Ausgehend von Prototypen und empirischen Studien kann das Potenzial der Technologie, ein aktiver Vermittler in Bezug auf dieWahrnehmung des Selbst sowie dieWahrnehmung sozialer Interaktionen zu sein, unserer Gesellschaft zugutekommen. Dadurch können beispielsweise weitere Methoden zur Diagnose, der Behandlung und Ausbildung sowie der Inklusion von Menschen mit sozialen Störungen ermöglicht werden. In diesem Zusammenhang werden die Auswirkungen auf unsere Gesellschaft und ethische Aspekte diskutiert. Diese Arbeit erweitert frühere empirische Arbeiten und präasentiert darüber hinaus neue Instrumente, Konzepte und Implikationen, um neue Perspektiven für die Entwicklung von Virtual Reality, Mixed Reality und Augmented Reality Anwendungen zu beleuchten. KW - Virtuelle Realität KW - Mensch-Maschine-Kommunikation KW - virtual embodiment KW - virtual social interaction KW - hybrid avatar-agent systems KW - collaborative interaction KW - avatars KW - virtual reality KW - augmented reality KW - social artificial intelligence KW - Avatar KW - Künstliche Intelligenz Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-188627 ER - TY - THES A1 - Anderson, Christina T1 - Idiosyncratic Facial Movement in Face Perception and Recognition T1 - Idiosynkratische Gesichtsbewegung in Gesichterwahrnehmung und -erkennung N2 - It has been proposed that different features of a face provide a source of information for separate perceptual and cognitive processes. Properties of a face that remain rather stable over time, so called invariant facial features, yield information about a face’s identity, and changeable aspects of faces transmit information underlying social communication such as emotional expressions and speech movements. While processing of these different face properties was initially claimed to be independent, a growing body of evidence suggests that these sources of information can interact when people recognize faces with whom they are familiar. This is the case because the way a face moves can contain patterns that are characteristic for that specific person, so called idiosyncratic movements. As a face becomes familiar these idiosyncratic movements are learned and hence also provide information serving face identification. While an abundance of experiments has addressed the independence of invariant and variable facial features in face recognition, little is known about the exact nature of the impact idiosyncratic facial movements have on face recognition. Gaining knowledge about the way facial motion contributes to face recognition is, however, important for a deeper understanding of the way the brain processes and recognizes faces. In the following dissertation three experiments are reported that investigate the impact familiarity of changeable facial features has on processes of face recognition. Temporal aspects of the processing of familiar idiosyncratic facial motion were addressed in the first experiment via EEG by investigating the influence familiar facial movement exerts on event-related potentials associated to face processing and face recognition. After being familiarized with a face and its idiosyncratic movement, participants viewed familiar or unfamiliar faces with familiar or unfamiliar facial movement while their brain potentials were recorded. Results showed that familiarity of facial motion influenced later event-related potentials linked to memory processes involved in face recognition. The second experiment used fMRI to investigate the brain areas involved in processing familiar facial movement. Participants’ BOLD-signal was registered while they viewed familiar and unfamiliar faces with familiar or unfamiliar idiosyncratic movement. It was found that activity of brain regions, such as the fusiform gyrus, that underlie the processing of face identity, was modulated by familiar facial movement. Together these two experiments provide valuable information about the nature of the involvement of idiosyncratic facial movement in face recognition and have important implications for cognitive and neural models of face perception and recognition. The third experiment addressed the question whether idiosyncratic facial movement could increase individuation in perceiving faces from a different ethnic group and hence reduce impaired recognition of these other-race faces compared to own-race faces, a phenomenon named the own-race bias. European participants viewed European and African faces that were each animated with an idiosyncratic smile while their attention was either directed to the form or the motion of the face. Subsequently recognition memory for these faces was tested. Results showed that the own-race bias was equally present in both attention conditions indicating that idiosyncratic facial movement was not able to reduce or diminish the own-race bias. In combination the here presented experiments provide further insight into the involvement of idiosyncratic facial motion in face recognition. It is necessary to consider the dynamic component of faces when investigating face recognition because static facial images are not able to provide the full range of information that leads to recognition of a face. In order to reflect the full process of face recognition, cognitive and neural models of face perception and recognition need to integrate dynamic facial features as a source of information which contributes to the recognition of a face. N2 - Klassische Gesichtsverarbeitungsmodelle postulieren die Unabhängigkeit der Wahrnehmung von unveränderlichen Gesichtsmerkmalen und zeitlich veränderlichen, dynamischen Aspekten eines Gesichts. Während zeitlich stabile Charakteristika die Basis für die Identifikation eines Gesichts bilden, wird Information über dynamische Gesichtsveränderungen im Rahmen sozialer Kommunikation herangezogen z.B. um emotionale Ausdrücke und Intentionen zu erkennen. Während diese Modelle allgemein starke empirische Fundierung aufweisen, mehren sich im Falle von bekannten Gesichtern die Hinweise, dass idiosynkratische Gesichtsbewegungen zur Identifikation einer Person beitragen können. Im Folgenden werden drei Experimente vorgestellt, die sich mit dem Einfluss bekannter Gesichtsbewegung auf die Gesichtsidentifikation befassen. Im ersten Experiment wurde mittels EEG der Einfluss bekannter Bewegung auf evozierte Potentiale der Gesichtsverarbeitung und –erkennung untersucht. Es zeigt sich, dass die Bekanntheit der Gesichtsbewegung Potentiale der Gesichtserkennung beeinflusst. Im zweiten Experiment wurden durch fMRI die Gehirnareale untersucht, die an der Wahrnehmung bekannter Gesichtsbewegung beteiligt sind. Aktivität in Gehirnarealen, die der Verarbeitung von Gesichtsidentität zu Grunde liegen, wie z.B. der fusiforme Gyrus, wurde durch die Bekanntheit der Bewegung des Gesichts moduliert. Zusammen liefern diese beiden Experimente wertvolle Information über die Beteiligung idiosynkratischer Gesichtsdynamik bei der Gesichtsidentifikation. Das dritte Experiment beschäftigte sich mit der Fragestellung, ob eine idiosynkratische Gesichtsbewegung die Individualisierung eines Gesichts im interkulturellen Kontext erhöhen kann und somit den own-race bias, d.h. eine schwächere Wiedererkennensleistung für Gesichter einer anderen ethnischen Herkunft, verglichen mit Gesichtern der eigenen Ethnie, verringern kann. Die Ergebnisse dieses Experiments zeigen zwar eine geringere Wiedererkennensleistung europäischer Versuchspersonen gegenüber Afrikanischen Gesichtern, verglichen mit der Wiedererkennensleistung für Europäische Gesichter, die Salienz der idiosynkratischen Gesichtsbewegung zeigte jedoch keinen Einfluss auf die Wiedererkennensleistung. Die Ergebnisse werden im Kontext der Ergebnisse der EEG Studie diskutiert. Zusammenfassend bieten die hier vorgestellten Daten weiteres Verständnis über das Zusammenspiel von stabilen und veränderlichen Gesichtscharakteristika bei der Gesichtsidentifikation. Es ist wichtig, die dynamische Komponente von Gesichtern zu berücksichtigen, wenn man ein ganzheitliches Bild über die Prozesse, die der Gesichtswahrnehmung und –erkennung zu Grunde liegen, gestalten will. KW - Gesicht KW - Wahrnehmung KW - Gesichtererkennung KW - Gesichtsdynamik KW - fMRT KW - Sehrinde KW - Avatar KW - face recognition KW - dynamic faces KW - face processing Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-70355 ER -