TY - THES A1 - Kluge, Boris T1 - Motion coordination for a mobile robot in dynamic environments N2 - Generating coordinated motion for a mobile robot operating in natural, continuously changing environments among moving obstacles such as humans is a complex task which requires the solution of various sub problems. In this thesis, we will cover the topics of perception and navigation in dynamic environments, as well as reasoning about the motion of the obstacles and of the robot itself. Perception is mainly considered for a laser range finder, and an according method for obstacle detection and tracking is proposed. Network optimization algorithms are used for data association in the tracking step, resulting in considerable robustness with respect to clutter by small objects. Navigation in general is accomplished using an adaptation of the velocity obstacle approach to the given vehicle kinematics, and cooperative motion coordination between the robot and a human guide is achieved using an appropriate selection rule for collision-free velocities. Next, the robot is enabled to compare its path to the path of a human guide using one of a collection of presented distance measures, which permits the detection of exceptional conditions. Furthermore, a taxonomy for the assessment of situations concerning the robot is presented, and following a summary of existing approaches to more intelligent and comprehensive perception, we propose a method for obstruction detection. Finally, a new approach to reflective navigation behaviors is described where the robot reasons about intelligent moving obstacles in its environment, which allows to adjust the character of the robot motion from regardful and defensive to more self-confident and aggressive behaviors. N2 - Die Realisierung einer koordinierten und effektiven Fortbewegung für einen mobilen Roboter in natürlichen, sich kontinuierlich verändernden Umgebungen unter sich ebenso bewegenden Hindernissen ist eine komplexe Aufgabe, die die Lösung einer Reihe von Unterproblemen voraussetzt. Die vorliegende Arbeit beschäftigt sich sowohl mit den Themen der Wahrnehmung und Fortbewegung in veränderlichen Umgebungen, als auch mit Methoden zur Analyse der Hindernisbewegungen in Zusammenhang mit der Roboterbewegung selbst. Die Wahrnehmung wird in erster Linie anhand von Laserscannern betrachtet, und ein entsprechendes Verfahren zur Hindernisdetektion und -verfolung wird vorgestellt. Dabei werden Verfahren der globalen Netzwerkoptimierung eingesetzt, um Korrespondenzen zwischen Objekten aus den Einzelbildern herzustellen, was sich positiv auf die Robustheit gegenüber Störungen durch sporadische kleine Objekte auswirkt. Die Navigation basiert auf einer Adaption des sog. "Velocity Obstacle" Ansatzes auf die vorhandene Fahrzeugkinematik, und eine kooperative Bewegungskoordination (Roboter begleitet Mensch) wird durch eine geeignete Auswahlregel für kollisionsfreie Geschwindigkeiten realisiert. Anschließend werden verschiedene Distanzmaße eingeführt, anhand derer sich etwa der Pfad des Roboters mit dem Pfad seiner Begleitperson vergleichen lässt. Weiter wird eine Klassifizierung von Situationen vorgenommen, in die der Roboter potentiell involviert sein kann, und nach einer Übersicht über existierende Ansätze zur automatischen Intentionserkennung wird ein praktikabler Ansatz zur Erkennung gezielter Behinderungen eines mobilen Roboters vorgestellt. Die Arbeit schließt mit einem neuen Ansatz der Bewegungsplanung in dynamischen Umgebungen, der auf rekursiven Modellen des Roboters von seinem Gegenüber basiert, d.h. der Roboter berechnet zunächst, wie er sich in der Situation des (intelligenten, beweglichen) Hindernisses fortbewegen würde, und bezieht dies in die Entscheidung über die eigene Fortbewegung mit ein. Je nach Rekursionstiefe entstehen hierdurch Verhaltensweisen unterschiedlichen Charakters für den Roboter. T2 - Bewegungskoordination für einen mobilen Roboter in dynamischen Umgebungen KW - Bewegungsablauf KW - Roboter KW - Roboter KW - Bewegungsplanung KW - dynamische Umgebungen KW - Robot KW - Motion Planning KW - Dynamic Environments Y1 - 2004 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-15508 ER - TY - THES A1 - Weinhard, Alexander T1 - Managing RFID Implementations - Implications for Managerial Decision Making T1 - Management von RFID-Implementierungen - Implikationen für die Management Entscheidungsfindung N2 - The present dissertation investigates the management of RFID implementations in retail trade. Our work contributes to this by investigating important aspects that have so far received little attention in scientific literature. We therefore perform three studies about three important aspects of managing RFID implementations. We evaluate in our first study customer acceptance of pervasive retail systems using privacy calculus theory. The results of our study reveal the most important aspects a retailer has to consider when implementing pervasive retail systems. In our second study we analyze RFID-enabled robotic inventory taking with the help of a simulation model. The results show that retailers should implement robotic inventory taking if the accuracy rates of the robots are as high as the robots’ manufacturers claim. In our third and last study we evaluate the potentials of RFID data for supporting managerial decision making. We propose three novel methods in order to extract useful information from RFID data and propose a generic information extraction process. Our work is geared towards practitioners who want to improve their RFID-enabled processes and towards scientists conducting RFID-based research. N2 - Die vorliegende Arbeit beschäftigt sich mit dem Management von RFID Implementierungen im Einzelhandel. Dabei leistet die Arbeit einen Beitrag, indem wichtige aber bisher in der wissenschaftlichen Fachliteratur nur wenig beachtete Aspekte beleuchtet werden. Hierfür werden drei Studien zu drei relevanten Managementaspekten durchgeführt. Zunächst wird die Kundenakzeptanz im Bezug auf pervasive Retail Applikationen betrachtet und mithilfe der Privacy Calculus Theorie ermittelt, welche Aspekte für die Kundenakzeptanz pervasiver Systeme besonders relevant sind. In Studie zwei wird eine RFID-gestützte Roboterinvnetur anhand einer Simulationsstudie evaluiert. Die Studie zeigt, dass eine durch Roboter durchgeführte Inventur für einen Einzelhändler zu empfehlen ist, falls die Roboter tatsächlich mit den von den Herstellern beworbenen Erkennungsraten arbeiten. In der dritten und letzten Studie werden die Potenziale von RFID-Daten zur Entscheidungsunterstützung des Managements evaluiert. Es werden drei Methoden vorgestellt um aus RFID-Daten nützliche Informationen zu gewinnen. Abschließend wird ein generisches Vorgehensmodell zur Informationsextraktion entwickelt. Die Arbeit ist sowohl an Praktiker gerichtet, die ihre RFID-basierten Prozesse verbessern möchten, als auch an Wissenschaftler die RFID-basierte Forschung betreiben. KW - RFID KW - Simulation KW - Management KW - Privatsphäre KW - Roboter KW - Data Analytics Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-178161 ER - TY - THES A1 - Stier, Simon T1 - Konzepte, Materialien und Verfahren für multimodale und hochintegrierte Elastomersensorik T1 - Concepts, Materials and Processes for Multimodal and Highly Integrated Elastomer Sensors N2 - Dielektrische Elastomersensoren sind aus Elastomermaterialien aufgebaute Sensoren mit einem kapazitiven Messprinzip. In ihrer einfachsten Form bestehen sie aus einer dehnbaren Elastomerfolie als Dielektrikum, die beidseitig mit leitfähigen und ebenfalls dehnbaren Schichten als Elektroden bedeckt ist. Damit entsteht ein mechanisch verformbarer elektrischer Kondensator, dessen Kapazität mit der Dehnung der Elastomerfolie stetig ansteigt. Neben solchen Dehnungssensoren lassen sich mit einem geeigneten geometrischen Aufbau auch dielektrische Elastomersensoren realisieren, bei denen eine elektrische Kapazität mit einem angelegten Druck bzw. einer Kraft auf die Oberfläche, mit einer Scherkraft oder mit der Annäherung eines elektrisch leitfähigen oder polarisierbaren Körpers wie z. B. der menschlichen Hand messbar ansteigt. Durch ihre vielfältige Funktion, intrinsische Verformbarkeit und flächige Ausgestaltung weisen Dielektrische Elastomersensoren erhebliches Potential in der Schaffung smarter, sensitiver Oberflächen auf. Dabei sind weitgehende und individuelle Adaptionen auf den jeweiligen Anwendungszweck durch Abstimmung geometrischer, mechanischer und elektrischer Eigenschaften möglich. Die bisherige Forschung beschränkt sich jedoch auf die Analyse und Optimierung einzelner Aspekte ohne das Potential einer übergreifenden systemischen Perspektive zu nutzen. Diese Arbeit widmet sich daher der Betrachtung der Sensorik als Gesamtsystem, sowohl horizontal - von abstrakten Modellen bis zur Fertigung und prototypischen Anwendung - als auch vertikal über die Komponenten Material, Struktur und Elektronik. Hierbei wurden in mehreren Teilgebieten eigenständige neue Erkenntnisse und Verbesserungen erzielt, die anschließend in die übergreifende Betrachtung des Gesamtsystems integriert wurden. So wurden in den theoretischen Vorarbeiten neue Konzepte zur ortsaufgelösten Erfassung mehrerer physikalischer Größen und zur elektrischen und mechanischen Modellierung entwickelt. Die abgeleiteten Materialanforderungen wurden in eine tiefgehende Charakterisierung der verwendeten Elastomer-Kompositwerkstoffe überführt, in der neuartige analytische Methoden in Form von dynamischer elektromechanischer Testung und nanoskaliger Computertomographie zur Aufklärung der inneren Wechselwirkungen zum Einsatz kamen. Im Bereich der automatisierten Prozessierung wurde ein für die komplexen mehrschichtigen Elektrodenstrukturen geeigneter neuer lasergestützer substraktiver Fertigungprozess etabliert, der zudem die Brücke zu elastischer Elektronik schlägt. In der abschließenden Anwendungsevaluierung wurden mehrere ortsaufgelöste und multimodale Gesamtsysteme aufgebaut und geeignete Messelektronik und Software entwickelt. Abschließend wurden die Systeme mit einem eigens entwickelten robotischen Testsystem charakterisiert und zudem das Potential der Auswertung mittels maschinellem Lernen aufgezeigt. N2 - Dielectric elastomer sensors are sensors constructed from elastomer materials with a capacitive measuring principle. In their simplest form, they consist of a stretchable elastomer film as dielectric, which is covered on both sides with conductive and also stretchable layers as electrodes. This creates a mechanically deformable electrical capacitor whose capacitance increases steadily with the stretching of the elastomer film. In addition to such strain sensors, with a suitable geometric design it is also possible to realize dielectric elastomer sensors in which an electrical capacitance increases measurably with an applied pressure or force on the surface, with a shear force or with the approach of an electrically conductive or polarizable body such as the human hand. Due to their versatile function, intrinsic deformability and flat design, dielectric elastomer sensors have considerable potential in the creation of smart, sensitive surfaces. Extensive and individual adaptations to the respective application purpose are possible by matching geometric, mechanical and electrical properties. However, research to date has been limited to the analysis and optimization of individual aspects without exploiting the potential of an overarching systemic perspective. This work is therefore certainly dedicated to the consideration of sensor technology as an overall system, both horizontally - from abstract modeling to manufacturing and prototypical application - and vertically via the components material, structure and electronics. In this context, individual new findings and improvements were achieved in several sub-areas, which were subsequently integrated into the overall consideration of the entire system. Thus, in the preliminary theoretical work, new concepts were developed for the spatially resolved measurement of multiple physical quantities and for electrical and mechanical modeling. The derived material requirements were transferred into an in-depth characterization of the elastomer composite materials used, in which novel analytical methods in the form of dynamic electro-mechanical testing and nanoscale computer tomography were applied to elucidate the internal mechanisms of interaction. In the area of automated processing, a new laser-based subtractive manufacturing process suitable for the complex multilayer electrode structures was established, which also bridges the gap to stretchable electronics. In the final application evaluation, several spatially resolved and multimodal sensor systems were built and suitable measurement electronics and software were developed. Finally, the systems were characterized with a specially developed robotic test system and, in addition, the potential of evaluation by means of machine learning was demonstrated. KW - Taktiler Sensor KW - Silicone KW - Schaltungsentwurf KW - Roboter KW - Künstliche Intelligenz KW - Dielektrische Elastomersensoren KW - Mikroelektronik KW - Laserstrukturierung KW - Moultimodale Sensorik KW - Roboter Sensorhaut KW - Dielectric Elastomer Sensors KW - Mikroelektronik KW - Laser structuring KW - Multimodal sensors KW - Robot Sensor Skin Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-260875 ER - TY - THES A1 - Paul, Dietmar Nikolai Vincent T1 - Funktionelle und radiologische Ergebnisse nach roboterassistierter Implantation zementfreier Hüfttotalendoprothesen mit dem System CASPAR T1 - Clinical and Radiological Outcome Following Robotic Assisted Total Hip Replacement Surgery with the System CASPAR N2 - In der Zeit von Juni 1999 bis März 2001 wurden an der Chirurgischen Klinik Rastatt bei 40 Patienten insgesamt 43 computer- und roboterunterstützte zementfreie Hüfttotalendoprothesen mit dem System CASPAR geplant und implantiert. Von den 43 geplanten Hüftprothesenimplantationen konnten alle 40 Patienten (100%) mit diesem Verfahren operiert werden. 3 Patienten erhielten jeweils im Abstand von 12 Monaten eine zementfreie Hüftprothese mittels CASPAR-Fräsung auf der Gegenseite. Einen Abbruch der Operation aufgrund technischer Probleme fand sich in keinem Fall. In einer mittelfristigen Nachuntersuchung aller Patienten wurden wichtige klinische Parameter wie Schmerzempfinden, Beweglichkeit im Hüftgelenk und Mobilität im täglichen Leben erhoben. Diese Parameter wurden im Harris Hip Score und im Index nach Merle d ́Aubigné zusammengefasst. Zudem erfolgten radiologische Vergleichsaufnahmen als Kontrolle zu den unmittelbar postoperativ erstellten Röntgenbildern. Zusammenfassend ergibt die Auswertung des Harris Hip Score eine Verteilung von 38 Patienten in der Kategorie „sehr gut“ und 2 Patienten in der Kategorie „gut“. In dem Index nach Merle d ́Aubigné zusammengefasst zeigten die Untersuchungen ebenfalls ausgesprochen gute Ergebnisse. Hier fanden sich 36 Patienten in der Kategorie „sehr gut“. Die restlichen 4 Patienten erfüllten die Kriterien für ein „gut“. Dieses hervorragende outcome schlug sich in der Patientenzufriedenheit nieder. Die Bewegungsausmaße der mittels roboterassistierten Hüfte zeigten sehr gute Werte. In diesem Zusammenhang konnte auch in keinem Fall eine Schädigung mit Beeinträchtigung der pelvitrochantären Muskulatur festgestellt werden. Ein positives Trendelenburg- Zeichen fand sich bei keinem von uns mit CASPAR operierten Patienten. Die radiologischen Ergebnisse der robotergefrästen zementfrei implantierten Hüfttotalendoprothesen ergaben sehr gute Ergebnisse. Eine Lockerung oder Schaftsinterung konnte ebenso wenig wie eine Fehlpositionierung des Prothesenschaftes festgestellt werden. Insgesamt erbringt die Nachuntersuchung unserer mittels CASPAR-assistierten Patienten weitaus weniger Komplikationen als zum Teil in der Literatur beschrieben. Insbesondere die häufig erwähnten Weichteilschäden und Bewegungseinschränkungen, die durch Roboter verursacht sind, können wir nicht nachvollziehen. N2 - A total of 43 computer- and robot-assisted cementless total hip endoprostheses were implanted into 40 patients using the CASPAR system at the Surgical Clinic in Rastatt between June 1999 and March 2001. Of the 43 planned hip prosthesis implants, all 40 patients (100 %) could be operated on using this approach. After a 12 month interval, 3 of the patients also received a cementless hip prosthesis on the opposite side by CASPAR-milling. There were no cases of surgical failure due to technical problems. In a midterm postoperative follow-up of all patients, all important clinical parameters such as pain, hip joint flexibility, as well as general mobility were examined. These parameters were summarized in the Harris Hip score and in the scoring system according to Merle d’Aubigné and Postel. In addition, comparison radiographs served as controls to the immediately postoperative X-Rays. In summary, an analysis of the Harris Hip score showed a distribution of 38 patients in the category “very good” and 2 patients in the category “good”. The follow-up results were also markedly good according to the Merle d’Aubigné and Postel scoring system. Here, 36 patients were assigned to the category “very good”, while the other 4 patients satisfied the criteria for “good”. This outstanding outcome was reflected in patient satisfaction. The movement data of the robot-assisted hip were very good. In this context there were no cases of impairment of the musculature of the pelvis-trochanter. There were also no positive Trendelenburg’s signs found with any of our CASPAR operated patients. In conclusion, the robot-assisted cementless total hip arthroplasties yielded very good results. A stem loosening or subsidence or a false positioning of the stem shaft could also not be found. Altogether, the post-operative checkup of our CASPAR-assisted patients showed far fewer complications than is described in the literature. In particular, we could not retrace the robot-induced often mentioned soft tissue injuries and restrictions in mobility. KW - Implantation KW - Roboter KW - Hüftgelenkarthrose KW - Hüfttotalendoprothese KW - CASPAR KW - roboterassistierte Hüftprothetik KW - Harris Hip Score KW - Merle d´Aubigné Index KW - robot-assisted hip replacement surgery KW - follow-up KW - cementless total hip arthroplasties KW - Harris Hip Score KW - Trendelenburg´s sign Y1 - 2007 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-24060 ER - TY - THES A1 - Menne, Isabelle M. T1 - Facing Social Robots – Emotional Reactions towards Social Robots N2 - Ein Army Colonel empfindet Mitleid mit einem Roboter, der versuchsweise Landminen entschärft und deklariert den Test als inhuman (Garreau, 2007). Roboter bekommen militärische Beförderungen, Beerdigungen und Ehrenmedaillen (Garreau, 2007; Carpenter, 2013). Ein Schildkrötenroboter wird entwickelt, um Kindern beizubringen, Roboter gut zu behandeln (Ackermann, 2018). Der humanoide Roboter Sophia wurde erst kürzlich Saudi-Arabischer Staatsbürger und es gibt bereits Debatten, ob Roboter Rechte bekommen sollen (Delcker, 2018). Diese und ähnliche Entwicklungen zeigen schon jetzt die Bedeutsamkeit von Robotern und die emotionale Wirkung die diese auslösen. Dennoch scheinen sich diese emotionalen Reaktionen auf einer anderen Ebene abzuspielen, gemessen an Kommentaren in Internetforen. Dort ist oftmals die Rede davon, wieso jemand überhaupt emotional auf einen Roboter reagieren kann. Tatsächlich ist es, rein rational gesehen, schwierig zu erklären, warum Menschen mit einer leblosen (‚mindless‘) Maschine mitfühlen sollten. Und dennoch zeugen nicht nur oben genannte Berichte, sondern auch erste wissenschaftliche Studien (z.B. Rosenthal- von der Pütten et al., 2013) von dem emotionalen Einfluss den Roboter auf Menschen haben können. Trotz der Bedeutsamkeit der Erforschung emotionaler Reaktionen auf Roboter existieren bislang wenige wissenschaftliche Studien hierzu. Tatsächlich identifizierten Kappas, Krumhuber und Küster (2013) die systematische Analyse und Evaluation sozialer Reaktionen auf Roboter als eine der größten Herausforderungen der affektiven Mensch-Roboter Interaktion. Nach Scherer (2001; 2005) bestehen Emotionen aus der Koordination und Synchronisation verschiedener Komponenten, die miteinander verknüpft sind. Motorischer Ausdruck (Mimik), subjektives Erleben, Handlungstendenzen, physiologische und kognitive Komponenten gehören hierzu. Um eine Emotion vollständig zu erfassen, müssten all diese Komponenten gemessen werden, jedoch wurde eine solch umfassende Analyse bisher noch nie durchgeführt (Scherer, 2005). Hauptsächlich werden Fragebögen eingesetzt (vgl. Bethel & Murphy, 2010), die allerdings meist nur das subjektive Erleben abfragen. Bakeman und Gottman (1997) geben sogar an, dass nur etwa 8% der psychologischen Forschung auf Verhaltensdaten basiert, obwohl die Psychologie traditionell als das ‚Studium von Psyche und Verhalten‘ (American Psychological Association, 2018) definiert wird. Die Messung anderer Emotionskomponenten ist selten. Zudem sind Fragebögen mit einer Reihe von Nachteilen behaftet (Austin, Deary, Gibson, McGregor, Dent, 1998; Fan et al., 2006; Wilcox, 2011). Bethel und Murphy (2010) als auch Arkin und Moshkina (2015) plädieren für einen Multi-Methodenansatz um ein umfassenderes Verständnis von affektiven Prozessen in der Mensch-Roboter Interaktion zu erlangen. Das Hauptziel der vorliegenden Dissertation ist es daher, mithilfe eines Multi-Methodenansatzes verschiedene Komponenten von Emotionen (motorischer Ausdruck, subjektive Gefühlskomponente, Handlungstendenzen) zu erfassen und so zu einem vollständigeren und tiefgreifenderem Bild emotionaler Prozesse auf Roboter beizutragen. Um dieses Ziel zu erreichen, wurden drei experimentelle Studien mit insgesamt 491 Teilnehmern durchgeführt. Mit unterschiedlichen Ebenen der „apparent reality“ (Frijda, 2007) sowie Macht / Kontrolle über die Situation (vgl. Scherer & Ellgring, 2007) wurde untersucht, inwiefern sich Intensität und Qualität emotionaler Reaktionen auf Roboter ändern und welche weiteren Faktoren (Aussehen des Roboters, emotionale Expressivität des Roboters, Behandlung des Roboters, Autoritätsstatus des Roboters) Einfluss ausüben. Experiment 1 basierte auf Videos, die verschiedene Arten von Robotern (tierähnlich, anthropomorph, maschinenartig), die entweder emotional expressiv waren oder nicht (an / aus) in verschiedenen Situationen (freundliche Behandlung des Roboters vs. Misshandlung) zeigten. Fragebögen über selbstberichtete Gefühle und die motorisch-expressive Komponente von Emotionen: Mimik (vgl. Scherer, 2005) wurden analysiert. Das Facial Action Coding System (Ekman, Friesen, & Hager, 2002), die umfassendste und am weitesten verbreitete Methode zur objektiven Untersuchung von Mimik, wurde hierfür verwendet. Die Ergebnisse zeigten, dass die Probanden Gesichtsausdrücke (Action Unit [AU] 12 und AUs, die mit positiven Emotionen assoziiert sind, sowie AU 4 und AUs, die mit negativen Emotionen assoziiert sind) sowie selbstberichtete Gefühle in Übereinstimmung mit der Valenz der in den Videos gezeigten Behandlung zeigten. Bei emotional expressiven Robotern konnten stärkere emotionale Reaktionen beobachtet werden als bei nicht-expressiven Robotern. Der tierähnliche Roboter Pleo erfuhr in der Misshandlungs-Bedingung am meisten Mitleid, Empathie, negative Gefühle und Traurigkeit, gefolgt vom anthropomorphen Roboter Reeti und am wenigsten für den maschinenartigen Roboter Roomba. Roomba wurde am meisten Antipathie zugeschrieben. Die Ergebnisse knüpfen an frühere Forschungen an (z.B. Krach et al., 2008; Menne & Schwab, 2018; Riek et al., 2009; Rosenthal-von der Pütten et al., 2013) und zeigen das Potenzial der Mimik für eine natürliche Mensch-Roboter Interaktion. Experiment 2 und Experiment 3 übertrugen die klassischen Experimente von Milgram (1963; 1974) zum Thema Gehorsam in den Kontext der Mensch-Roboter Interaktion. Die Gehorsamkeitsstudien von Milgram wurden als sehr geeignet erachtet, um das Ausmaß der Empathie gegenüber einem Roboter im Verhältnis zum Gehorsam gegenüber einem Roboter zu untersuchen. Experiment 2 unterschied sich von Experiment 3 in der Ebene der „apparent reality“ (Frijda, 2007): in Anlehnung an Milgram (1963) wurde eine rein text-basierte Studie (Experiment 2) einer live Mensch-Roboter Interaktion (Experiment 3) gegenübergestellt. Während die abhängigen Variablen von Experiment 2 aus den Selbstberichten emotionaler Gefühle sowie Einschätzungen des hypothetischen Verhaltens bestand, erfasste Experiment 3 subjektive Gefühle sowie reales Verhalten (Reaktionszeit: Dauer des Zögerns; Gehorsamkeitsrate; Anzahl der Proteste; Mimik) der Teilnehmer. Beide Experimente untersuchten den Einfluss der Faktoren „Autoritätsstatus“ (hoch / niedrig) des Roboters, der die Befehle erteilt (Nao) und die emotionale Expressivität (an / aus) des Roboters, der die Strafen erhält (Pleo). Die subjektiven Gefühle der Teilnehmer aus Experiment 2 unterschieden sich zwischen den Gruppen nicht. Darüber hinaus gaben nur wenige Teilnehmer (20.2%) an, dass sie den „Opfer“-Roboter definitiv bestrafen würden. Ein ähnliches Ergebnis fand auch Milgram (1963). Das reale Verhalten von Versuchsteilnehmern in Milgrams‘ Labor-Experiment unterschied sich jedoch von Einschätzungen hypothetischen Verhaltens von Teilnehmern, denen Milgram das Experiment nur beschrieben hatte. Ebenso lassen Kommentare von Teilnehmern aus Experiment 2 darauf schließen, dass das beschriebene Szenario möglicherweise als fiktiv eingestuft wurde und Einschätzungen von hypothetischem Verhalten daher kein realistisches Bild realen Verhaltens gegenüber Roboter in einer live Interaktion zeichnen können. Daher wurde ein weiteres Experiment (Experiment 3) mit einer Live Interaktion mit einem Roboter als Autoritätsfigur (hoher Autoritätsstatus vs. niedriger) und einem weiteren Roboter als „Opfer“ (emotional expressiv vs. nicht expressiv) durchgeführt. Es wurden Gruppenunterschiede in Fragebögen über emotionale Reaktionen gefunden. Dem emotional expressiven Roboter wurde mehr Empathie entgegengebracht und es wurde mehr Freude und weniger Antipathie berichtet als gegenüber einem nicht-expressiven Roboter. Außerdem konnten Gesichtsausdrücke beobachtet werden, die mit negativen Emotionen assoziiert sind während Probanden Nao’s Befehl ausführten und Pleo bestraften. Obwohl Probanden tendenziell länger zögerten, wenn sie einen emotional expressiven Roboter bestrafen sollten und der Befehl von einem Roboter mit niedrigem Autoritätsstatus kam, wurde dieser Unterschied nicht signifikant. Zudem waren alle bis auf einen Probanden gehorsam und bestraften Pleo, wie vom Nao Roboter befohlen. Dieses Ergebnis steht in starkem Gegensatz zu dem selbstberichteten hypothetischen Verhalten der Teilnehmer aus Experiment 2 und unterstützt die Annahme, dass die Einschätzungen von hypothetischem Verhalten in einem Mensch-Roboter-Gehorsamkeitsszenario nicht zuverlässig sind für echtes Verhalten in einer live Mensch-Roboter Interaktion. Situative Variablen, wie z.B. der Gehorsam gegenüber Autoritäten, sogar gegenüber einem Roboter, scheinen stärker zu sein als Empathie für einen Roboter. Dieser Befund knüpft an andere Studien an (z.B. Bartneck & Hu, 2008; Geiskkovitch et al., 2016; Menne, 2017; Slater et al., 2006), eröffnet neue Erkenntnisse zum Einfluss von Robotern, zeigt aber auch auf, dass die Wahl einer Methode um Empathie für einen Roboter zu evozieren eine nicht triviale Angelegenheit ist (vgl. Geiskkovitch et al., 2016; vgl. Milgram, 1965). Insgesamt stützen die Ergebnisse die Annahme, dass die emotionalen Reaktionen auf Roboter tiefgreifend sind und sich sowohl auf der subjektiven Ebene als auch in der motorischen Komponente zeigen. Menschen reagieren emotional auf einen Roboter, der emotional expressiv ist und eher weniger wie eine Maschine aussieht. Sie empfinden Empathie und negative Gefühle, wenn ein Roboter misshandelt wird und diese emotionalen Reaktionen spiegeln sich in der Mimik. Darüber hinaus unterscheiden sich die Einschätzungen von Menschen über ihr eigenes hypothetisches Verhalten von ihrem tatsächlichen Verhalten, weshalb videobasierte oder live Interaktionen zur Analyse realer Verhaltensreaktionen empfohlen wird. Die Ankunft sozialer Roboter in der Gesellschaft führt zu nie dagewesenen Fragen und diese Dissertation liefert einen ersten Schritt zum Verständnis dieser neuen Herausforderungen. N2 - An Army Colonel feels sorry for a robot that defuses landmines on a trial basis and declares the test inhumane (Garreau, 2007). Robots receive military promotions, funerals and medals of honor (Garreau, 2007; Carpenter, 2013). A turtle robot is being developed to teach children to treat robots well (Ackermann, 2018). The humanoid robot Sophia recently became a Saudi Arabian citizen and there are now debates whether robots should have rights (Delcker, 2018). These and similar developments already show the importance of robots and the emotional impact they have. Nevertheless, these emotional reactions seem to take place on a different level, judging by comments in internet forums alone: Most often, emotional reactions towards robots are questioned if not denied at all. In fact, from a purely rational point of view, it is difficult to explain why people should empathize with a mindless machine. However, not only the reports mentioned above but also first scientific studies (e.g. Rosenthal- von der Pütten et al., 2013) bear witness to the emotional influence of robots on humans. Despite the importance of researching emotional reactions towards robots, there are few scientific studies on this subject. In fact, Kappas, Krumhuber and Küster (2013) identified effective testing and evaluation of social reactions towards robots as one of the major challenges of affective Human-Robot Interaction (HRI). According to Scherer (2001; 2005), emotions consist of the coordination and synchronization of different components that are linked to each other. These include motor expression (facial expressions), subjective experience, action tendencies, physiological and cognitive components. To fully capture an emotion, all these components would have to be measured, but such a comprehensive analysis has never been performed (Scherer, 2005). Primarily, questionnaires are used (cf. Bethel & Murphy, 2010) but most of them only capture subjective experiences. Bakeman and Gottman (1997) even state that only about 8% of psychological research is based on behavioral data, although psychology is traditionally defined as the 'study of the mind and behavior' (American Psychological Association, 2018). The measurement of other emotional components is rare. In addition, questionnaires have a number of disadvantages (Austin, Deary, Gibson, McGregor, Dent, 1998; Fan et al., 2006; Wilcox, 2011). Bethel and Murphy (2010) as well as Arkin and Moshkina (2015) argue for a multi-method approach to achieve a more comprehensive understanding of affective processes in HRI. The main goal of this dissertation is therefore to use a multi-method approach to capture different components of emotions (motor expression, subjective feeling component, action tendencies) and thus contribute to a more complete and profound picture of emotional processes towards robots. To achieve this goal, three experimental studies were conducted with a total of 491 participants. With different levels of ‘apparent reality’ (Frijda, 2007) and power/control over the situation (cf. Scherer & Ellgring, 2007), the extent to which the intensity and quality of emotional responses to robots change were investigated as well as the influence of other factors (appearance of the robot, emotional expressivity of the robot, treatment of the robot, authority status of the robot). Experiment 1 was based on videos showing different types of robots (animal-like, anthropomorphic, machine-like) in different situations (friendly treatment of the robot vs. torture treatment) while being either emotionally expressive or not. Self-reports of feelings as well as the motoric-expressive component of emotion: facial expressions (cf. Scherer, 2005) were analyzed. The Facial Action Coding System (Ekman, Friesen, & Hager, 2002), the most comprehensive and most widely used method for objectively assessing facial expressions, was utilized for this purpose. Results showed that participants displayed facial expressions (Action Unit [AU] 12 and AUs associated with positive emotions as well as AU 4 and AUs associated with negative emotions) as well as self-reported feelings in line with the valence of the treatment shown in the videos. Stronger emotional reactions could be observed for emotionally expressive robots than non-expressive robots. Most pity, empathy, negative feelings and sadness were reported for the animal-like robot Pleo while watching it being tortured, followed by the anthropomorphic robot Reeti and least for the machine-like robot Roomba. Most antipathy was attributed to Roomba. The findings are in line with previous research (e.g., Krach et al., 2008; Menne & Schwab, 2018; Riek et al., 2009; Rosenthal-von der Pütten et al., 2013) and show facial expressions’ potential for a natural HRI. Experiment 2 and Experiment 3 transferred Milgram’s classic experiments (1963; 1974) on obedience into the context of HRI. Milgram’s obedience studies were deemed highly suitable to study the extent of empathy towards a robot in relation to obedience to a robot. Experiment 2 differed from Experiment 3 in the level of ‘apparent reality’ (Frijda, 2007): based on Milgram (1963), a purely text-based study (Experiment 2) was compared with a live HRI (Experiment 3). While the dependent variables of Experiment 2 consisted of self-reports of emotional feelings and assessments of hypothetical behavior, Experiment 3 measured subjective feelings and real behavior (reaction time: duration of hesitation; obedience rate; number of protests; facial expressions) of the participants. Both experiments examined the influence of the factors "authority status" (high / low) of the robot giving the orders (Nao) and the emotional expressivity (on / off) of the robot receiving the punishments (Pleo). The subjective feelings of the participants from Experiment 2 did not differ between the groups. In addition, only few participants (20.2%) stated that they would definitely punish the "victim" robot. Milgram (1963) found a similar result. However, the real behavior of participants in Milgram's laboratory experiment differed from the estimates of hypothetical behavior of participants to whom Milgram had only described the experiment. Similarly, comments from participants in Experiment 2 suggest that the scenario described may have been considered fictitious and that assessments of hypothetical behavior may not provide a realistic picture of real behavior towards robots in a live interaction. Therefore, another experiment (Experiment 3) was performed with a live interaction with a robot as authority figure (high authority status vs. low) and another robot as "victim" (emotional expressive vs. non-expressive). Group differences were found in questionnaires on emotional responses. More empathy was shown for the emotionally expressive robot and more joy and less antipathy was reported than for a non-expressive robot. In addition, facial expressions associated with negative emotions could be observed while subjects executed Nao's command and punished Pleo. Although subjects tended to hesitate longer when punishing an emotionally expressive robot and the order came from a robot with low authority status, this difference did not reach significance. Furthermore, all but one subject were obedient and punished Pleo as commanded by the Nao robot. This result stands in stark contrast to the self-reported hypothetical behavior of the participants from Experiment 2 and supports the assumption that the assessments of hypothetical behavior in a Human-Robot obedience scenario are not reliable for real behavior in a live HRI. Situational variables, such as obedience to authorities, even to a robot, seem to be stronger than empathy for a robot. This finding is in line with previous studies (e.g. Bartneck & Hu, 2008; Geiskkovitch et al., 2016; Menne, 2017; Slater et al., 2006), opens up new insights into the influence of robots, but also shows that the choice of a method to evoke empathy for a robot is not a trivial matter (cf. Geiskkovitch et al., 2016; cf. Milgram, 1965). Overall, the results support the assumption that emotional reactions to robots are profound and manifest both at the subjective level and in the motor component. Humans react emotionally to a robot that is emotionally expressive and looks less like a machine. They feel empathy and negative feelings when a robot is abused and these emotional reactions are reflected in facial expressions. In addition, people's assessments of their own hypothetical behavior differ from their actual behavior, which is why video-based or live interactions are recommended for analyzing real behavioral responses. The arrival of social robots in society leads to unprecedented questions and this dissertation provides a first step towards understanding these new challenges. N2 - Are there emotional reactions towards social robots? Could you love a robot? Or, put the other way round: Could you mistreat a robot, tear it apart and sell it? Media reports people honoring military robots with funerals, mourning the “death” of a robotic dog, and granting the humanoid robot Sophia citizenship. But how profound are these reactions? Three experiments take a closer look on emotional reactions towards social robots by investigating the subjective experience of people as well as the motor expressive level. Contexts of varying degrees of Human-Robot Interaction (HRI) sketch a nuanced picture of emotions towards social robots that encompass conscious as well as unconscious reactions. The findings advance the understanding of affective experiences in HRI. It also turns the initial question into: Can emotional reactions towards social robots even be avoided? T2 - Im Angesicht sozialer Roboter - Emotionale Reaktionen angesichts sozialer Roboter KW - Roboter KW - social robot KW - emotion KW - FACS KW - Facial Action Coding System KW - facial expressions KW - emotional reaction KW - Human-Robot Interaction KW - HRI KW - obedience KW - empathy KW - Gefühl KW - Mimik KW - Mensch-Maschine-Kommunikation Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-187131 SN - 978-3-95826-120-4 SN - 978-3-95826-121-1 N1 - Parallel erschienen als Druckausgabe in Würzburg University Press, 978-3-95826-120-4, 27,80 EUR. PB - Würzburg University Press CY - Würzburg ET - 1. Auflage ER -