@phdthesis{Gall2022, author = {Gall, Dominik}, title = {Increasing the effectiveness of human-computer interfaces for mental health interventions}, doi = {10.25972/OPUS-23012}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-230120}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2022}, abstract = {Human-computer interfaces have the potential to support mental health practitioners in alleviating mental distress. Adaption of this technology in practice is, however, slow. We provide means to extend the design space of human-computer interfaces for mitigating mental distress. To this end, we suggest three complementary approaches: using presentation technology, using virtual environments, and using communication technology to facilitate social interaction. We provide new evidence that elementary aspects of presentation technology affect the emotional processing of virtual stimuli, that perception of our environment affects the way we assess our environment, and that communication technologies affect social bonding between users. By showing how interfaces modify emotional reactions and facilitate social interaction, we provide converging evidence that human-computer interfaces can help alleviate mental distress. These findings may advance the goal of adapting technological means to the requirements of mental health practitioners.}, subject = {Mensch-Maschine-Kommunikation}, language = {en} } @phdthesis{Leutert2021, author = {Leutert, Florian}, title = {Flexible Augmented Reality Systeme f{\"u}r robotergest{\"u}tzte Produktionsumgebungen}, isbn = {978-3-945459-39-3}, doi = {10.25972/OPUS-24972}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-249728}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2021}, abstract = {Produktionssysteme mit Industrierobotern werden zunehmend komplex; waren deren Arbeitsbereiche fr{\"u}her noch statisch und abgeschirmt, und die programmierten Abl{\"a}ufe gleichbleibend, so sind die Anforderungen an moderne Robotik-Produktionsanlagen gestiegen: Diese sollen sich jetzt mithilfe von intelligenter Sensorik auch in unstrukturierten Umgebungen einsetzen lassen, sich bei sinkenden Losgr{\"o}ßen aufgrund individualisierter Produkte und h{\"a}ufig {\"a}ndernden Produktionsaufgaben leicht rekonfigurieren lassen, und sogar eine direkte Zusammenarbeit zwischen Mensch und Roboter erm{\"o}glichen. Gerade auch bei dieser Mensch-Roboter-Kollaboration wird es damit notwendig, dass der Mensch die Daten und Aktionen des Roboters leicht verstehen kann. Aufgrund der gestiegenen Anforderungen m{\"u}ssen somit auch die Bedienerschnittstellen dieser Systeme verbessert werden. Als Grundlage f{\"u}r diese neuen Benutzerschnittstellen bietet sich Augmented Reality (AR) als eine Technologie an, mit der sich komplexe r{\"a}umliche Daten f{\"u}r den Bediener leicht verst{\"a}ndlich darstellen lassen. Komplexe Informationen werden dabei in der Arbeitsumgebung der Nutzer visualisiert und als virtuelle Einblendungen sichtbar gemacht, und so auf einen Blick verst{\"a}ndlich. Die diversen existierenden AR-Anzeigetechniken sind f{\"u}r verschiedene Anwendungsfelder unterschiedlich gut geeignet, und sollten daher flexibel kombinier- und einsetzbar sein. Auch sollen diese AR-Systeme schnell und einfach auf verschiedenartiger Hardware in den unterschiedlichen Arbeitsumgebungen in Betrieb genommen werden k{\"o}nnen. In dieser Arbeit wird ein Framework f{\"u}r Augmented Reality Systeme vorgestellt, mit dem sich die genannten Anforderungen umsetzen lassen, ohne dass daf{\"u}r spezialisierte AR-Hardware notwendig wird. Das Flexible AR-Framework kombiniert und b{\"u}ndelt daf{\"u}r verschiedene Softwarefunktionen f{\"u}r die grundlegenden AR-Anzeigeberechnungen, f{\"u}r die Kalibrierung der notwendigen Hardware, Algorithmen zur Umgebungserfassung mittels Structured Light sowie generische ARVisualisierungen und erlaubt es dadurch, verschiedene AR-Anzeigesysteme schnell und flexibel in Betrieb zu nehmen und parallel zu betreiben. Im ersten Teil der Arbeit werden Standard-Hardware f{\"u}r verschiedene AR-Visualisierungsformen sowie die notwendigen Algorithmen vorgestellt, um diese flexibel zu einem AR-System zu kombinieren. Dabei m{\"u}ssen die einzelnen verwendeten Ger{\"a}te pr{\"a}zise kalibriert werden; hierf{\"u}r werden verschiedene M{\"o}glichkeiten vorgestellt, und die mit ihnen dann erreichbaren typischen Anzeige- Genauigkeiten in einer Evaluation charakterisiert. Nach der Vorstellung der grundlegenden ARSysteme des Flexiblen AR-Frameworks wird dann eine Reihe von Anwendungen vorgestellt, bei denen das entwickelte System in konkreten Praxis-Realisierungen als AR-Benutzerschnittstelle zum Einsatz kam, unter anderem zur {\"U}berwachung von, Zusammenarbeit mit und einfachen Programmierung von Industrierobotern, aber auch zur Visualisierung von komplexen Sensordaten oder zur Fernwartung. Im Verlauf der Arbeit werden dadurch die Vorteile, die sich durch Verwendung der AR-Technologie in komplexen Produktionssystemen ergeben, herausgearbeitet und in Nutzerstudien belegt.}, subject = {Erweiterte Realit{\"a}t }, language = {de} } @phdthesis{Wiedemann2020, author = {Wiedemann, Katharina}, title = {Fr{\"u}hzeitige Informationen {\"u}ber Systemgrenzen beim hochautomatisierten Fahren}, doi = {10.25972/OPUS-21658}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-216581}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2020}, abstract = {Fahrzeughersteller haben die Verf{\"u}gbarkeit sogenannter hochautomatisierter Fahrfunktionen (SAE Level 3; SAE, 2018) in ihren Modellen angek{\"u}ndigt. Hierdurch wird der Fahrer in der Lage sein, sich permanent von der Fahraufgabe abzuwenden und fahrfremden T{\"a}tigkeiten nachzugehen. Allerdings muss er immer noch als R{\"u}ckfallebene zur Verf{\"u}gung stehen, um im Fall von Systemgrenzen oder -fehlern (siehe Gold, Naujoks, Radlmayr, Bellem \& Jarosch, 2017), die Fahrzeugkontrolle zu {\"u}bernehmen. Das {\"U}bernahmeerfordernis wird dem Fahrer durch die Ausgabe einer {\"U}bernameaufforderung vermittelt. Die {\"U}bernahme der manuellen Fahrzeugf{\"u}hrung aus dem hochautomatisierten Fahren stellt aus psychologischer Sicht einen Aufgabenwechsel dar. Bei der Untersuchung von Aufgabenwechseln im Bereich der kognitiven und angewandten Psychologie zeigte sich vielfach, dass Aufgabenwechsel mit verl{\"a}ngerten Reaktionszeiten und erh{\"o}hten Fehlerraten assoziiert sind. F{\"u}r den Anwendungsfall des automatisierten Fahrens liegen ebenfalls eine Reihe empirischer Studien vor, die darauf hinweisen, dass der Wechsel zum manuellen Fahren mit einer Verschlechterung der Fahrleistung gegen{\"u}ber dem manuellen Fahren verbunden ist. Da Erkenntnisse vorliegen, dass eine Vorbereitung auf den Aufgabenwechsel die zu erwartenden Kosten verringern kann, ist das Ziel dieser Arbeit die Konzeption und empirische Evaluation einer Mensch-Maschine-Schnittstelle, die Nutzer hochautomatisierter Fahrzeuge durch fr{\"u}hzeitige Vorinformationen {\"u}ber Systemgrenzen auf die Kontroll{\"u}bernahme vorbereitet. Drei Experimente im Fahrsimulator mit Bewegungssystem betrachteten jeweils unterschiedliche Aspekte fr{\"u}hzeitiger Vorinformationen {\"u}ber bevorstehende {\"U}bernahmen. Das erste Experiment untersuchte, ob Fahrer {\"u}berhaupt von fr{\"u}hzeitigen Situationsank{\"u}ndigungen, beispielsweise im Sinne einer verbesserten {\"U}bernahmeleistung, profitieren. Das zweite Experiment befasste sich mit der Frage, wie solche Ank{\"u}ndigungen zeitlich und inhaltlich zu gestalten sind (d. h. wann sie pr{\"a}sentiert werden und welche Informationen sie enthalten sollten), und welchen Einfluss deren Gestaltung auf die Aufgabenbearbeitung (insbesondere deren Unterbrechung und sp{\"a}tere Wiederaufnahme) w{\"a}hrend der automatisierten Fahrt hat. Um herauszufinden, wie ein Anzeigekonzept zur l{\"a}ngerfristigen Planung von fahrfremden T{\"a}tigkeiten w{\"a}hrend des automatisierten Fahrens beitragen k{\"o}nnte, fand im dritten Experiment ein Vergleich von Situationsank{\"u}ndigungen, die vor dem Erreichen einer {\"U}bernahmesituation ausgegeben wurden, mit kontinuierlich pr{\"a}sentierten Informationen {\"u}ber die verbleibende Distanz zur n{\"a}chsten Systemgrenze statt. In allen Studien wurde neben den Auswirkungen fr{\"u}hzeitiger Vorinformationen auf die {\"U}bernahmeleistung und Bearbeitung von fahrfremden T{\"a}tigkeiten auch untersucht, welche Auswirkungen ein erweitertes {\"U}bernahmekonzept auf die Fahrerreaktion in Grenz- und Fehlerf{\"a}llen, in denen Vorinformationen entweder nicht oder fehlerhaft angezeigt wurden, hat. F{\"u}r die Gestaltung zuk{\"u}nftiger {\"U}bernahmekonzepte f{\"u}r hochautomatisierte Fahrzeuge kann basierend auf den Ergebnissen empfohlen werden, fr{\"u}hzeitige Anzeigen von Systemgrenzen zur Erm{\"o}glichung eines sicheren und komfortablen Wechsels zwischen dem manuellen und dem automatisierten Fahren in die Mensch-Maschine-Schnittstelle zu integrieren. Basierend auf den Ergebnissen dieser Arbeit liegt der empfohlene Zeitpunkt f{\"u}r diskrete Ank{\"u}ndigungen bei einer Reisegeschwindigkeit von 120 km/h bei etwa 1000 Meter (d. h. ca. 30 Sekunden) vor der Ausgabe der {\"U}bernahmeaufforderung. Zudem wird empfohlen zur Absch{\"a}tzung der verbleibenden Zeit im automatisierten Modus eine Anzeige der Entfernung zur n{\"a}chsten Systemgrenze in das Konzept zu integrieren, die dem Fahrer eine l{\"a}ngerfristige Aufgabenplanung erm{\"o}glicht. Neben der reinen Anzeige des {\"U}bernahmeerfordernisses sollten dem Fahrer auch Informationen {\"u}ber das erforderliche Fahrman{\"o}ver nach der Kontroll{\"u}bernahme {\"u}bermittelt werden.}, subject = {Autonomes Fahrzeug}, language = {de} } @phdthesis{Aschenbrenner2017, author = {Aschenbrenner, Doris}, title = {Human Robot Interaction Concepts for Human Supervisory Control and Telemaintenance Applications in an Industry 4.0 Environment}, isbn = {978-3-945459-18-8}, doi = {10.25972/OPUS-15052}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-150520}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2017}, abstract = {While teleoperation of technical highly sophisticated systems has already been a wide field of research, especially for space and robotics applications, the automation industry has not yet benefited from its results. Besides the established fields of application, also production lines with industrial robots and the surrounding plant components are in need of being remotely accessible. This is especially critical for maintenance or if an unexpected problem cannot be solved by the local specialists. Special machine manufacturers, especially robotics companies, sell their technology worldwide. Some factories, for example in emerging economies, lack qualified personnel for repair and maintenance tasks. When a severe failure occurs, an expert of the manufacturer needs to fly there, which leads to long down times of the machine or even the whole production line. With the development of data networks, a huge part of those travels can be omitted, if appropriate teleoperation equipment is provided. This thesis describes the development of a telemaintenance system, which was established in an active production line for research purposes. The customer production site of Braun in Marktheidenfeld, a factory which belongs to Procter \& Gamble, consists of a six-axis cartesian industrial robot by KUKA Industries, a two-component injection molding system and an assembly unit. The plant produces plastic parts for electric toothbrushes. In the research projects "MainTelRob" and "Bayern.digital", during which this plant was utilised, the Zentrum f{\"u}r Telematik e.V. (ZfT) and its project partners develop novel technical approaches and procedures for modern telemaintenance. The term "telemaintenance" hereby refers to the integration of computer science and communication technologies into the maintenance strategy. It is particularly interesting for high-grade capital-intensive goods like industrial robots. Typical telemaintenance tasks are for example the analysis of a robot failure or difficult repair operations. The service department of KUKA Industries is responsible for the worldwide distributed customers who own more than one robot. Currently such tasks are offered via phone support and service staff which travels abroad. They want to expand their service activities on telemaintenance and struggle with the high demands of teleoperation especially regarding security infrastructure. In addition, the facility in Marktheidenfeld has to keep up with the high international standards of Procter \& Gamble and wants to minimize machine downtimes. Like 71.6 \% of all German companies, P\&G sees a huge potential for early information on their production system, but complains about the insufficient quality and the lack of currentness of data. The main research focus of this work lies on the human machine interface for all human tasks in a telemaintenance setup. This thesis provides own work in the use of a mobile device in context of maintenance, describes new tools on asynchronous remote analysis and puts all parts together in an integrated telemaintenance infrastructure. With the help of Augmented Reality, the user performance and satisfaction could be raised. A special regard is put upon the situation awareness of the remote expert realized by different camera viewpoints. In detail the work consists of: - Support of maintenance tasks with a mobile device - Development and evaluation of a context-aware inspection tool - Comparison of a new touch-based mobile robot programming device to the former teach pendant - Study on Augmented Reality support for repair tasks with a mobile device - Condition monitoring for a specific plant with industrial robot - Human computer interaction for remote analysis of a single plant cycle - A big data analysis tool for a multitude of cycles and similar plants - 3D process visualization for a specific plant cycle with additional virtual information - Network architecture in hardware, software and network infrastructure - Mobile device computer supported collaborative work for telemaintenance - Motor exchange telemaintenance example in running production environment - Augmented reality supported remote plant visualization for better situation awareness}, subject = {Fernwartung}, language = {en} } @phdthesis{Sauer2010, author = {Sauer, Markus}, title = {Mixed-Reality for Enhanced Robot Teleoperation}, isbn = {978-3-923959-67-9}, doi = {10.25972/OPUS-4666}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-55083}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2010}, abstract = {In den letzten Jahren ist die Forschung in der Robotik soweit fortgeschritten, dass die Mensch-Maschine Schnittstelle zunehmend die kritischste Komponente f{\"u}r eine hohe Gesamtperformanz von Systemen zur Navigation und Koordination von Robotern wird. In dieser Dissertation wird untersucht wie Mixed-Reality Technologien f{\"u}r Nutzerschnittstellen genutzt werden k{\"o}nnen, um diese Gesamtperformanz zu erh{\"o}hen. Hierzu werden Konzepte und Technologien entwickelt, die durch Evaluierung mit Nutzertest ein optimiertes und anwenderbezogenes Design von Mixed-Reality Nutzerschnittstellen erm{\"o}glichen. Er werden somit sowohl die technische Anforderungen als auch die menschlichen Faktoren f{\"u}r ein konsistentes Systemdesign ber{\"u}cksichtigt. Nach einer detaillierten Problemanalyse und der Erstellung eines Systemmodels, das den Menschen als Schl{\"u}sselkomponente mit einbezieht, wird zun{\"a}chst die Anwendung der neuartigen 3D-Time-of-Flight Kamera zur Navigation von Robotern, aber auch f{\"u}r den Einsatz in Mixed-Reality Schnittstellen analysiert und optimiert. Weiterhin wird gezeigt, wie sich der Netzwerkverkehr des Videostroms als wichtigstes Informationselement der meisten Nutzerschnittstellen f{\"u}r die Navigationsaufgabe auf der Netzwerk Applikationsebene in typischen Multi-Roboter Netzwerken mit dynamischen Topologien und Lastsituation optimieren l{\"a}sst. Hierdurch ist es m{\"o}glich in sonst in sonst typischen Ausfallszenarien den Videostrom zu erhalten und die Bildrate zu stabilisieren. Diese fortgeschrittenen Technologien werden dann auch dem entwickelten Konzept der generischen 3D Mixed Reality Schnittselle eingesetzt. Dieses Konzept erm{\"o}glicht eine integrierte 3D Darstellung der verf{\"u}gbaren Information, so dass r{\"a}umliche Beziehungen von Informationen aufrechterhalten werden und somit die Anzahl der mentalen Transformationen beim menschlichen Bediener reduziert wird. Gleichzeitig werden durch diesen Ansatz auch immersive Stereo Anzeigetechnologien unterst{\"u}tzt, welche zus{\"a}tzlich das r{\"a}umliche Verst{\"a}ndnis der entfernten Situation f{\"o}rdern. Die in der Dissertation vorgestellten und evaluierten Ans{\"a}tze nutzen auch die Tatsache, dass sich eine lokale Autonomie von Robotern heute sehr robust realisieren l{\"a}sst. Dies wird zum Beispiel zur Realisierung eines Assistenzsystems mit variabler Autonomie eingesetzt. Hierbei erh{\"a}lt der Fernbediener {\"u}ber eine Kraftr{\"u}ckkopplung kombiniert mit einer integrierten Augmented Reality Schnittstelle, einen Eindruck {\"u}ber die Situation am entfernten Arbeitsbereich, aber auch {\"u}ber die aktuelle Navigationsintention des Roboters. Die durchgef{\"u}hrten Nutzertests belegen die signifikante Steigerung der Navigationsperformanz durch den entwickelten Ansatz. Die robuste lokale Autonomie erm{\"o}glicht auch den in der Dissertation eingef{\"u}hrten Ansatz der pr{\"a}diktiven Mixed-Reality Schnittstelle. Die durch diesen Ansatz entkoppelte Regelschleife {\"u}ber den Menschen erm{\"o}glicht es die Sichtbarkeit von unvermeidbaren Systemverz{\"o}gerungen signifikant zu reduzieren. Zus{\"a}tzlich k{\"o}nnen durch diesen Ansatz beide f{\"u}r die Navigation hilfreichen Blickwinkel in einer 3D-Nutzerschnittstelle kombiniert werden - der exozentrische Blickwinkel und der egozentrische Blickwinkel als Augmented Reality Sicht.}, subject = {Mobiler Roboter}, language = {en} } @phdthesis{Driewer2008, author = {Driewer, Frauke}, title = {Teleoperation Interfaces in Human-Robot Teams}, isbn = {978-3-923959-57-0}, doi = {10.25972/OPUS-2955}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-36351}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2008}, abstract = {Diese Arbeit besch{\"a}ftigt sich mit der Verbesserung von Mensch-Roboter Interaktion in Mensch-Roboter Teams f{\"u}r Teleoperation Szenarien, wie z.B. robotergest{\"u}tzte Feuerwehreins{\"a}tze. Hierbei wird ein Konzept und eine Architektur f{\"u}r ein System zur Unterst{\"u}tzung von Teleoperation von Mensch-Roboter Teams vorgestellt. Die Anforderungen an Informationsaustausch und -verarbeitung, insbesondere f{\"u}r die Anwendung Rettungseinsatz, werden ausgearbeitet. Weiterhin wird das Design der Benutzerschnittstellen f{\"u}r Mensch-Roboter Teams dargestellt und Prinzipien f{\"u}r Teleoperation-Systeme und Benutzerschnittstellen erarbeitet. Alle Studien und Ans{\"a}tze werden in einem Prototypen-System implementiert und in verschiedenen Benutzertests abgesichert. Erweiterungsm{\"o}glichkeiten zum Einbinden von 3D Sensordaten und die Darstellung auf Stereovisualisierungssystemen werden gezeigt.}, subject = {Robotik}, language = {en} }