Doctoral Thesis
Refine
Has Fulltext
- yes (6)
Is part of the Bibliography
- yes (6)
Document Type
- Doctoral Thesis (6) (remove)
Keywords
- Mensch-Maschine-Schnittstelle (6) (remove)
Institute
Sonstige beteiligte Institutionen
Human-computer interfaces have the potential to support mental health practitioners in alleviating mental distress.
Adaption of this technology in practice is, however, slow.
We provide means to extend the design space of human-computer interfaces for mitigating mental distress.
To this end, we suggest three complementary approaches: using presentation technology, using virtual environments, and using communication technology to facilitate social interaction.
We provide new evidence that elementary aspects of presentation technology affect the emotional processing of virtual stimuli, that perception of our environment affects the way we assess our environment, and that communication technologies affect social bonding between users.
By showing how interfaces modify emotional reactions and facilitate social interaction, we provide converging evidence that human-computer interfaces can help alleviate mental distress.
These findings may advance the goal of adapting technological means to the requirements of mental health practitioners.
Produktionssysteme mit Industrierobotern werden zunehmend komplex; waren deren Arbeitsbereiche früher noch statisch und abgeschirmt, und die programmierten Abläufe gleichbleibend, so sind die Anforderungen an moderne Robotik-Produktionsanlagen gestiegen: Diese sollen sich jetzt mithilfe von intelligenter Sensorik auch in unstrukturierten Umgebungen einsetzen lassen, sich bei sinkenden Losgrößen aufgrund individualisierter Produkte und häufig ändernden Produktionsaufgaben leicht rekonfigurieren lassen, und sogar eine direkte Zusammenarbeit zwischen Mensch und Roboter ermöglichen. Gerade auch bei dieser Mensch-Roboter-Kollaboration wird es damit notwendig, dass der Mensch die Daten und Aktionen des Roboters leicht verstehen kann. Aufgrund der gestiegenen Anforderungen müssen somit auch die Bedienerschnittstellen dieser Systeme verbessert werden. Als Grundlage für diese neuen Benutzerschnittstellen bietet sich Augmented Reality (AR) als eine Technologie an, mit der sich komplexe räumliche Daten für den Bediener leicht verständlich darstellen lassen. Komplexe Informationen werden dabei in der Arbeitsumgebung der Nutzer visualisiert und als virtuelle Einblendungen sichtbar gemacht, und so auf einen Blick verständlich. Die diversen existierenden AR-Anzeigetechniken sind für verschiedene Anwendungsfelder unterschiedlich gut geeignet, und sollten daher flexibel kombinier- und einsetzbar sein. Auch sollen diese AR-Systeme schnell und einfach auf verschiedenartiger Hardware in den unterschiedlichen Arbeitsumgebungen in Betrieb genommen werden können. In dieser Arbeit wird ein Framework für Augmented Reality Systeme vorgestellt, mit dem sich die genannten Anforderungen umsetzen lassen, ohne dass dafür spezialisierte AR-Hardware notwendig wird. Das Flexible AR-Framework kombiniert und bündelt dafür verschiedene Softwarefunktionen für die grundlegenden AR-Anzeigeberechnungen, für die Kalibrierung der notwendigen Hardware, Algorithmen zur Umgebungserfassung mittels Structured Light sowie generische ARVisualisierungen und erlaubt es dadurch, verschiedene AR-Anzeigesysteme schnell und flexibel in Betrieb zu nehmen und parallel zu betreiben. Im ersten Teil der Arbeit werden Standard-Hardware für verschiedene AR-Visualisierungsformen sowie die notwendigen Algorithmen vorgestellt, um diese flexibel zu einem AR-System zu kombinieren. Dabei müssen die einzelnen verwendeten Geräte präzise kalibriert werden; hierfür werden verschiedene Möglichkeiten vorgestellt, und die mit ihnen dann erreichbaren typischen Anzeige- Genauigkeiten in einer Evaluation charakterisiert. Nach der Vorstellung der grundlegenden ARSysteme des Flexiblen AR-Frameworks wird dann eine Reihe von Anwendungen vorgestellt, bei denen das entwickelte System in konkreten Praxis-Realisierungen als AR-Benutzerschnittstelle zum Einsatz kam, unter anderem zur Überwachung von, Zusammenarbeit mit und einfachen Programmierung von Industrierobotern, aber auch zur Visualisierung von komplexen Sensordaten oder zur Fernwartung. Im Verlauf der Arbeit werden dadurch die Vorteile, die sich durch Verwendung der AR-Technologie in komplexen Produktionssystemen ergeben, herausgearbeitet und in Nutzerstudien belegt.
Fahrzeughersteller haben die Verfügbarkeit sogenannter hochautomatisierter Fahrfunktionen (SAE Level 3; SAE, 2018) in ihren Modellen angekündigt. Hierdurch wird der Fahrer in der Lage sein, sich permanent von der Fahraufgabe abzuwenden und fahrfremden Tätigkeiten nachzugehen. Allerdings muss er immer noch als Rückfallebene zur Verfügung stehen, um im Fall von Systemgrenzen oder -fehlern (siehe Gold, Naujoks, Radlmayr, Bellem & Jarosch, 2017), die Fahrzeugkontrolle zu übernehmen. Das Übernahmeerfordernis wird dem Fahrer durch die Ausgabe einer Übernameaufforderung vermittelt. Die Übernahme der manuellen Fahrzeugführung aus dem hochautomatisierten Fahren stellt aus psychologischer Sicht einen Aufgabenwechsel dar. Bei der Untersuchung von Aufgabenwechseln im Bereich der kognitiven und angewandten Psychologie zeigte sich vielfach, dass Aufgabenwechsel mit verlängerten Reaktionszeiten und erhöhten Fehlerraten assoziiert sind. Für den Anwendungsfall des automatisierten Fahrens liegen ebenfalls eine Reihe empirischer Studien vor, die darauf hinweisen, dass der Wechsel zum manuellen Fahren mit einer Verschlechterung der Fahrleistung gegenüber dem manuellen Fahren verbunden ist. Da Erkenntnisse vorliegen, dass eine Vorbereitung auf den Aufgabenwechsel die zu erwartenden Kosten verringern kann, ist das Ziel dieser Arbeit die Konzeption und empirische Evaluation einer Mensch-Maschine-Schnittstelle, die Nutzer hochautomatisierter Fahrzeuge durch frühzeitige Vorinformationen über Systemgrenzen auf die Kontrollübernahme vorbereitet.
Drei Experimente im Fahrsimulator mit Bewegungssystem betrachteten jeweils unterschiedliche Aspekte frühzeitiger Vorinformationen über bevorstehende Übernahmen. Das erste Experiment untersuchte, ob Fahrer überhaupt von frühzeitigen Situationsankündigungen, beispielsweise im Sinne einer verbesserten Übernahmeleistung, profitieren. Das zweite Experiment befasste sich mit der Frage, wie solche Ankündigungen zeitlich und inhaltlich zu gestalten sind (d. h. wann sie präsentiert werden und welche Informationen sie enthalten sollten), und welchen Einfluss deren Gestaltung auf die Aufgabenbearbeitung (insbesondere deren Unterbrechung und spätere Wiederaufnahme) während der automatisierten Fahrt hat. Um herauszufinden, wie ein Anzeigekonzept zur längerfristigen Planung von fahrfremden Tätigkeiten während des automatisierten Fahrens beitragen könnte, fand im dritten Experiment ein Vergleich von Situationsankündigungen, die vor dem Erreichen einer Übernahmesituation ausgegeben wurden, mit kontinuierlich präsentierten Informationen über die verbleibende Distanz zur nächsten Systemgrenze statt. In allen Studien wurde neben den Auswirkungen frühzeitiger Vorinformationen auf die Übernahmeleistung und Bearbeitung von fahrfremden Tätigkeiten auch untersucht, welche Auswirkungen ein erweitertes Übernahmekonzept auf die Fahrerreaktion in Grenz- und Fehlerfällen, in denen Vorinformationen entweder nicht oder fehlerhaft angezeigt wurden, hat.
Für die Gestaltung zukünftiger Übernahmekonzepte für hochautomatisierte Fahrzeuge kann basierend auf den Ergebnissen empfohlen werden, frühzeitige Anzeigen von Systemgrenzen zur Ermöglichung eines sicheren und komfortablen Wechsels zwischen dem manuellen und dem automatisierten Fahren in die Mensch-Maschine-Schnittstelle zu integrieren. Basierend auf den Ergebnissen dieser Arbeit liegt der empfohlene Zeitpunkt für diskrete Ankündigungen bei einer Reisegeschwindigkeit von 120 km/h bei etwa 1000 Meter (d. h. ca. 30 Sekunden) vor der Ausgabe der Übernahmeaufforderung. Zudem wird empfohlen zur Abschätzung der verbleibenden Zeit im automatisierten Modus eine Anzeige der Entfernung zur nächsten Systemgrenze in das Konzept zu integrieren, die dem Fahrer eine längerfristige Aufgabenplanung ermöglicht. Neben der reinen Anzeige des Übernahmeerfordernisses sollten dem Fahrer auch Informationen über das erforderliche Fahrmanöver nach der Kontrollübernahme übermittelt werden.
While teleoperation of technical highly sophisticated systems has already been a wide field of research, especially for space and robotics applications, the automation industry has not yet benefited from its results. Besides the established fields of application, also production lines with industrial robots and the surrounding plant components are in need of being remotely accessible. This is especially critical for maintenance or if an unexpected problem cannot be solved by the local specialists.
Special machine manufacturers, especially robotics companies, sell their technology worldwide. Some factories, for example in emerging economies, lack qualified personnel for repair and maintenance tasks. When a severe failure occurs, an expert of the manufacturer needs to fly there, which leads to long down times of the machine or even the whole production line. With the development of data networks, a huge part of those travels can be omitted, if appropriate teleoperation equipment is provided.
This thesis describes the development of a telemaintenance system, which was established in an active production line for research purposes. The customer production site of Braun in Marktheidenfeld, a factory which belongs to Procter & Gamble, consists of a six-axis cartesian industrial robot by KUKA Industries, a two-component injection molding system and an assembly unit. The plant produces plastic parts for electric toothbrushes.
In the research projects "MainTelRob" and "Bayern.digital", during which this plant was utilised, the Zentrum für Telematik e.V. (ZfT) and its project partners develop novel technical approaches and procedures for modern telemaintenance. The term "telemaintenance" hereby refers to the integration of computer science and communication technologies into the maintenance strategy. It is particularly interesting for high-grade capital-intensive goods like industrial robots. Typical telemaintenance tasks are for example the analysis of a robot failure or difficult repair operations. The service department of KUKA Industries is responsible for the worldwide distributed customers who own more than one robot. Currently such tasks are offered via phone support and service staff which travels abroad. They want to expand their service activities on telemaintenance and struggle with the high demands of teleoperation especially regarding security infrastructure. In addition, the facility in Marktheidenfeld has to keep up with the high international standards of Procter & Gamble and wants to minimize machine downtimes. Like 71.6 % of all German companies, P&G sees a huge potential for early information on their production system, but complains about the insufficient quality and the lack of currentness of data.
The main research focus of this work lies on the human machine interface for all human tasks in a telemaintenance setup. This thesis provides own work in the use of a mobile device in context of maintenance, describes new tools on asynchronous remote analysis and puts all parts together in an integrated telemaintenance infrastructure. With the help of Augmented Reality, the user performance and satisfaction could be raised. A special regard is put upon the situation awareness of the remote expert realized by different camera viewpoints. In detail the work consists of:
- Support of maintenance tasks with a mobile device
- Development and evaluation of a context-aware inspection tool
- Comparison of a new touch-based mobile robot programming device to the former teach pendant
- Study on Augmented Reality support for repair tasks with a mobile device
- Condition monitoring for a specific plant with industrial robot
- Human computer interaction for remote analysis of a single plant cycle
- A big data analysis tool for a multitude of cycles and similar plants
- 3D process visualization for a specific plant cycle with additional virtual information
- Network architecture in hardware, software and network infrastructure
- Mobile device computer supported collaborative work for telemaintenance
- Motor exchange telemaintenance example in running production environment
- Augmented reality supported remote plant visualization for better situation awareness
With the progress in robotics research the human machine interfaces reach more and more the status of being the major limiting factor for the overall system performance of a system for remote navigation and coordination of robots. In this monograph it is elaborated how mixed reality technologies can be applied for the user interfaces in order to increase the overall system performance. Concepts, technologies, and frameworks are developed and evaluated in user studies which enable for novel user-centered approaches to the design of mixed-reality user interfaces for remote robot operation. Both the technological requirements and the human factors are considered to achieve a consistent system design. Novel technologies like 3D time-of-flight cameras are investigated for the application in the navigation tasks and for the application in the developed concept of a generic mixed reality user interface. In addition it is shown how the network traffic of a video stream can be shaped on application layer in order to reach a stable frame rate in dynamic networks. The elaborated generic mixed reality framework enables an integrated 3D graphical user interface. The realized spatial integration and visualization of available information reduces the demand for mental transformations for the human operator and supports the use of immersive stereo devices. The developed concepts make also use of the fact that local robust autonomy components can be realized and thus can be incorporated as assistance systems for the human operators. A sliding autonomy concept is introduced combining force and visual augmented reality feedback. The force feedback component allows rendering the robot's current navigation intention to the human operator, such that a real sliding autonomy with seamless transitions is achieved. The user-studies prove the significant increase in navigation performance by application of this concept. The generic mixed reality user interface together with robust local autonomy enables a further extension of the teleoperation system to a short-term predictive mixed reality user interface. With the presented concept of operation, it is possible to significantly reduce the visibility of system delays for the human operator. In addition, both advantageous characteristics of a 3D graphical user interface for robot teleoperation- an exocentric view and an augmented reality view – can be combined.
This work deals with teams in teleoperation scenarios, where one human team partner (supervisor) guides and controls multiple remote entities (either robotic or human) and coordinates their tasks. Such a team needs an appropriate infrastructure for sharing information and commands. The robots need to have a level of autonomy, which matches the assigned task. The humans in the team have to be provided with autonomous support, e.g. for information integration. Design and capabilities of the human-robot interfaces will strongly influence the performance of the team as well as the subjective feeling of the human team partners. Here, it is important to elaborate the information demand as well as how information is presented. Such human-robot systems need to allow the supervisor to gain an understanding of what is going on in the remote environment (situation awareness) by providing the necessary information. This includes achieving fast assessment of the robot´s or remote human´s state. Processing, integration and organization of data as well as suitable autonomous functions support decision making and task allocation and help to decrease the workload in this multi-entity teleoperation task. Interaction between humans and robots is improved by a common world model and a responsive system and robots. The remote human profits from a simplified user interface providing exactly the information needed for the actual task at hand. The topic of this thesis is the investigation of such teleoperation interfaces in human-robot teams, especially for high-risk, time-critical, and dangerous tasks. The aim is to provide a suitable human-robot team structure as well as analyze the demands on the user interfaces. On one side, it will be looked on the theoretical background (model, interactions, and information demand). On the other side, real implementations for system, robots, and user interfaces are presented and evaluated as testbeds for the claimed requirements. Rescue operations, more precisely fire-fighting, was chosen as an exemplary application scenario for this work. The challenges in such scenarios are high (highly dynamic environments, high risk, time criticality etc.) and it can be expected that results can be transferred to other applications, which have less strict requirements. The present work contributes to the introduction of human-robot teams in task-oriented scenarios, such as working in high risk domains, e.g. fire-fighting. It covers the theoretical background of the required system, the analysis of related human factors concepts, as well as discussions on implementation. An emphasis is placed on user interfaces, their design, requirements and user testing, as well as on the used techniques (three-dimensional sensor data representation, mixed reality, and user interface design guidelines). Further, the potential integration of 3D sensor data as well as the visualization on stereo visualization systems is introduced.