Refine
Has Fulltext
- yes (3)
Is part of the Bibliography
- yes (3)
Document Type
- Doctoral Thesis (3) (remove)
Keywords
- Erweiterte Realität <Informatik> (3) (remove)
Institute
Software frameworks for Realtime Interactive Systems (RIS), e.g., in the areas of Virtual, Augmented, and Mixed Reality (VR, AR, and MR) or computer games, facilitate a multitude of functionalities by coupling diverse software modules. In this context, no uniform methodology for coupling these modules does exist; instead various purpose-built solutions have been proposed. As a consequence, important software qualities, such as maintainability, reusability, and adaptability, are impeded.
Many modern systems provide additional support for the integration of Artificial Intelligence (AI) methods to create so called intelligent virtual environments. These methods exacerbate the above-mentioned problem of coupling software modules in the thus created Intelligent Realtime Interactive Systems (IRIS) even more. This, on the one hand, is due to the commonly applied specialized data structures and asynchronous execution schemes, and the requirement for high consistency regarding content-wise coupled but functionally decoupled forms of data representation on the other.
This work proposes an approach to decoupling software modules in IRIS, which is based on the abstraction of architecture elements using a semantic Knowledge Representation Layer (KRL). The layer facilitates decoupling the required modules, provides a means for ensuring interface compatibility and consistency, and in the end constitutes an interface for symbolic AI methods.
Produktionssysteme mit Industrierobotern werden zunehmend komplex; waren deren Arbeitsbereiche früher noch statisch und abgeschirmt, und die programmierten Abläufe gleichbleibend, so sind die Anforderungen an moderne Robotik-Produktionsanlagen gestiegen: Diese sollen sich jetzt mithilfe von intelligenter Sensorik auch in unstrukturierten Umgebungen einsetzen lassen, sich bei sinkenden Losgrößen aufgrund individualisierter Produkte und häufig ändernden Produktionsaufgaben leicht rekonfigurieren lassen, und sogar eine direkte Zusammenarbeit zwischen Mensch und Roboter ermöglichen. Gerade auch bei dieser Mensch-Roboter-Kollaboration wird es damit notwendig, dass der Mensch die Daten und Aktionen des Roboters leicht verstehen kann. Aufgrund der gestiegenen Anforderungen müssen somit auch die Bedienerschnittstellen dieser Systeme verbessert werden. Als Grundlage für diese neuen Benutzerschnittstellen bietet sich Augmented Reality (AR) als eine Technologie an, mit der sich komplexe räumliche Daten für den Bediener leicht verständlich darstellen lassen. Komplexe Informationen werden dabei in der Arbeitsumgebung der Nutzer visualisiert und als virtuelle Einblendungen sichtbar gemacht, und so auf einen Blick verständlich. Die diversen existierenden AR-Anzeigetechniken sind für verschiedene Anwendungsfelder unterschiedlich gut geeignet, und sollten daher flexibel kombinier- und einsetzbar sein. Auch sollen diese AR-Systeme schnell und einfach auf verschiedenartiger Hardware in den unterschiedlichen Arbeitsumgebungen in Betrieb genommen werden können. In dieser Arbeit wird ein Framework für Augmented Reality Systeme vorgestellt, mit dem sich die genannten Anforderungen umsetzen lassen, ohne dass dafür spezialisierte AR-Hardware notwendig wird. Das Flexible AR-Framework kombiniert und bündelt dafür verschiedene Softwarefunktionen für die grundlegenden AR-Anzeigeberechnungen, für die Kalibrierung der notwendigen Hardware, Algorithmen zur Umgebungserfassung mittels Structured Light sowie generische ARVisualisierungen und erlaubt es dadurch, verschiedene AR-Anzeigesysteme schnell und flexibel in Betrieb zu nehmen und parallel zu betreiben. Im ersten Teil der Arbeit werden Standard-Hardware für verschiedene AR-Visualisierungsformen sowie die notwendigen Algorithmen vorgestellt, um diese flexibel zu einem AR-System zu kombinieren. Dabei müssen die einzelnen verwendeten Geräte präzise kalibriert werden; hierfür werden verschiedene Möglichkeiten vorgestellt, und die mit ihnen dann erreichbaren typischen Anzeige- Genauigkeiten in einer Evaluation charakterisiert. Nach der Vorstellung der grundlegenden ARSysteme des Flexiblen AR-Frameworks wird dann eine Reihe von Anwendungen vorgestellt, bei denen das entwickelte System in konkreten Praxis-Realisierungen als AR-Benutzerschnittstelle zum Einsatz kam, unter anderem zur Überwachung von, Zusammenarbeit mit und einfachen Programmierung von Industrierobotern, aber auch zur Visualisierung von komplexen Sensordaten oder zur Fernwartung. Im Verlauf der Arbeit werden dadurch die Vorteile, die sich durch Verwendung der AR-Technologie in komplexen Produktionssystemen ergeben, herausgearbeitet und in Nutzerstudien belegt.
Immersive Technologien, wie Augmented und Virtual Reality, können bestehende Geschäftsmodelle entweder verbessern oder gefährden. Jedoch kann sich das förderliche Potential nur entfalten, wenn die Anwender:innen die Technologien akzeptieren und letztendlich auch nutzen. In dieser Arbeit wird beschrieben, was Akzeptanz ist und welche Einflussgrößen (Faktoren) für die Akzeptanz von Virtual Reality besonders relevant sind. Anschließend ist, basierend auf der diskutierten Fachliteratur, ein neuartiges, holistisches Akzeptanzmodell für Virtual Reality entworfen und mit drei Studien überprüft worden.
In der ersten Studie wurden 129 Personen gebeten entweder in Augmented oder Virtual Reality ein Schulungsszenario oder ein Mini-Spiel auszuprobieren (2x2-Design). In beiden Anwendungen sollten Flaschen von einem virtuellen Fließband entfernt werden. Im Fokus der Untersuchung stand die Immersion, die Nützlichkeit, das empfundene Vergnügen (Hedonismus) und die Zufriedenheit. Die Ergebnisse ergaben zum einen, dass sich die Immersion zwischen Augmented und Virtual Reality unterscheidet, und zum anderen, dass das empfundene Vergnügen und die Nützlichkeit signifikante Prädiktoren für die Zufriedenheit darstellen. An der zweiten Studie nahmen 62 Personen teil. Sie wurden gebeten das Schulungsszenario erneut zu absolvieren, wobei dieses mit auditiven Inhalten und animierten Figuren angereicht wurde, sowie über eine etwas bessere Grafikqualität verfügte. Die Daten wurden mit den Virtual Reality Szenarien aus der ersten Studie verglichen, um den Einfluss der Präsenz auf den Hedonismus zu untersuchen. Obwohl kein relevanter Unterschied zwischen den Gruppen festgestellt wurde, konnte nachgewiesen werden, dass Präsenz Hedonismus signifikant vorhersagt. An der dritten Studie beteiligten sich insgesamt 35 Personen. Untersuchungsgegenstand der Studie war die virtuelle Darstellung der eigenen Person in der virtuellen Realität (Verkörperung) und dessen Einfluss auf den Hedonismus. Die Versuchspersonen wurden gebeten das Schulungsszenario erneut zu durch-laufen, wobei sie diesmal das Eingabegerät (Controller) der Visieranzeige (head-mounted display) zur Steuerung benutzen. In der ersten Studie erfolgte die Bedienung über eine Gestensteuerung. Die Analyse dieser Manipulation offenbarte keinerlei Auswirkungen auf die Verkörperung. Allerdings stellte die Verkörperung einen signifikanten Prädiktor für den Hedonismus dar.
Im Anschluss an die Studien ist das Modell mit den Daten aus den Virtual Reality Gruppen der ersten Studie beurteilt worden, wobei es sich weitgehend bestätigt hat. Abschließend werden die Befunde in Bezug auf die Fachliteratur eingeordnet, mögliche Ursachen für die Ergebnisse diskutiert und weitere Forschungsbedarfe aufgezeigt.