TY - THES A1 - Widmaier [geb. Wirth], Lisa Marie T1 - Künstliche Intelligenz zur vollständig automatisierten FRS-Auswertung: Bewertung der Auswertequalität verschiedener kommerzieller Anbieter im Vergleich zu einem menschlichen Goldstandard T1 - Artificial intelligence for fully automated cephalometric analysis: evaluation of the quality of different commercial providers compared to a humans’ gold standard N2 - Ziel der vorliegenden Studie war es, verschiedene kommerzielle Anbieter für KI-gestützte FRS-Analysen hinsichtlich ihrer Genauigkeit mit einem menschlichen Goldstandard zu vergleichen. Auf 50 FRS wurden durch zwölf erfahrene Untersucher 15 Landmarken identifiziert, auf deren Basis neun relevante Parameter vermessen wurden. Der Medianwert dieser zwölf Auswertungen wurde für jeden Parameter auf jedem FRS als Goldstandard definiert und als Referenz für die Vergleiche mit vier verschiedenen kommerziellen KI-Anbietern (DentaliQ.ortho, WebCeph, AudaxCeph, CephX) festgelegt. Die statistische Auswertung erfolgte mittels ANOVA mit Messwiederholung, paarweiser Vergleiche mittels Post-hoc-Test und Bland-Altman-Plots. DentaliQ.ortho zeigte für alle neun untersuchten Parameter keinen statistisch signifikanten Unterschied zum menschlichen Goldstandard und es konnte insgesamt von einer hohen Genauigkeit der Auswertungen ausgegangen werden. Auch für WebCeph war kein statistisch signifikanter Unterschied zum menschlichen Goldstandard zu verzeichnen. Allerdings war die Präzision im Vergleich zu den anderen Anbietern für alle Parameter am geringsten und der proportionale Fehler bei nahezu allen Parametern am höchsten. AudaxCeph wies für sieben Parameter statistisch signifikante Unterschiede zum menschlichen Goldstandard auf. Für CephX wurden für fünf Parameter statistisch signifikante Unterschiede zum menschlichen Goldstandard ermittelt. Insbesondere für die dentale Analyse war für alle untersuchten kommerziellen KI-Anbieter eine vergleichsweise niedrigere Genauigkeit zu verzeichnen. Die Ergebnisse zeigen, dass noch deutliche Qualitätsunterschiede zwischen den kommerziellen KI-Anbietern für die vollständig automatisierte FRS-Analyse bestehen. Vor dem Hintergrund der Zeitersparnis und Qualitätssicherung sind KI zwar vielversprechend, sollten aber zum aktuellen Zeitpunkt nur unter Aufsicht durch menschliche Experten zum Einsatz kommen. N2 - The aim of this study was to compare various commercial providers for AI-assisted cephalometric analysis with regard to their accuracy to a humans’ gold standard. Twelve experienced investigators identified 15 landmarks on 50 cephalometric X-rays and on this basis nine relevant parameters were measured. The median value of these twelve evaluations was defined as the gold standard for each parameter on each cephalometric X-ray and used as a reference for the comparisons with four different commercial AI providers (DentaliQ.ortho, WebCeph, AudaxCeph, CephX). Statistical analysis was performed using ANOVA with repeated measures, pairwise comparisons using post-hoc test and Bland-Altman plots. DentaliQ.ortho showed no statistically significant difference to the humans’ gold standard for all nine parameters examined and the overall accuracy of the evaluations could be described as high. There was also no statistically significant difference between WebCeph and the humans’ gold standard. However, compared to the other providers, the precision was the lowest for all parameters and the proportional error was the highest for almost all parameters. AudaxCeph showed statistically significant differences to the humans’ gold standard for seven parameters. For CephX, statistically significant differences to the humans’ gold standard were determined for five parameters. For the dental analysis in particular, a comparatively lower accuracy was recorded for all commercial AI providers examined. The results show that there are significant differences in quality between commercial AI providers for fully automated cephalometric analysis. Although AI is promising in terms of saving time and assuring quality, it should currently only be used under the supervision of human experts. KW - Kieferorthopädie KW - Künstliche Intelligenz KW - Fernröntgenseitenbild KW - Fernröntgenanalyse KW - FRS-Analyse KW - cephalometric analysis Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-351803 ER - TY - THES A1 - Grundke, Andrea T1 - Head and Heart: On the Acceptability of Sophisticated Robots Based on an Enhancement of the Mind Perception Dichotomy and the Uncanny Valley of Mind T1 - Herz und Kopf: Zur Akzeptanz von elaborierten Robotern anhand einer Weiterentwicklung der Mind-Perception-Dichotomie und des Uncanny Valleys of Mind N2 - With the continuous development of artificial intelligence, there is an effort to let the expressed mind of robots resemble more and more human-like minds. However, just as the human-like appearance of robots can lead to feelings of aversion to such robots, recent research has shown that the apparent mind expressed by machines can also be responsible for their negative evaluations. This work strives to explore facets of aversion evoked by machines with human-like mind (uncanny valley of mind) within three empirical projects from a psychological point of view in different contexts, including the resulting consequences. In Manuscript #1, the perspective of previous work in the research area is reversed and thus shows that humans feel eeriness in response to robots that can read human minds, a capability unknown from human-human interaction. In Manuscript #2, it is explored whether empathy for a robot being harmed by a human is a way to alleviate the uncanny valley of mind. A result of this work worth highlighting is that aversion in this study did not arise from the manipulation of the robot’s mental capabilities but from its attributed incompetence and failure. The results of Manuscript #3 highlight that status threat is revealed if humans perform worse than machines in a work-relevant task requiring human-like mental capabilities, while higher status threat is linked with a higher willingness to interact, due to the machine’s perceived usefulness. In sum, if explanatory variables and concrete scenarios are considered, people will react fairly positively to machines with human-like mental capabilities. As long as the machine’s usefulness is palpable to people, but machines are not fully autonomous, people seem willing to interact with them, accepting aversion in favor of the expected benefits. N2 - Mit der stetigen Weiterentwicklung von künstlicher Intelligenz besteht das Bestreben, das ausgedrückte Bewusstsein von Robotern dem menschlichen Bewusstsein immer mehr nachzubilden. Die Forschung hat dargelegt, dass das augenscheinlich von Maschinen ausgedrückte Bewusstsein für negative Bewertungen verantwortlich sein kann (Uncanny Valley of Mind). Dieser Befund soll aus psychologischer Perspektive in verschiedenen Kontexten inklusive der daraus resultierenden Konsequenzen genauer betrachtet werden. Mit Manuskript #1 wird die Perspektive bisheriger Arbeiten in dem Forschungsgebiet umgekehrt und gezeigt, dass Menschen Unheimlichkeit gegenüber Robotern empfinden, die scheinbar menschliche Gedanken lesen können, was aus der Mensch-Mensch-Interaktion unbekannt ist. In Manuskript #2 wird der Frage nachgegangen, ob Empathie für einen von einem Menschen verletzt werdenden Roboter eine Möglichkeit ist, das Uncanny Valley of Mind abzuschwächen. Ein hervorzuhebendes Resultat dieser Arbeit ist, dass Aversion in dieser Studie nicht durch die Manipulation der Bewusstseinszustände des Roboters aufgekommen ist, sondern durch dessen attribuierte Inkompetenz und sein Versagen. Die Ergebnisse von Manuskript #3 zeigen, dass Statusbedrohung auftritt, wenn Menschen bei einer arbeitsrelevanten Aufgabe, die menschenähnliche mentale Fähigkeiten erfordert, schlechter abschneiden als Maschinen. Es wird auf die wahrgenommene Nützlichkeit der Maschine Bezug genommen um zu erklären, dass höhere Statusbedrohung mit höherer Bereitschaft zur Interaktion assoziiert ist. Zusammenfassend reagieren Menschen recht positiv auf Maschinen mit menschenähnlichen mentalen Fähigkeiten, sobald erklärende Variablen und konkrete Szenarien mitberücksichtigt werden. Solange die Nützlichkeit der Maschinen deutlich gemacht wird, diese aber nicht vollkommen autonom sind, scheinen Menschen gewillt zu sein, mit diesen zu interagieren und dabei Gefühle von Aversion zugunsten der antizipierten Vorteile in Kauf zu nehmen. KW - Humanoider Roboter KW - Künstliche Intelligenz KW - Mensch-Maschine-Kommunikation KW - Uncanny Valley of Mind KW - Eeriness KW - Empathy KW - Status Threat KW - Perceived Usefulness KW - Mensch-Maschine-Interaktion Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-330152 ER - TY - THES A1 - Herm, Lukas-Valentin T1 - Algorithmic Decision-Making Facilities: Perception and Design of Explainable AI-based Decision Support Systems T1 - Förderung der algorithmischen Entscheidungsfindung: Wahrnehmung und Gestaltung von erklärbaren KI-basierten Entscheidungsunterstützungssystemen N2 - Recent computing advances are driving the integration of artificial intelligence (AI)-based systems into nearly every facet of our daily lives. To this end, AI is becoming a frontier for enabling algorithmic decision-making by mimicking or even surpassing human intelligence. Thereupon, these AI-based systems can function as decision support systems (DSSs) that assist experts in high-stakes use cases where human lives are at risk. All that glitters is not gold, due to the accompanying complexity of the underlying machine learning (ML) models, which apply mathematical and statistical algorithms to autonomously derive nonlinear decision knowledge. One particular subclass of ML models, called deep learning models, accomplishes unsurpassed performance, with the drawback that these models are no longer explainable to humans. This divergence may result in an end-user’s unwillingness to utilize this type of AI-based DSS, thus diminishing the end-user’s system acceptance. Hence, the explainable AI (XAI) research stream has gained momentum, as it develops techniques to unravel this black-box while maintaining system performance. Non-surprisingly, these XAI techniques become necessary for justifying, evaluating, improving, or managing the utilization of AI-based DSSs. This yields a plethora of explanation techniques, creating an XAI jungle from which end-users must choose. In turn, these techniques are preliminarily engineered by developers for developers without ensuring an actual end-user fit. Thus, it renders unknown how an end-user’s mental model behaves when encountering such explanation techniques. For this purpose, this cumulative thesis seeks to address this research deficiency by investigating end-user perceptions when encountering intrinsic ML and post-hoc XAI explanations. Drawing on this, the findings are synthesized into design knowledge to enable the deployment of XAI-based DSSs in practice. To this end, this thesis comprises six research contributions that follow the iterative and alternating interplay between behavioral science and design science research employed in information systems (IS) research and thus contribute to the overall research objectives as follows: First, an in-depth study of the impact of transparency and (initial) trust on end-user acceptance is conducted by extending and validating the unified theory of acceptance and use of technology model. This study indicates both factors’ strong but indirect effects on system acceptance, validating further research incentives. In particular, this thesis focuses on the overarching concept of transparency. Herein, a systematization in the form of a taxonomy and pattern analysis of existing user-centered XAI studies is derived to structure and guide future research endeavors, which enables the empirical investigation of the theoretical trade-off between performance and explainability in intrinsic ML algorithms, yielding a less gradual trade-off, fragmented into three explainability groups. This includes an empirical investigation on end-users’ perceived explainability of post-hoc explanation types, with local explanation types performing best. Furthermore, an empirical investigation emphasizes the correlation between comprehensibility and explainability, indicating almost significant (with outliers) results for the assumed correlation. The final empirical investigation aims at researching XAI explanation types on end-user cognitive load and the effect of cognitive load on end-user task performance and task time, which also positions local explanation types as best and demonstrates the correlations between cognitive load and task performance and, moreover, between cognitive load and task time. Finally, the last research paper utilizes i.a. the obtained knowledge and derives a nascent design theory for XAI-based DSSs. This design theory encompasses (meta-) design requirements, design principles, and design features in a domain-independent and interdisciplinary fashion, including end-users and developers as potential user groups. This design theory is ultimately tested through a real-world instantiation in a high-stakes maintenance scenario. From an IS research perspective, this cumulative thesis addresses the lack of research on perception and design knowledge for an ensured utilization of XAI-based DSS. This lays the foundation for future research to obtain a holistic understanding of end-users’ heuristic behaviors during decision-making to facilitate the acceptance of XAI-based DSSs in operational practice. N2 - Jüngste technische und algorithmische Fortschritte treiben die Integration von Systemen auf der Basis von künstlicher Intelligenz (KI) in nahezu alle Bereiche unseres täglichen Lebens voran. Inzwischen sind diese Systeme in der Lage, menschliche Intelligenz anhand von algorithmischer Entscheidungsfindung nachzuahmen und sogar zu übertreffen. Insbesondere können KI-basierte Systeme als Entscheidungsunterstützungssysteme (Decision Support Systems - DSS) dienen und damit Domänenexperten in hochsensiblen Anwendungsfällen helfen, bei denen Menschenleben auf dem Spiel stehen. Dies resultiert in komplexen Modellen des maschinellen Lernens (ML), welche mathematische und statistische Algorithmen benutzen, um nichtlineares Entscheidungswissen automatisch abzuleiten. Besonders eine Unterklasse von ML-Modellen, die sogenannten Deep-Learning-Modelle (DL-Modelle), erreichen eine unübertroffene Leistung. Sie haben allerdings den Nachteil, dass sie für den Menschen nicht mehr nachvollziehbar sind. Diese Divergenz kann jedoch dazu führen, dass Endanwender nicht bereit sind, diese Art von KI-basierten DSS zu benutzen. Dadurch wird die Akzeptanz solcher Systeme beeinträchtigt. Um dieses Problem anzugehen, ist der Forschungszweig der erklärbaren KI (Explainable Artificial Intelligence - XAI) entstanden. Darin werden Techniken und Methoden entwickelt, die das wahrgenommene Blackbox-Verhalten dieser Modelle aufbrechen. Die XAI-Methoden können für KI-basierte DSS eingesetzt werden und ermöglichen es, Entscheidungen und Modelle zu rechtfertigen, zu bewerten, zu verbessern und zu verwalten. Dieser Ansatz resultiert jedoch in einer Vielzahl von Erklärungstechniken, aus denen die Anwender eine passende Erklärung wählen müssen. Gleichzeitig werden diese Methoden zurzeit primär von Entwicklern für Entwickler konzipiert, ohne, dass dabei ermittelt wird, ob eine tatsächliche Eignung für den Endanwender gewährleistet ist. Im Umkehrschluss ist daher unbekannt, wie sich das mentale Modell eines Endanwenders im Umgang mit solchen Erklärungstechniken verhält. Die vorliegende kumulative Dissertation thematisiert dieses Forschungsdefizit, indem die Wahrnehmung des Endanwenders im Umgang mit intrinsischen ML- und Post-Hoc-XAI-Erklärungen untersucht wird. Die gewonnenen Erkenntnisse werden in gestaltungsorientiertes Wissen synthetisiert, um den Einsatz von XAI-basierten DSS in der Praxis zu ermöglichen. Zu diesem Zweck umfasst die Dissertation sechs Forschungsbeiträge. Diese richten sich nach dem für den Bereich Information Systems (IS) typischen alternierendem Zusammenspiel zwischen verhaltenswissenschaftlicher und designorientierter Forschung und tragen wie folgt zu den übergeordneten Forschungszielen bei: Zu Beginn erfolgt durch Erweiterung und Validierung des Modells Unified Theory of Acceptance and Use of Technology eine Untersuchung des Einflusses von Transparenz und (initialem) Vertrauen auf die Akzeptanz der Endanwender. Die Studie zeigt einen starken, aber indirekten Effekt beider Faktoren auf die Systemakzeptanz und liefert damit die wissenschaftliche Bestätigung für weitere Forschungsinitiativen. Diese Arbeit konzentriert sich insbesondere auf diesen übergeordneten Einflussfaktor Transparenz. Darauf aufbauend wird eine Systematisierung in Form einer Taxonomie und Analyse bestehender nutzerzentrierter XAI-Studien durchgeführt, um zukünftige Forschungsbestrebungen zu strukturieren. Diese Systematisierung ermöglicht anschließend empirische Untersuchungen weiterer Einflussfaktoren auf die Endanwenderwahrnehmung. Zunächst wird eine Untersuchung des theoretischen Zielkonflikts zwischen Leistung und Erklärbarkeit in intrinsischen ML-Algorithmen vorgenommen, welche eine dreiteilige Anordnung empirisch bestätigt. Ebenso erfolgt eine empirische Untersuchung der vom Endanwender wahrgenommenen Erklärbarkeit von Post-Hoc-Erklärungstypen, wobei hier lokale Erklärungstypen am besten abschneiden. Anschließend wird der Zusammenhang zwischen Verständlichkeit und Erklärbarkeit betrachtet, wobei sich eine überwiegend (mit Ausreißern) signifikante Korrelation aufzeigen lässt. Der letzte Teil der empirischen Untersuchungen widmet sich dem Einfluss von XAI-Erklärungstypen auf die kognitive Belastung und die Auswirkung dieser Belastung auf die Aufgabenleistung und -zeit des Endanwenders. Hier zeigt sich, dass lokale Erklärungstypen ebenfalls verhältnismäßig am besten abschneiden und die Korrelationen zwischen kognitiver Belastung und Aufgabenleistung sowie kognitiver Belastung und Aufgabenzeit gegeben sind. Der letzte Forschungsbeitrag fügt u. a. die Ergebnisse zusammen und leitet daraus eine Design-Theorie für XAI-basierte DSS ab. Diese Design Theorie umfasst (Meta-)Design-Anforderungen, Design-Prinzipien und Design-Merkmale in einer domänenunabhängigen und interdisziplinären Art und Weise, welche den Einbezug sowohl von Endanwendern als auch von Entwicklern als potenzielle Nutzergruppen ermöglicht. Aus der Perspektive der IS Disziplin widmet sich diese kumulative Dissertation dem Mangel an Forschung zu Wahrnehmung und Designwissen für eine gesicherte Nutzung von XAI-basierten DSS. Damit legt sie den Grundstein für zukünftige Forschung, um ein ganzheitliches Verständnis des heuristischen Verhaltens der Endanwender während der Entscheidungsfindung zu erlangen und somit die Akzeptanz von XAI-basierten DSS in der betrieblichen Praxis zu fördern. KW - Künstliche Intelligenz KW - Entscheidungsunterstützungssystem KW - Artificial Intelligence KW - Explainable Artificial Intelligence KW - Decision Support Systems Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-322948 ER - TY - THES A1 - Reinhard, Sebastian T1 - Improving Super-Resolution Microscopy Data Reconstruction and Evaluation by Developing Advanced Processing Algorithms and Artifcial Neuronal Networks T1 - Verbesserung von Datenrekonstruktion und -auswertung in der Super-Resolution Mikroskopie durch die Entwicklung von fortgeschrittenen Verarbeitungsalgorithmen und künstlichen neuronalen Netzen N2 - The fusion of methods from several disciplines is a crucial component of scientific development. Artificial Neural Networks, based on the principle of biological neuronal networks, demonstrate how nature provides the best templates for technological advancement. These innovations can then be employed to solve the remaining mysteries of biology, including, in particular, processes that take place on microscopic scales and can only be studied with sophisticated techniques. For instance, direct Stochastic Optical Reconstruction Microscopy combines tools from chemistry, physics, and computer science to visualize biological processes at the molecular level. One of the key components is the computer-aided reconstruction of super-resolved images. Improving the corresponding algorithms increases the quality of the generated data, providing further insights into our biology. It is important, however, to ensure that the heavily processed images are still a reflection of reality and do not originate in random artefacts. Expansion microscopy is expanding the sample by embedding it in a swellable hydrogel. The method can be combined with other super-resolution techniques to gain additional resolution. We tested this approach on microtubules, a well-known filamentous reference structure, to evaluate the performance of different protocols and labelling techniques. We developed LineProfiler an objective tool for data collection. Instead of collecting perpendicular profiles in small areas, the software gathers line profiles from filamentous structures of the entire image. This improves data quantity, quality and prevents a biased choice of the evaluated regions. On the basis of the collected data, we deployed theoretical models of the expected intensity distribution across the filaments. This led to the conclusion that post-expansion labelling significantly reduces the labelling error and thus, improves the data quality. The software was further used to determine the expansion factor and arrangement of synaptonemal complex data. Automated Simple Elastix uses state-of-the-art image alignment to compare pre- and post-expansion images. It corrects linear distortions occurring under isotropic expansion, calculates a structural expansion factor and highlights structural mismatches in a distortion map. We used the software to evaluate expanded fungi and NK cells. We found that the expansion factor differs for the two structures and is lower than the overall expansion of the hydrogel. Assessing the fluorescence lifetime of emitters used for direct Stochastic Optical Reconstruction Microscopy can reveal additional information about the molecular environment or distinguish dyes emitting with a similar wavelength. The corresponding measurements require a confocal scanning of the sample in combination with the fluorescent switching of the underlying emitters. This leads to non-linear, interrupted Point Spread Functions. The software ReCSAI targets this problem by combining the classical algorithm of compressed sensing with modern methods of artificial intelligence. We evaluated several different approaches to combine these components and found, that unrolling compressed sensing into the network architecture yields the best performance in terms of reconstruction speed and accuracy. In addition to a deep insight into the functioning and learning of artificial intelligence in combination with classical algorithms, we were able to reconstruct the described non-linearities with significantly improved resolution, in comparison to other state-of-the-art architectures. N2 - Für die Weiterentwicklung der Wissenschaft wird es immer wichtiger, Methoden aus verschiedenen Gebieten zu kombinieren. Die künstliche Intelligenz beruht beispielsweise auf dem Prinzip biologischer neuronaler Netze. Hier wird die Natur als Vorlage für unsere technische Entwicklung genutzt. Diese Innovationen können dazu eingesetzt werden, die verbliebenen Rätsel der Biologie zu lösen. Dazu gehören insbesondere Prozesse, die sich auf mikroskopischer Ebene abspielen und nur mit hochentwickelten Techniken untersucht werden können. Die direkte Stochastisch Optische Rekonstruktionsmikroskopie kombiniert Methoden der Chemie, Physik und Informatik, um biologische Prozesse auf molekularer Ebene sichtbar zu machen. Eine der Schlüsselkomponenten ist die computergestützte Rekonstruktion von hochaufgelösten Bildern. Die Verbesserung der zugrunde liegenden Algorithmen erhöht die Qualität der erzeugten Daten und ermöglicht weitere Einblicke in unsere Biologie. Es muss jedoch sichergestellt werden, dass die künstlich erstellten Bilder immer noch ein Abbild der Realität sind und nicht auf zufälligen Artefakten beruhen. Expansionsmikroskopie vergrößert die Probe durch Einbettung in ein Hydrogel. Die Methode kann mit anderen hochauflösenden Techniken kombiniert werden, um die Auflösung noch weiter zu verbessern. Dieser Ansatz wurde an Mikrotubuli, einer bekannten flamentösen Referenzstruktur, verwendet, um verschiedene Protokolle und Markierungstechniken zu testen. Mit LineProfiler wurde ein objektives Werkzeug zur Datenerfassung entwickelt. Anstatt Linienprofle in kleinen Bereichen zu erfassen, wertet die Software das gesamte Bild aus. Dies verbessert die Datenmenge und Datenqualität und verhindert eine voreingenommene Auswahl der ausgewerteten Regionen. Auf Grundlage der gesammelten Daten wurden theoretische Modelle für die erwartete Intensitätsverteilung über die Filamente erstellt. Daraus konnte geschlossen werden, dass die Markierung nach der Expansion den Markierungsfehler erheblich reduziert und somit die Qualität der Daten verbessert. Die Software wurde außerdem zur Bestimmung des Expansionsfaktors und der Anordnung der Daten des synaptonemalen Komplexes verwendet. Automated Simple Elastix verwendet modernste Bildregistrierung, um Bilder vor und nach der Expansion zu vergleichen. Lineare Verzerrungen, die bei isotroper Expansion auftreten, werden korrigiert. Der strukturelle Expansionsfaktor wird berechnet und strukturelle Unstimmigkeiten werden in einer Verzerrungskarte hervorgehoben. Die Software wurde zur Bewertung expandierter Pilze und NK-Zellen eingesetzt. Dabei wurde festgestellt, dass der Expansionsfaktor für die beiden Strukturen unterschiedlich ist und unter der Gesamtexpansion des Hydrogels liegt. Die Auswertung der Fluoreszenzlebensdauer von Emittern, die für die direkte Stochastische Optische Rekonstruktionsmikroskopie eingesetzt werden, kann zusätzliche Informationen über die molekulare Umgebung liefern oder Farbstoffe unterscheiden, die VI eine ähnliche Lichtwellenlänge emittieren. Die entsprechenden Messungen erfordern eine konfokale Abtastung der Probe in Kombination mit dem fluoreszenten Schalten der zugrunde liegenden Emitter. Dies führt zu nichtlinearen, unterbrochenen Punktspreizfunktionen. Die Software ReCSAI löst dieses Problem, indem sie den klassischen Algorithmus des Compressed Sensing mit modernen Methoden der künstlichen Intelligenz kombiniert. Es wurden verschiedene Ansätze zur Kombination der Komponenten ausgewertet und festgestellt, dass die Integration von Compressed Sensing in die Netzwerkarchitektur die beste Performance in Bezug auf Rekonstruktionsgeschwindigkeit und -genauigkeit bringt. Neben einem tiefen Einblick in die Funktionsweise und das Lernen von künstlicher Intelligenz in Kombination mit klassischen Algorithmen konnten die beschriebenen Nichtlinearitäten mit einer deutlich verbesserten Auflösung im Vergleich zu anderen modernen Architekturen rekonstruiert werden. KW - Mikroskopie KW - Künstliche Intelligenz KW - Datenanalyse KW - Bildverarbeitung KW - Compressed Sensing KW - Lifetime Imaging KW - dSTORM Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-316959 ER - TY - THES A1 - Stier, Simon T1 - Konzepte, Materialien und Verfahren für multimodale und hochintegrierte Elastomersensorik T1 - Concepts, Materials and Processes for Multimodal and Highly Integrated Elastomer Sensors N2 - Dielektrische Elastomersensoren sind aus Elastomermaterialien aufgebaute Sensoren mit einem kapazitiven Messprinzip. In ihrer einfachsten Form bestehen sie aus einer dehnbaren Elastomerfolie als Dielektrikum, die beidseitig mit leitfähigen und ebenfalls dehnbaren Schichten als Elektroden bedeckt ist. Damit entsteht ein mechanisch verformbarer elektrischer Kondensator, dessen Kapazität mit der Dehnung der Elastomerfolie stetig ansteigt. Neben solchen Dehnungssensoren lassen sich mit einem geeigneten geometrischen Aufbau auch dielektrische Elastomersensoren realisieren, bei denen eine elektrische Kapazität mit einem angelegten Druck bzw. einer Kraft auf die Oberfläche, mit einer Scherkraft oder mit der Annäherung eines elektrisch leitfähigen oder polarisierbaren Körpers wie z. B. der menschlichen Hand messbar ansteigt. Durch ihre vielfältige Funktion, intrinsische Verformbarkeit und flächige Ausgestaltung weisen Dielektrische Elastomersensoren erhebliches Potential in der Schaffung smarter, sensitiver Oberflächen auf. Dabei sind weitgehende und individuelle Adaptionen auf den jeweiligen Anwendungszweck durch Abstimmung geometrischer, mechanischer und elektrischer Eigenschaften möglich. Die bisherige Forschung beschränkt sich jedoch auf die Analyse und Optimierung einzelner Aspekte ohne das Potential einer übergreifenden systemischen Perspektive zu nutzen. Diese Arbeit widmet sich daher der Betrachtung der Sensorik als Gesamtsystem, sowohl horizontal - von abstrakten Modellen bis zur Fertigung und prototypischen Anwendung - als auch vertikal über die Komponenten Material, Struktur und Elektronik. Hierbei wurden in mehreren Teilgebieten eigenständige neue Erkenntnisse und Verbesserungen erzielt, die anschließend in die übergreifende Betrachtung des Gesamtsystems integriert wurden. So wurden in den theoretischen Vorarbeiten neue Konzepte zur ortsaufgelösten Erfassung mehrerer physikalischer Größen und zur elektrischen und mechanischen Modellierung entwickelt. Die abgeleiteten Materialanforderungen wurden in eine tiefgehende Charakterisierung der verwendeten Elastomer-Kompositwerkstoffe überführt, in der neuartige analytische Methoden in Form von dynamischer elektromechanischer Testung und nanoskaliger Computertomographie zur Aufklärung der inneren Wechselwirkungen zum Einsatz kamen. Im Bereich der automatisierten Prozessierung wurde ein für die komplexen mehrschichtigen Elektrodenstrukturen geeigneter neuer lasergestützer substraktiver Fertigungprozess etabliert, der zudem die Brücke zu elastischer Elektronik schlägt. In der abschließenden Anwendungsevaluierung wurden mehrere ortsaufgelöste und multimodale Gesamtsysteme aufgebaut und geeignete Messelektronik und Software entwickelt. Abschließend wurden die Systeme mit einem eigens entwickelten robotischen Testsystem charakterisiert und zudem das Potential der Auswertung mittels maschinellem Lernen aufgezeigt. N2 - Dielectric elastomer sensors are sensors constructed from elastomer materials with a capacitive measuring principle. In their simplest form, they consist of a stretchable elastomer film as dielectric, which is covered on both sides with conductive and also stretchable layers as electrodes. This creates a mechanically deformable electrical capacitor whose capacitance increases steadily with the stretching of the elastomer film. In addition to such strain sensors, with a suitable geometric design it is also possible to realize dielectric elastomer sensors in which an electrical capacitance increases measurably with an applied pressure or force on the surface, with a shear force or with the approach of an electrically conductive or polarizable body such as the human hand. Due to their versatile function, intrinsic deformability and flat design, dielectric elastomer sensors have considerable potential in the creation of smart, sensitive surfaces. Extensive and individual adaptations to the respective application purpose are possible by matching geometric, mechanical and electrical properties. However, research to date has been limited to the analysis and optimization of individual aspects without exploiting the potential of an overarching systemic perspective. This work is therefore certainly dedicated to the consideration of sensor technology as an overall system, both horizontally - from abstract modeling to manufacturing and prototypical application - and vertically via the components material, structure and electronics. In this context, individual new findings and improvements were achieved in several sub-areas, which were subsequently integrated into the overall consideration of the entire system. Thus, in the preliminary theoretical work, new concepts were developed for the spatially resolved measurement of multiple physical quantities and for electrical and mechanical modeling. The derived material requirements were transferred into an in-depth characterization of the elastomer composite materials used, in which novel analytical methods in the form of dynamic electro-mechanical testing and nanoscale computer tomography were applied to elucidate the internal mechanisms of interaction. In the area of automated processing, a new laser-based subtractive manufacturing process suitable for the complex multilayer electrode structures was established, which also bridges the gap to stretchable electronics. In the final application evaluation, several spatially resolved and multimodal sensor systems were built and suitable measurement electronics and software were developed. Finally, the systems were characterized with a specially developed robotic test system and, in addition, the potential of evaluation by means of machine learning was demonstrated. KW - Taktiler Sensor KW - Silicone KW - Schaltungsentwurf KW - Roboter KW - Künstliche Intelligenz KW - Dielektrische Elastomersensoren KW - Mikroelektronik KW - Laserstrukturierung KW - Moultimodale Sensorik KW - Roboter Sensorhaut KW - Dielectric Elastomer Sensors KW - Mikroelektronik KW - Laser structuring KW - Multimodal sensors KW - Robot Sensor Skin Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-260875 ER - TY - THES A1 - Wanner, Jonas Paul T1 - Artificial Intelligence for Human Decision-Makers: Systematization, Perception, and Adoption of Intelligent Decision Support Systems in Industry 4.0 T1 - Künstliche Intelligenz für menschliche Entscheidungsträger: Systematisierung, Wahrnehmung und Akzeptanz von intelligenten Entscheidungsunterstützungssystemen im Kontext der Industrie 4.0 N2 - Innovative possibilities for data collection, networking, and evaluation are unleashing previously untapped potential for industrial production. However, harnessing this potential also requires a change in the way we work. In addition to expanded automation, human-machine cooperation is becoming more important: The machine achieves a reduction in complexity for humans through artificial intelligence. In fractions of a second large amounts of data of high decision quality are analyzed and suggestions are offered. The human being, for this part, usually makes the ultimate decision. He validates the machine’s suggestions and, if necessary, (physically) executes them. Both entities are highly dependent on each other to accomplish the task in the best possible way. Therefore, it seems particularly important to understand to what extent such cooperation can be effective. Current developments in the field of artificial intelligence show that research in this area is particularly focused on neural network approaches. These are considered to be highly powerful but have the disadvantage of lacking transparency. Their inherent computational processes and the respective result reasoning remain opaque to humans. Some researchers assume that human users might therefore reject the system’s suggestions. The research domain of explainable artificial intelligence (XAI) addresses this problem and tries to develop methods to realize systems that are highly efficient and explainable. This work is intended to provide further insights relevant to the defined goal of XAI. For this purpose, artifacts are developed that represent research achievements regarding the systematization, perception, and adoption of artificially intelligent decision support systems from a user perspective. The focus is on socio-technical insights with the aim to better understand which factors are important for effective human-machine cooperation. The elaborations predominantly represent extended grounded research. Thus, the artifacts imply an extension of knowledge in order to develop and/ or test effective XAI methods and techniques based on this knowledge. Industry 4.0, with a focus on maintenance, is used as the context for this development. N2 - Durch innovative Möglichkeiten der Datenerhebung, Vernetzung und Auswertung werden Potenziale für die Produktion freigesetzt, die bisher ungenutzt sind. Dies bedingt jedoch eine Veränderung der Arbeitsweise. Neben einer erweiterten Automatisierung wird die Mensch-Maschinen-Kooperation wichtiger: Die Maschine erreicht durch Künstliche Intelligenz eine Komplexitätsreduktion für den Menschen. In Sekundenbruchteilen werden Vorschläge aus großen Datenmengen von hoher Entscheidungsqualität geboten, während der Mensch i.d.R. die Entscheidung trifft und diese ggf. (physisch) ausführt. Beide Instanzen sind stark voneinander abhängig, um eine bestmögliche Aufgabenbewältigung zu erreichen. Es scheint daher insbesondere wichtig zu verstehen, inwiefern eine solche Kooperation effektiv werden kann. Aktuelle Entwicklungen auf dem Gebiet der Künstlichen Intelligenz zeigen, dass die Forschung hierzu insbesondere auf Ansätze Neuronaler Netze fokussiert ist. Diese gelten als hoch leistungsfähig, haben aber den Nachteil einer fehlenden Nachvollziehbarkeit. Ihre inhärenten Berechnungsvorgänge und die jeweilige Ergebnisfindung bleiben für den Menschen undurchsichtig. Einige Forscher gehen davon aus, dass menschliche Nutzer daher die Systemvorschläge ablehnen könnten. Die Forschungsdomäne erklärbare Künstlichen Intelligenz (XAI) nimmt sich der Problemstellung an und versucht Methoden zu entwickeln, um Systeme zu realisieren die hoch-leistungsfähig und erklärbar sind. Diese Arbeit soll weitere Erkenntnisse für das definierte Ziel der XAI liefern. Dafür werden Artefakte entwickelt, welche Forschungsleistungen hinsichtlich der Systematisierung, Wahrnehmung und Adoption künstlich intelligenter Entscheidungsunterstützungssysteme aus Anwendersicht darstellen. Der Fokus liegt auf sozio-technischen Erkenntnissen. Es soll besser verstanden werden, welche Faktoren für eine effektive Mensch-Maschinen-Kooperation wichtig sind. Die Erarbeitungen repräsentieren überwiegend erweiterte Grundlagenforschung. Damit implizieren die Artefakte eine Erweiterung des Wissens, um darauf aufbauend effektive XAI-Methoden und -Techniken zu entwickeln und/ oder zu erproben. Als Kontext der eigenen Erarbeitung wird die Industrie 4.0 mit Schwerpunkt Instandhaltung genutzt. KW - Künstliche Intelligenz KW - Entscheidungsunterstützungssystem KW - Industrie 4.0 KW - Explainable AI KW - Erklärbare Künstliche Intelligenz KW - Artificial Intelligence KW - Industry 4.0 KW - Decision Support Systems Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-259014 ER - TY - THES A1 - Lohr, David T1 - Functional and Structural Characterization of the Myocardium T1 - Funktionelle und Strukturelle Charakterisierung des Myokardiums N2 - Clinical practice in CMR with respect to cardiovascular disease is currently focused on tissue characterization, and cardiac function, in particular. In recent years MRI based diffusion tensor imaging (DTI) has been shown to enable the assessment of microstructure based on the analysis of Brownian motion of water molecules in anisotropic tissue, such as the myocardium. With respect to both functional and structural imaging, 7T MRI may increase SNR, providing access to information beyond the reach of clinically applied field strengths. To date, cardiac 7T MRI is still a research modality that is only starting to develop towards clinical application. In this thesis we primarily aimed to advance methods of ultrahigh field CMR using the latest 7T technology and its application towards the functional and structural characterization of the myocardium. Regarding the assessment of myocardial microstructure at 7T, feasibility of ex vivo DTI of large animal hearts was demonstrated. In such hearts a custom sequence implemented for in vivo DTI was evaluated and fixation induced alterations of derived diffusion metrics and tissue properties were assessed. Results enable comparison of prior and future ex vivo DTI studies and provide information on measurement parameters at 7T. Translating developed methodology to preclinical studies of mouse hearts, ex vivo DTI provided highly sensitive surrogates for microstructural remodeling in response to subendocardial damage. In such cases echocardiography measurements revealed mild diastolic dysfunction and impaired longitudinal deformation, linking disease induced structural and functional alterations. Complementary DTI and echocardiography data also improved our understanding of structure-function interactions in cases of loss of contractile myofiber tracts, replacement fibrosis, and LV systolic failure. Regarding the functional characterization of the myocardium at 7T, sequence protocols were expanded towards a dedicated 7T routine protocol, encompassing accurate cardiac planning and the assessment of cardiac function via cine imaging in humans. This assessment requires segmentation of myocardial contours. For that, artificial intelligence (AI) was developed and trained, enabling rapid automatic generation of cardiac segmentation in clinical data. Using transfer learning, AI models were adapted to cine data acquired using the latest generation 7T system. Methodology for AI based segmentation was translated to cardiac pathology, where automatic segmentation of scar tissue, edema and healthy myocardium was achieved. Developed radiofrequency hardware facilitates translational studies at 7T, providing controlled conditions for future method development towards cardiac 7T MRI in humans. In this thesis the latest 7T technology, cardiac DTI, and AI were used to advance methods of ultrahigh field CMR. In the long run, obtained results contribute to diagnostic methods that may facilitate early detection and risk stratification in cardiovascular disease. N2 - Bei kardiovaskulären Erkrankungen konzentriert sich die kardiale MRT aktuell auf die Gewebecharakterisierung und insbesondere die Herzfunktion. In den letzten Jahren hat sich gezeigt, dass MRT-basierte Diffusions-Tensor-Bildgebung (DTI) die Beurteilung der Mikrostruktur anhand der Analyse der Brownschen Bewegung von Wassermolekülen in anisotropem Gewebe, wie dem Myokardium, ermöglicht. In Bezug auf sowohl die funktionelle als auch die strukturelle Bildgebung kann 7T MRT SNR verbessern und Information messbar machen, die außerhalb der Reichweite von klinisch angewendeten Feldstärken liegt. Heute ist kardiale 7T MRT noch eine Forschungsmodalität, die sich Richtung klinischer Anwendung entwickelt. Hauptziel dieser Dissertation war die Weiterentwicklung von Methoden der kardialen Ultrahochfeld-Bildgebung mittels der neuesten 7T-Technologie und dessen Anwendung für die funktionelle und strukturelle Charakterisierung des Myokardiums. Für die Mikrostrukturcharakterisierung des Myokardiums bei 7T wurde die Durchführbarkeit von ex vivo DTI Messungen von Großtierherzen demonstriert. In solchen Herzen wurde eine Sequenz evaluiert, die für in vivo DTI etabliert wurde. Zudem wurden fixationsbedinge Veränderungen von Diffusionsparametern und Gewebeeigenschaften ermittelt. Die Ergebnisse erlauben den Vergleich von bestehenden und zukünftigen ex vivo Studien und geben Informationen zu Messparametern bei 7T. Der Transfer von etablierten Methoden zu präklinischen Studien in Mäuseherzen demonstrierte, dass ex vivo DTI sensitive Marker für Mikrostruktur-Remodeling nach Subendokard-Schäden liefern kann. In solchen Fällen zeigte Echokardiographie eine leichte diastolische Dysfunktion und eingeschränkte Longitudinalverformung. Komplementäre DTI und Echokardiographie-Daten erweiterten zudem unser Verständnis von Struktur-Funktions-Interaktionen in Fällen von Verlust von kontraktilen Faserbündeln, Fibrose und linksventrikulärem, systolischem Versagen. Für die funktionelle Charakterisierung des Myokardiums bei 7T wurde ein dediziertes 7T-Humanprotokoll erarbeitet, welches akkurate Schichtplanung und die Bestimmung der Herzfunktion mittels Cine-Bildgebung umfasst. Die Herzfunktionsbestimmung erfordert die Segmentierung des Myokards. Hierfür wurde künstliche Intelligenz (KI) entwickelt, die eine schnelle, automatische Herzsegmentierung in klinischen Daten ermöglicht. Mittels Lerntransfer wurden KI-Modelle für Bilder angepasst, die mit der neuesten 7T-Technologie aufgenommen wurden. Methoden für die KI-basierte Segmentierung wurden zudem für die Bestimmung und Segmentierung von Narbengewebe, Ödemen und gesundem Myokard erweitert. Entwickelte Radiofrequenz-Komponenten ermöglichen translationale 7T-Studien, welche kontrollierte Bedingungen für die Methodenentwicklung von kardialen 7T-Anwendungen für den Humanbereich liefern. In dieser Arbeit werden die neueste 7T-Technologie, DTI am Herzen und AI genutzt, um Methoden der kardialen Ultrahochfeld-Bildgebung weiterzuentwickeln. Langfristig erweitern die erzielten Ergebnisse diagnostische Methoden, die Früherkennung und Risikoabschätzung in kardiovaskulären Erkrankungen ermöglichen können. KW - Diffusionsgewichtete Magnetresonanztomografie KW - Künstliche Intelligenz KW - 7T KW - DTI KW - AI KW - Cardiac Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-234486 ER - TY - THES A1 - Roth, Daniel T1 - Intrapersonal, Interpersonal, and Hybrid Interactions in Virtual Reality T1 - Intrapersonelle, Interpersonelle und Hybride Interaktionen in Virtual Reality N2 - Virtual reality and related media and communication technologies have a growing impact on professional application fields and our daily life. Virtual environments have the potential to change the way we perceive ourselves and how we interact with others. In comparison to other technologies, virtual reality allows for the convincing display of a virtual self-representation, an avatar, to oneself and also to others. This is referred to as user embodiment. Avatars can be of varying realism and abstraction in their appearance and in the behaviors they convey. Such userembodying interfaces, in turn, can impact the perception of the self as well as the perception of interactions. For researchers, designers, and developers it is of particular interest to understand these perceptual impacts, to apply them to therapy, assistive applications, social platforms, or games, for example. The present thesis investigates and relates these impacts with regard to three areas: intrapersonal effects, interpersonal effects, and effects of social augmentations provided by the simulation. With regard to intrapersonal effects, we specifically explore which simulation properties impact the illusion of owning and controlling a virtual body, as well as a perceived change in body schema. Our studies lead to the construction of an instrument to measure these dimensions and our results indicate that these dimensions are especially affected by the level of immersion, the simulation latency, as well as the level of personalization of the avatar. With regard to interpersonal effects we compare physical and user-embodied social interactions, as well as different degrees of freedom in the replication of nonverbal behavior. Our results suggest that functional levels of interaction are maintained, whereas aspects of presence can be affected by avatar-mediated interactions, and collaborative motor coordination can be disturbed by immersive simulations. Social interaction is composed of many unknown symbols and harmonic patterns that define our understanding and interpersonal rapport. For successful virtual social interactions, a mere replication of physical world behaviors to virtual environments may seem feasible. However, the potential of mediated social interactions goes beyond this mere replication. In a third vein of research, we propose and evaluate alternative concepts on how computers can be used to actively engage in mediating social interactions, namely hybrid avatar-agent technologies. Specifically, we investigated the possibilities to augment social behaviors by modifying and transforming user input according to social phenomena and behavior, such as nonverbal mimicry, directed gaze, joint attention, and grouping. Based on our results we argue that such technologies could be beneficial for computer-mediated social interactions such as to compensate for lacking sensory input and disturbances in data transmission or to increase aspects of social presence by visual substitution or amplification of social behaviors. Based on related work and presented findings, the present thesis proposes the perspective of considering computers as social mediators. Concluding from prototypes and empirical studies, the potential of technology to be an active mediator of social perception with regard to the perception of the self, as well as the perception of social interactions may benefit our society by enabling further methods for diagnosis, treatment, and training, as well as the inclusion of individuals with social disorders. To this regard, we discuss implications for our society and ethical aspects. This thesis extends previous empirical work and further presents novel instruments, concepts, and implications to open up new perspectives for the development of virtual reality, mixed reality, and augmented reality applications. N2 - Virtual Reality und weitere Medien- und Kommunikationstechnologien haben einen wachsenden Einfluss auf professionelle Anwendungsbereiche und unseren Alltag. Virtuelle Umgebungen haben das Potenzial, Einfluss darauf zu nehmen, wie Mensche sich selbst wahrnehmen und wie sie mit anderen umgehen. Im Vergleich zu anderen Technologien ermöglicht Virtual Reality die überzeugende Visualisierung einer virtuellen Selbstdarstellung, eines Avatars, sichtbar für den Nutzer/die Nutzerin selbst aber auch für andere. Dies bezeichnet man als Nutzerverk¨orperung. Avatare können von unterschiedlichem Realismus und Abstraktion in Bezug auf ihr Aussehen sowie der Darstellung von Verhaltensweisen geprägt sein. Solche nutzerverkörpernde Schnittstellen wiederum können die Wahrnehmung des Selbst sowie die Wahrnehmung von Interaktionen beeinflussen. Für Forscher/-innen, Designer/-innen und Entwickler/-innen ist es von besonderem Interesse, diese Wahrnehmungseffekte zu verstehen, um sie beispielsweise auf Therapie, assistive Anwendungen, soziale Plattformen oder Spiele anzuwenden. Die vorliegende Arbeit untersucht und bezieht sich auf diese Auswirkungen in drei Bereichen: intrapersonelle Effekte, zwischenmenschliche Effekte sowie Effekte durch soziale Augmentierungen, die durch die Simulation bereitgestellt werden. Im Hinblick auf intrapersonelle Effekte widmet sich die vorliegende Arbeit insbesondere der Frage, welche Simulationseigenschaften die Illusion des Besitzens/Innehabens und der Kontrolle eines virtuellen Körpers sowie eine wahrgenommene Veränderung des Körperschemas beeinflussen. Die vorgestellten Studien führen zur Konstruktion eines Instruments zur Erfassung dieser Dimensionen und die Ergebnisse zeigen, dass die empfundene Verkörperung besonders von dem Grad der Immersion, der Simulationslatenz sowie dem Grad der Personalisierung des Avatars abhängt. Im Hinblick auf zwischenmenschliche Effekte vergleicht diese Dissertation physische (realweltliche) und virtuelle soziale Interaktionen sowie unterschiedliche Freiheitsgrade in der Replikation nonverbalen Verhaltens. Die Ergebnisse deuten darauf hin, dass die funktionalen Ebenen der Interaktion aufrechterhalten werden, während Aspekte der Präsenz durch avatarvermittelte Interaktionen beeinflusst werden und die kollaborative motorische Koordination durch immersive Simulationen gestört werden kann. Die soziale Interaktion besteht aus vielen unbekannten Symbolen und harmonischen Mustern, die das menschliche Verst¨andnis und zwischenmenschliche Beziehungen definieren. Für erfolgreiche virtuelle soziale Interaktionen mag eine bloße Replikation von physikalischenWeltverhaltensweisen auf virtuelle Umgebungen m¨oglich erscheinen. Das Potenzial computervermittelter sozialer Interaktionen geht jedoch über diese bloße Replikation hinaus. Im dritten Bereich dieser Arbeit werden alternative Konzepte vorgeschlagen und evaluiert, wie Computer genutzt werden können, um eine aktive Rolle in sozialen Interaktionen einzunehmen. Diese Technologien werden als hybride Avatar-Agenten-Technologien definiert. Insbesondere wird untersucht, welche Möglichkeiten das soziale Verhalten zu erweitern emtstehen, indem die Verhaltensweisen der Benutzer/-innen entsprechend sozialer Ph¨anomene und Verhaltensweisen modifiziert und transformiert werden. Beispiele sind die nonverbale Spiegelung, der Fokus des Blicks, eine gemeinsame Aufmerksamkeit und die Gruppenbildung. Basierend auf den Ergebnissen argumentiert diese Arbeit, dass solche Technologien für computervermittelte soziale Interaktionen von Vorteil sein könnten, beispielsweise zum Ausgleich fehlender Sensorik, Störungen bei der Datenübertragung oder zur Verbesserung sozialer Präsenz durch visuelle Substitution oder Verstärkung des sozialen Verhaltens. Basierend auf verwandten Arbeiten und präsentierten Ergebnissen wird abgeleitet, dass Computer als soziale Mediatoren fungieren können. Ausgehend von Prototypen und empirischen Studien kann das Potenzial der Technologie, ein aktiver Vermittler in Bezug auf dieWahrnehmung des Selbst sowie dieWahrnehmung sozialer Interaktionen zu sein, unserer Gesellschaft zugutekommen. Dadurch können beispielsweise weitere Methoden zur Diagnose, der Behandlung und Ausbildung sowie der Inklusion von Menschen mit sozialen Störungen ermöglicht werden. In diesem Zusammenhang werden die Auswirkungen auf unsere Gesellschaft und ethische Aspekte diskutiert. Diese Arbeit erweitert frühere empirische Arbeiten und präasentiert darüber hinaus neue Instrumente, Konzepte und Implikationen, um neue Perspektiven für die Entwicklung von Virtual Reality, Mixed Reality und Augmented Reality Anwendungen zu beleuchten. KW - Virtuelle Realität KW - Mensch-Maschine-Kommunikation KW - virtual embodiment KW - virtual social interaction KW - hybrid avatar-agent systems KW - collaborative interaction KW - avatars KW - virtual reality KW - augmented reality KW - social artificial intelligence KW - Avatar KW - Künstliche Intelligenz Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-188627 ER - TY - THES A1 - Dang, Nghia Duc T1 - Konzeption und Evaluation eines hybriden, skalierbaren Werkzeugs zur mechatronischen Systemdiagnose am Beispiel eines Diagnosesystems für freie Kfz-Werkstätten T1 - Conception and evaluation of a hybrid, scalable tool for mechatronical system diagnosis on the example of a diagnostic system for independent car repair shops N2 - Die Entwicklung eines wissensbasierten Systems, speziell eines Diagnosesystems, ist eine Teildisziplin der künstlichen Intelligenz und angewandten Informatik. Im Laufe der Forschung auf diesem Gebiet wurden verschiedene Lösungsansätze mit unterschiedlichem Erfolg bei der Anwendung in der Kraftfahrzeugdiagnose entwickelt. Diagnosesysteme in Vertragswerkstätten, das heißt in Fahrzeughersteller gebundenen Werkstätten, wenden hauptsächlich die fallbasierte Diagnostik an. Zum einen hält sich hier die Fahrzeugvielfalt in Grenzen und zum anderen besteht eine Meldepflicht bei neuen, nicht im System vorhandenen Fällen. Die freien Werkstätten verfügen nicht über eine solche Datenbank. Somit ist der fallbasierte Ansatz schwer umsetzbar. In freien Werkstätten - Fahrzeughersteller unabhängigen Werkstätten - basiert die Fehlersuche hauptsächlich auf Fehlerbäumen. Wegen der wachsenden Fahrzeugkomplexität, welche wesentlich durch die stark zunehmende Anzahl der durch mechatronische Systeme realisierten Funktionen bedingt ist, und der steigenden Typenvielfalt ist die geführte Fehlersuche in freien Werkstätten nicht immer zielführend. Um die Unterstützung des Personals von freien Werkstätten bei der zukünftigen Fehlersuche zu gewährleisten, werden neue Generationen von herstellerunabhängigen Diagnosetools benötigt, die die Probleme der Variantenvielfalt und Komplexität lösen. In der vorliegenden Arbeit wird ein Lösungsansatz vorgestellt, der einen qualitativen, modellbasierten Diagnoseansatz mit einem auf heuristischem Diagnosewissen basierenden Ansatz vereint. Neben der Grundlage zur Wissenserhebung werden in dieser Arbeit die theoretische Grundlage zur Beherrschung der Variantenvielfalt sowie die Tests für die erstellten Diagnosemodelle behandelt. Die Diagnose ist symptombasiert und die Inferenzmechanismen zur Verarbeitung des Diagnosewissens sind eine Kombination aus Propagierung der abweichenden physikalischen Größen im Modell und der Auswertung des heuristischen Wissens. Des Weiteren werden in dieser Arbeit verschiedene Aspekte der Realisierung der entwickelten theoretischen Grundlagen dargestellt, zum Beispiel: Systemarchitektur, Wissenserhebungsprozess, Ablauf des Diagnosevorgangs in den Werkstätten. Die Evaluierung der entwickelten Lösung bei der Wissenserhebung in Form von Modellerstellungen und Modellierungsworkshops sowie Feldtests dient nicht nur zur Bestätigung des entwickelten Ansatzes, sondern auch zur Ideenfindung für die Integration der entwickelten Tools in die existierende IT-Infrastruktur. N2 - The development of a knowledge-based system - in particular a diagnostic system - is a branch of artificial intelligence and applied computer science. Throughout the research in this field, various approaches have been developed with varying degrees of success in the application in automotive diagnostics. Diagnostic systems in authorized garages i.e. in garages bound to vehicle manufacturers mainly apply case-based diagnosis. In those cases first the variance of vehicles is limited and second there is a reporting obligation of new, yet not existing cases within the system. The independent repair shops do not have such a database. Thus, the case-based approach is difficult to implement. In independent garages - car manufacturer independent garages - the troubleshooting is mainly based on fault trees. Because of the growing complexity of vehicles, which is mainly due to the rapidly increasing number of functions realized by mechatronic systems and the increasing variety of vehicle types, guided troubleshooting for independent garages is not always productive. To ensure the support of the staff of independent garages in the future troubleshooting, new generations of multivendor diagnostic tools are needed to solve the problems of the variety and complexity. In the present paper an approach is presented which combines a qualitative, model-based diagnostic approach to a heuristic diagnostic knowledge-based approach. In addition to the basis for knowledge collection in this study the theoretical basis for the control of the variety and the tests for the generated diagnosis models are discussed. The diagnosis is symptom-based and the inference mechanisms for processing of diagnostic knowledge are a combination of propagation of the different physical parameters in the model and the evaluation of heuristic knowledge. Furthermore, various aspects of the implementation of the developed theoretical basis are presented in this thesis, for example: system architecture, knowledge collection process, the course of action of the diagnostic process in the workshops. The evaluation of the developed solution for the collection of knowledge in the form of preparation of models and modeling workshops, as well as field tests not only serves to validate the developed approach, but also to find ideas for the integration of the developed tools into the existing IT infrastructure. KW - Diagnosesystem KW - Künstliche Intelligenz KW - Modellbasierte Diagnose KW - Werkstattdiagnose KW - hybride Diagnose KW - skalierbare Diagnose KW - Inferenz KW - Angewandte Informatik KW - aftermarket diagnostic KW - model-base diagnosis KW - hybrid Diagnostic Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-70774 ER - TY - THES A1 - Löwe, Peter T1 - Methoden der Künstlichen Intelligenz in Radarmeteorologie und Bodenerosionsforschung T1 - Artificial Intelligence Methods in Radar-Meteorology and Soil Erosion Research N2 - Die Dissertation "Methoden der Künstlichen Intelligenz in Radarmeteorologie und Bodenerosionsforschung" beschäftigt sich mit der Erfassung des Parameters der potentiellen Erosivität vor dem Hintergrund der Bodenerosionsproblematik Südafrikas. Basierend auf der Betrachtung der Erosivität einzelner Niederschlagsereignisse wird demonstriert, wie durch wissensbasierte Ansätze aus Wetterradardatensätzen flächendeckende Niederschlagsinformationen gewonnen werden können. Diese dienen als Eingangsdaten für ein Erosivitätsmodell, das aus Zellulären Automaten aufgebaut wird. Die Ergebnisse des Erosivitätsmodells werden vorgestellt und diskutiert. N2 - The dissertation "Artificial Intelligence Methods in Radarmeteorology and Soil Erosion Research" discusses the assessment of potential rainfall erodibility in regard to soil erosion processes in South Africa. Knowledge-based approaches are used to derive rainfall information from weather radar data for the recording of erosivity pulses from individual rainfall events. This precipitation data is used as input for a erosivity modell consisting built out of cellular automata. The results generated by the modell are presented and discussed. KW - Südafrika KW - Bodenerosion KW - Radarmeteorologie KW - Künstliche Intelligenz KW - GRASS KW - Bodenerosion KW - Radarmeteorologie KW - Künstliche Intelligenz KW - GRASS GIS KW - Südafrika KW - Soil Erosion KW - Radar-Meteorology KW - Artificial Intelligence KW - GRASS GIS KW - South Africa Y1 - 2003 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-7594 ER -