TY - THES A1 - Reinhard, Sebastian T1 - Improving Super-Resolution Microscopy Data Reconstruction and Evaluation by Developing Advanced Processing Algorithms and Artifcial Neuronal Networks T1 - Verbesserung von Datenrekonstruktion und -auswertung in der Super-Resolution Mikroskopie durch die Entwicklung von fortgeschrittenen Verarbeitungsalgorithmen und künstlichen neuronalen Netzen N2 - The fusion of methods from several disciplines is a crucial component of scientific development. Artificial Neural Networks, based on the principle of biological neuronal networks, demonstrate how nature provides the best templates for technological advancement. These innovations can then be employed to solve the remaining mysteries of biology, including, in particular, processes that take place on microscopic scales and can only be studied with sophisticated techniques. For instance, direct Stochastic Optical Reconstruction Microscopy combines tools from chemistry, physics, and computer science to visualize biological processes at the molecular level. One of the key components is the computer-aided reconstruction of super-resolved images. Improving the corresponding algorithms increases the quality of the generated data, providing further insights into our biology. It is important, however, to ensure that the heavily processed images are still a reflection of reality and do not originate in random artefacts. Expansion microscopy is expanding the sample by embedding it in a swellable hydrogel. The method can be combined with other super-resolution techniques to gain additional resolution. We tested this approach on microtubules, a well-known filamentous reference structure, to evaluate the performance of different protocols and labelling techniques. We developed LineProfiler an objective tool for data collection. Instead of collecting perpendicular profiles in small areas, the software gathers line profiles from filamentous structures of the entire image. This improves data quantity, quality and prevents a biased choice of the evaluated regions. On the basis of the collected data, we deployed theoretical models of the expected intensity distribution across the filaments. This led to the conclusion that post-expansion labelling significantly reduces the labelling error and thus, improves the data quality. The software was further used to determine the expansion factor and arrangement of synaptonemal complex data. Automated Simple Elastix uses state-of-the-art image alignment to compare pre- and post-expansion images. It corrects linear distortions occurring under isotropic expansion, calculates a structural expansion factor and highlights structural mismatches in a distortion map. We used the software to evaluate expanded fungi and NK cells. We found that the expansion factor differs for the two structures and is lower than the overall expansion of the hydrogel. Assessing the fluorescence lifetime of emitters used for direct Stochastic Optical Reconstruction Microscopy can reveal additional information about the molecular environment or distinguish dyes emitting with a similar wavelength. The corresponding measurements require a confocal scanning of the sample in combination with the fluorescent switching of the underlying emitters. This leads to non-linear, interrupted Point Spread Functions. The software ReCSAI targets this problem by combining the classical algorithm of compressed sensing with modern methods of artificial intelligence. We evaluated several different approaches to combine these components and found, that unrolling compressed sensing into the network architecture yields the best performance in terms of reconstruction speed and accuracy. In addition to a deep insight into the functioning and learning of artificial intelligence in combination with classical algorithms, we were able to reconstruct the described non-linearities with significantly improved resolution, in comparison to other state-of-the-art architectures. N2 - Für die Weiterentwicklung der Wissenschaft wird es immer wichtiger, Methoden aus verschiedenen Gebieten zu kombinieren. Die künstliche Intelligenz beruht beispielsweise auf dem Prinzip biologischer neuronaler Netze. Hier wird die Natur als Vorlage für unsere technische Entwicklung genutzt. Diese Innovationen können dazu eingesetzt werden, die verbliebenen Rätsel der Biologie zu lösen. Dazu gehören insbesondere Prozesse, die sich auf mikroskopischer Ebene abspielen und nur mit hochentwickelten Techniken untersucht werden können. Die direkte Stochastisch Optische Rekonstruktionsmikroskopie kombiniert Methoden der Chemie, Physik und Informatik, um biologische Prozesse auf molekularer Ebene sichtbar zu machen. Eine der Schlüsselkomponenten ist die computergestützte Rekonstruktion von hochaufgelösten Bildern. Die Verbesserung der zugrunde liegenden Algorithmen erhöht die Qualität der erzeugten Daten und ermöglicht weitere Einblicke in unsere Biologie. Es muss jedoch sichergestellt werden, dass die künstlich erstellten Bilder immer noch ein Abbild der Realität sind und nicht auf zufälligen Artefakten beruhen. Expansionsmikroskopie vergrößert die Probe durch Einbettung in ein Hydrogel. Die Methode kann mit anderen hochauflösenden Techniken kombiniert werden, um die Auflösung noch weiter zu verbessern. Dieser Ansatz wurde an Mikrotubuli, einer bekannten flamentösen Referenzstruktur, verwendet, um verschiedene Protokolle und Markierungstechniken zu testen. Mit LineProfiler wurde ein objektives Werkzeug zur Datenerfassung entwickelt. Anstatt Linienprofle in kleinen Bereichen zu erfassen, wertet die Software das gesamte Bild aus. Dies verbessert die Datenmenge und Datenqualität und verhindert eine voreingenommene Auswahl der ausgewerteten Regionen. Auf Grundlage der gesammelten Daten wurden theoretische Modelle für die erwartete Intensitätsverteilung über die Filamente erstellt. Daraus konnte geschlossen werden, dass die Markierung nach der Expansion den Markierungsfehler erheblich reduziert und somit die Qualität der Daten verbessert. Die Software wurde außerdem zur Bestimmung des Expansionsfaktors und der Anordnung der Daten des synaptonemalen Komplexes verwendet. Automated Simple Elastix verwendet modernste Bildregistrierung, um Bilder vor und nach der Expansion zu vergleichen. Lineare Verzerrungen, die bei isotroper Expansion auftreten, werden korrigiert. Der strukturelle Expansionsfaktor wird berechnet und strukturelle Unstimmigkeiten werden in einer Verzerrungskarte hervorgehoben. Die Software wurde zur Bewertung expandierter Pilze und NK-Zellen eingesetzt. Dabei wurde festgestellt, dass der Expansionsfaktor für die beiden Strukturen unterschiedlich ist und unter der Gesamtexpansion des Hydrogels liegt. Die Auswertung der Fluoreszenzlebensdauer von Emittern, die für die direkte Stochastische Optische Rekonstruktionsmikroskopie eingesetzt werden, kann zusätzliche Informationen über die molekulare Umgebung liefern oder Farbstoffe unterscheiden, die VI eine ähnliche Lichtwellenlänge emittieren. Die entsprechenden Messungen erfordern eine konfokale Abtastung der Probe in Kombination mit dem fluoreszenten Schalten der zugrunde liegenden Emitter. Dies führt zu nichtlinearen, unterbrochenen Punktspreizfunktionen. Die Software ReCSAI löst dieses Problem, indem sie den klassischen Algorithmus des Compressed Sensing mit modernen Methoden der künstlichen Intelligenz kombiniert. Es wurden verschiedene Ansätze zur Kombination der Komponenten ausgewertet und festgestellt, dass die Integration von Compressed Sensing in die Netzwerkarchitektur die beste Performance in Bezug auf Rekonstruktionsgeschwindigkeit und -genauigkeit bringt. Neben einem tiefen Einblick in die Funktionsweise und das Lernen von künstlicher Intelligenz in Kombination mit klassischen Algorithmen konnten die beschriebenen Nichtlinearitäten mit einer deutlich verbesserten Auflösung im Vergleich zu anderen modernen Architekturen rekonstruiert werden. KW - Mikroskopie KW - Künstliche Intelligenz KW - Datenanalyse KW - Bildverarbeitung KW - Compressed Sensing KW - Lifetime Imaging KW - dSTORM Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-316959 ER - TY - THES A1 - Grundke, Andrea T1 - Head and Heart: On the Acceptability of Sophisticated Robots Based on an Enhancement of the Mind Perception Dichotomy and the Uncanny Valley of Mind T1 - Herz und Kopf: Zur Akzeptanz von elaborierten Robotern anhand einer Weiterentwicklung der Mind-Perception-Dichotomie und des Uncanny Valleys of Mind N2 - With the continuous development of artificial intelligence, there is an effort to let the expressed mind of robots resemble more and more human-like minds. However, just as the human-like appearance of robots can lead to feelings of aversion to such robots, recent research has shown that the apparent mind expressed by machines can also be responsible for their negative evaluations. This work strives to explore facets of aversion evoked by machines with human-like mind (uncanny valley of mind) within three empirical projects from a psychological point of view in different contexts, including the resulting consequences. In Manuscript #1, the perspective of previous work in the research area is reversed and thus shows that humans feel eeriness in response to robots that can read human minds, a capability unknown from human-human interaction. In Manuscript #2, it is explored whether empathy for a robot being harmed by a human is a way to alleviate the uncanny valley of mind. A result of this work worth highlighting is that aversion in this study did not arise from the manipulation of the robot’s mental capabilities but from its attributed incompetence and failure. The results of Manuscript #3 highlight that status threat is revealed if humans perform worse than machines in a work-relevant task requiring human-like mental capabilities, while higher status threat is linked with a higher willingness to interact, due to the machine’s perceived usefulness. In sum, if explanatory variables and concrete scenarios are considered, people will react fairly positively to machines with human-like mental capabilities. As long as the machine’s usefulness is palpable to people, but machines are not fully autonomous, people seem willing to interact with them, accepting aversion in favor of the expected benefits. N2 - Mit der stetigen Weiterentwicklung von künstlicher Intelligenz besteht das Bestreben, das ausgedrückte Bewusstsein von Robotern dem menschlichen Bewusstsein immer mehr nachzubilden. Die Forschung hat dargelegt, dass das augenscheinlich von Maschinen ausgedrückte Bewusstsein für negative Bewertungen verantwortlich sein kann (Uncanny Valley of Mind). Dieser Befund soll aus psychologischer Perspektive in verschiedenen Kontexten inklusive der daraus resultierenden Konsequenzen genauer betrachtet werden. Mit Manuskript #1 wird die Perspektive bisheriger Arbeiten in dem Forschungsgebiet umgekehrt und gezeigt, dass Menschen Unheimlichkeit gegenüber Robotern empfinden, die scheinbar menschliche Gedanken lesen können, was aus der Mensch-Mensch-Interaktion unbekannt ist. In Manuskript #2 wird der Frage nachgegangen, ob Empathie für einen von einem Menschen verletzt werdenden Roboter eine Möglichkeit ist, das Uncanny Valley of Mind abzuschwächen. Ein hervorzuhebendes Resultat dieser Arbeit ist, dass Aversion in dieser Studie nicht durch die Manipulation der Bewusstseinszustände des Roboters aufgekommen ist, sondern durch dessen attribuierte Inkompetenz und sein Versagen. Die Ergebnisse von Manuskript #3 zeigen, dass Statusbedrohung auftritt, wenn Menschen bei einer arbeitsrelevanten Aufgabe, die menschenähnliche mentale Fähigkeiten erfordert, schlechter abschneiden als Maschinen. Es wird auf die wahrgenommene Nützlichkeit der Maschine Bezug genommen um zu erklären, dass höhere Statusbedrohung mit höherer Bereitschaft zur Interaktion assoziiert ist. Zusammenfassend reagieren Menschen recht positiv auf Maschinen mit menschenähnlichen mentalen Fähigkeiten, sobald erklärende Variablen und konkrete Szenarien mitberücksichtigt werden. Solange die Nützlichkeit der Maschinen deutlich gemacht wird, diese aber nicht vollkommen autonom sind, scheinen Menschen gewillt zu sein, mit diesen zu interagieren und dabei Gefühle von Aversion zugunsten der antizipierten Vorteile in Kauf zu nehmen. KW - Humanoider Roboter KW - Künstliche Intelligenz KW - Mensch-Maschine-Kommunikation KW - Uncanny Valley of Mind KW - Eeriness KW - Empathy KW - Status Threat KW - Perceived Usefulness KW - Mensch-Maschine-Interaktion Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-330152 ER - TY - CHAP A1 - Muriel Ciceri, José Hernán ED - Ludwigs, Markus ED - Muriel Ciceri, José Hernán ED - Velling, Annika T1 - Auf dem Weg zur Regelung der künstlichen Intelligenz in Lateinamerika T2 - Digitalization as a challenge for justice and administration = La digitalizacion como reto para la justicia y la administracion = Digitalisierung als Herausforderung für Justiz und Verwaltung N2 - No abstract available. KW - Künstliche Intelligenz KW - Lateinamerika Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-306262 PB - Würzburg University Press CY - Würzburg ER - TY - THES A1 - Herm, Lukas-Valentin T1 - Algorithmic Decision-Making Facilities: Perception and Design of Explainable AI-based Decision Support Systems T1 - Förderung der algorithmischen Entscheidungsfindung: Wahrnehmung und Gestaltung von erklärbaren KI-basierten Entscheidungsunterstützungssystemen N2 - Recent computing advances are driving the integration of artificial intelligence (AI)-based systems into nearly every facet of our daily lives. To this end, AI is becoming a frontier for enabling algorithmic decision-making by mimicking or even surpassing human intelligence. Thereupon, these AI-based systems can function as decision support systems (DSSs) that assist experts in high-stakes use cases where human lives are at risk. All that glitters is not gold, due to the accompanying complexity of the underlying machine learning (ML) models, which apply mathematical and statistical algorithms to autonomously derive nonlinear decision knowledge. One particular subclass of ML models, called deep learning models, accomplishes unsurpassed performance, with the drawback that these models are no longer explainable to humans. This divergence may result in an end-user’s unwillingness to utilize this type of AI-based DSS, thus diminishing the end-user’s system acceptance. Hence, the explainable AI (XAI) research stream has gained momentum, as it develops techniques to unravel this black-box while maintaining system performance. Non-surprisingly, these XAI techniques become necessary for justifying, evaluating, improving, or managing the utilization of AI-based DSSs. This yields a plethora of explanation techniques, creating an XAI jungle from which end-users must choose. In turn, these techniques are preliminarily engineered by developers for developers without ensuring an actual end-user fit. Thus, it renders unknown how an end-user’s mental model behaves when encountering such explanation techniques. For this purpose, this cumulative thesis seeks to address this research deficiency by investigating end-user perceptions when encountering intrinsic ML and post-hoc XAI explanations. Drawing on this, the findings are synthesized into design knowledge to enable the deployment of XAI-based DSSs in practice. To this end, this thesis comprises six research contributions that follow the iterative and alternating interplay between behavioral science and design science research employed in information systems (IS) research and thus contribute to the overall research objectives as follows: First, an in-depth study of the impact of transparency and (initial) trust on end-user acceptance is conducted by extending and validating the unified theory of acceptance and use of technology model. This study indicates both factors’ strong but indirect effects on system acceptance, validating further research incentives. In particular, this thesis focuses on the overarching concept of transparency. Herein, a systematization in the form of a taxonomy and pattern analysis of existing user-centered XAI studies is derived to structure and guide future research endeavors, which enables the empirical investigation of the theoretical trade-off between performance and explainability in intrinsic ML algorithms, yielding a less gradual trade-off, fragmented into three explainability groups. This includes an empirical investigation on end-users’ perceived explainability of post-hoc explanation types, with local explanation types performing best. Furthermore, an empirical investigation emphasizes the correlation between comprehensibility and explainability, indicating almost significant (with outliers) results for the assumed correlation. The final empirical investigation aims at researching XAI explanation types on end-user cognitive load and the effect of cognitive load on end-user task performance and task time, which also positions local explanation types as best and demonstrates the correlations between cognitive load and task performance and, moreover, between cognitive load and task time. Finally, the last research paper utilizes i.a. the obtained knowledge and derives a nascent design theory for XAI-based DSSs. This design theory encompasses (meta-) design requirements, design principles, and design features in a domain-independent and interdisciplinary fashion, including end-users and developers as potential user groups. This design theory is ultimately tested through a real-world instantiation in a high-stakes maintenance scenario. From an IS research perspective, this cumulative thesis addresses the lack of research on perception and design knowledge for an ensured utilization of XAI-based DSS. This lays the foundation for future research to obtain a holistic understanding of end-users’ heuristic behaviors during decision-making to facilitate the acceptance of XAI-based DSSs in operational practice. N2 - Jüngste technische und algorithmische Fortschritte treiben die Integration von Systemen auf der Basis von künstlicher Intelligenz (KI) in nahezu alle Bereiche unseres täglichen Lebens voran. Inzwischen sind diese Systeme in der Lage, menschliche Intelligenz anhand von algorithmischer Entscheidungsfindung nachzuahmen und sogar zu übertreffen. Insbesondere können KI-basierte Systeme als Entscheidungsunterstützungssysteme (Decision Support Systems - DSS) dienen und damit Domänenexperten in hochsensiblen Anwendungsfällen helfen, bei denen Menschenleben auf dem Spiel stehen. Dies resultiert in komplexen Modellen des maschinellen Lernens (ML), welche mathematische und statistische Algorithmen benutzen, um nichtlineares Entscheidungswissen automatisch abzuleiten. Besonders eine Unterklasse von ML-Modellen, die sogenannten Deep-Learning-Modelle (DL-Modelle), erreichen eine unübertroffene Leistung. Sie haben allerdings den Nachteil, dass sie für den Menschen nicht mehr nachvollziehbar sind. Diese Divergenz kann jedoch dazu führen, dass Endanwender nicht bereit sind, diese Art von KI-basierten DSS zu benutzen. Dadurch wird die Akzeptanz solcher Systeme beeinträchtigt. Um dieses Problem anzugehen, ist der Forschungszweig der erklärbaren KI (Explainable Artificial Intelligence - XAI) entstanden. Darin werden Techniken und Methoden entwickelt, die das wahrgenommene Blackbox-Verhalten dieser Modelle aufbrechen. Die XAI-Methoden können für KI-basierte DSS eingesetzt werden und ermöglichen es, Entscheidungen und Modelle zu rechtfertigen, zu bewerten, zu verbessern und zu verwalten. Dieser Ansatz resultiert jedoch in einer Vielzahl von Erklärungstechniken, aus denen die Anwender eine passende Erklärung wählen müssen. Gleichzeitig werden diese Methoden zurzeit primär von Entwicklern für Entwickler konzipiert, ohne, dass dabei ermittelt wird, ob eine tatsächliche Eignung für den Endanwender gewährleistet ist. Im Umkehrschluss ist daher unbekannt, wie sich das mentale Modell eines Endanwenders im Umgang mit solchen Erklärungstechniken verhält. Die vorliegende kumulative Dissertation thematisiert dieses Forschungsdefizit, indem die Wahrnehmung des Endanwenders im Umgang mit intrinsischen ML- und Post-Hoc-XAI-Erklärungen untersucht wird. Die gewonnenen Erkenntnisse werden in gestaltungsorientiertes Wissen synthetisiert, um den Einsatz von XAI-basierten DSS in der Praxis zu ermöglichen. Zu diesem Zweck umfasst die Dissertation sechs Forschungsbeiträge. Diese richten sich nach dem für den Bereich Information Systems (IS) typischen alternierendem Zusammenspiel zwischen verhaltenswissenschaftlicher und designorientierter Forschung und tragen wie folgt zu den übergeordneten Forschungszielen bei: Zu Beginn erfolgt durch Erweiterung und Validierung des Modells Unified Theory of Acceptance and Use of Technology eine Untersuchung des Einflusses von Transparenz und (initialem) Vertrauen auf die Akzeptanz der Endanwender. Die Studie zeigt einen starken, aber indirekten Effekt beider Faktoren auf die Systemakzeptanz und liefert damit die wissenschaftliche Bestätigung für weitere Forschungsinitiativen. Diese Arbeit konzentriert sich insbesondere auf diesen übergeordneten Einflussfaktor Transparenz. Darauf aufbauend wird eine Systematisierung in Form einer Taxonomie und Analyse bestehender nutzerzentrierter XAI-Studien durchgeführt, um zukünftige Forschungsbestrebungen zu strukturieren. Diese Systematisierung ermöglicht anschließend empirische Untersuchungen weiterer Einflussfaktoren auf die Endanwenderwahrnehmung. Zunächst wird eine Untersuchung des theoretischen Zielkonflikts zwischen Leistung und Erklärbarkeit in intrinsischen ML-Algorithmen vorgenommen, welche eine dreiteilige Anordnung empirisch bestätigt. Ebenso erfolgt eine empirische Untersuchung der vom Endanwender wahrgenommenen Erklärbarkeit von Post-Hoc-Erklärungstypen, wobei hier lokale Erklärungstypen am besten abschneiden. Anschließend wird der Zusammenhang zwischen Verständlichkeit und Erklärbarkeit betrachtet, wobei sich eine überwiegend (mit Ausreißern) signifikante Korrelation aufzeigen lässt. Der letzte Teil der empirischen Untersuchungen widmet sich dem Einfluss von XAI-Erklärungstypen auf die kognitive Belastung und die Auswirkung dieser Belastung auf die Aufgabenleistung und -zeit des Endanwenders. Hier zeigt sich, dass lokale Erklärungstypen ebenfalls verhältnismäßig am besten abschneiden und die Korrelationen zwischen kognitiver Belastung und Aufgabenleistung sowie kognitiver Belastung und Aufgabenzeit gegeben sind. Der letzte Forschungsbeitrag fügt u. a. die Ergebnisse zusammen und leitet daraus eine Design-Theorie für XAI-basierte DSS ab. Diese Design Theorie umfasst (Meta-)Design-Anforderungen, Design-Prinzipien und Design-Merkmale in einer domänenunabhängigen und interdisziplinären Art und Weise, welche den Einbezug sowohl von Endanwendern als auch von Entwicklern als potenzielle Nutzergruppen ermöglicht. Aus der Perspektive der IS Disziplin widmet sich diese kumulative Dissertation dem Mangel an Forschung zu Wahrnehmung und Designwissen für eine gesicherte Nutzung von XAI-basierten DSS. Damit legt sie den Grundstein für zukünftige Forschung, um ein ganzheitliches Verständnis des heuristischen Verhaltens der Endanwender während der Entscheidungsfindung zu erlangen und somit die Akzeptanz von XAI-basierten DSS in der betrieblichen Praxis zu fördern. KW - Künstliche Intelligenz KW - Entscheidungsunterstützungssystem KW - Artificial Intelligence KW - Explainable Artificial Intelligence KW - Decision Support Systems Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-322948 ER -