TY - THES A1 - Widmaier [geb. Wirth], Lisa Marie T1 - Künstliche Intelligenz zur vollständig automatisierten FRS-Auswertung: Bewertung der Auswertequalität verschiedener kommerzieller Anbieter im Vergleich zu einem menschlichen Goldstandard T1 - Artificial intelligence for fully automated cephalometric analysis: evaluation of the quality of different commercial providers compared to a humans’ gold standard N2 - Ziel der vorliegenden Studie war es, verschiedene kommerzielle Anbieter für KI-gestützte FRS-Analysen hinsichtlich ihrer Genauigkeit mit einem menschlichen Goldstandard zu vergleichen. Auf 50 FRS wurden durch zwölf erfahrene Untersucher 15 Landmarken identifiziert, auf deren Basis neun relevante Parameter vermessen wurden. Der Medianwert dieser zwölf Auswertungen wurde für jeden Parameter auf jedem FRS als Goldstandard definiert und als Referenz für die Vergleiche mit vier verschiedenen kommerziellen KI-Anbietern (DentaliQ.ortho, WebCeph, AudaxCeph, CephX) festgelegt. Die statistische Auswertung erfolgte mittels ANOVA mit Messwiederholung, paarweiser Vergleiche mittels Post-hoc-Test und Bland-Altman-Plots. DentaliQ.ortho zeigte für alle neun untersuchten Parameter keinen statistisch signifikanten Unterschied zum menschlichen Goldstandard und es konnte insgesamt von einer hohen Genauigkeit der Auswertungen ausgegangen werden. Auch für WebCeph war kein statistisch signifikanter Unterschied zum menschlichen Goldstandard zu verzeichnen. Allerdings war die Präzision im Vergleich zu den anderen Anbietern für alle Parameter am geringsten und der proportionale Fehler bei nahezu allen Parametern am höchsten. AudaxCeph wies für sieben Parameter statistisch signifikante Unterschiede zum menschlichen Goldstandard auf. Für CephX wurden für fünf Parameter statistisch signifikante Unterschiede zum menschlichen Goldstandard ermittelt. Insbesondere für die dentale Analyse war für alle untersuchten kommerziellen KI-Anbieter eine vergleichsweise niedrigere Genauigkeit zu verzeichnen. Die Ergebnisse zeigen, dass noch deutliche Qualitätsunterschiede zwischen den kommerziellen KI-Anbietern für die vollständig automatisierte FRS-Analyse bestehen. Vor dem Hintergrund der Zeitersparnis und Qualitätssicherung sind KI zwar vielversprechend, sollten aber zum aktuellen Zeitpunkt nur unter Aufsicht durch menschliche Experten zum Einsatz kommen. N2 - The aim of this study was to compare various commercial providers for AI-assisted cephalometric analysis with regard to their accuracy to a humans’ gold standard. Twelve experienced investigators identified 15 landmarks on 50 cephalometric X-rays and on this basis nine relevant parameters were measured. The median value of these twelve evaluations was defined as the gold standard for each parameter on each cephalometric X-ray and used as a reference for the comparisons with four different commercial AI providers (DentaliQ.ortho, WebCeph, AudaxCeph, CephX). Statistical analysis was performed using ANOVA with repeated measures, pairwise comparisons using post-hoc test and Bland-Altman plots. DentaliQ.ortho showed no statistically significant difference to the humans’ gold standard for all nine parameters examined and the overall accuracy of the evaluations could be described as high. There was also no statistically significant difference between WebCeph and the humans’ gold standard. However, compared to the other providers, the precision was the lowest for all parameters and the proportional error was the highest for almost all parameters. AudaxCeph showed statistically significant differences to the humans’ gold standard for seven parameters. For CephX, statistically significant differences to the humans’ gold standard were determined for five parameters. For the dental analysis in particular, a comparatively lower accuracy was recorded for all commercial AI providers examined. The results show that there are significant differences in quality between commercial AI providers for fully automated cephalometric analysis. Although AI is promising in terms of saving time and assuring quality, it should currently only be used under the supervision of human experts. KW - Kieferorthopädie KW - Künstliche Intelligenz KW - Fernröntgenseitenbild KW - Fernröntgenanalyse KW - FRS-Analyse KW - cephalometric analysis Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-351803 ER - TY - JOUR A1 - Puppe, Frank T1 - Gesellschaftliche Perspektiven einer fachspezifischen KI für automatisierte Entscheidungen JF - Informatik Spektrum N2 - Die künstliche Intelligenz (KI) entwickelt sich rasant und hat bereits eindrucksvolle Erfolge zu verzeichnen, darunter übermenschliche Kompetenz in den meisten Spielen und vielen Quizshows, intelligente Suchmaschinen, individualisierte Werbung, Spracherkennung, -ausgabe und -übersetzung auf sehr hohem Niveau und hervorragende Leistungen bei der Bildverarbeitung, u. a. in der Medizin, der optischen Zeichenerkennung, beim autonomen Fahren, aber auch beim Erkennen von Menschen auf Bildern und Videos oder bei Deep Fakes für Fotos und Videos. Es ist zu erwarten, dass die KI auch in der Entscheidungsfindung Menschen übertreffen wird; ein alter Traum der Expertensysteme, der durch Lernverfahren, Big Data und Zugang zu dem gesammelten Wissen im Web in greifbare Nähe rückt. Gegenstand dieses Beitrags sind aber weniger die technischen Entwicklungen, sondern mögliche gesellschaftliche Auswirkungen einer spezialisierten, kompetenten KI für verschiedene Bereiche der autonomen, d. h. nicht nur unterstützenden Entscheidungsfindung: als Fußballschiedsrichter, in der Medizin, für richterliche Entscheidungen und sehr spekulativ auch im politischen Bereich. Dabei werden Vor- und Nachteile dieser Szenarien aus gesellschaftlicher Sicht diskutiert. KW - Künstliche Intelligenz KW - Ethik KW - Entscheidungsfindung Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-324197 SN - 0170-6012 VL - 45 IS - 2 ER - TY - JOUR A1 - Herm, Lukas-Valentin A1 - Janiesch, Christian A1 - Fuchs, Patrick T1 - Der Einfluss von menschlichen Denkmustern auf künstliche Intelligenz – eine strukturierte Untersuchung von kognitiven Verzerrungen JF - HMD Praxis der Wirtschaftsinformatik N2 - Künstliche Intelligenz (KI) dringt vermehrt in sensible Bereiche des alltäglichen menschlichen Lebens ein. Es werden nicht mehr nur noch einfache Entscheidungen durch intelligente Systeme getroffen, sondern zunehmend auch komplexe Entscheidungen. So entscheiden z. B. intelligente Systeme, ob Bewerber in ein Unternehmen eingestellt werden sollen oder nicht. Oftmals kann die zugrundeliegende Entscheidungsfindung nur schwer nachvollzogen werden und ungerechtfertigte Entscheidungen können dadurch unerkannt bleiben, weshalb die Implementierung einer solchen KI auch häufig als sogenannte Blackbox bezeichnet wird. Folglich steigt die Bedrohung, durch unfaire und diskriminierende Entscheidungen einer KI benachteiligt behandelt zu werden. Resultieren diese Verzerrungen aus menschlichen Handlungen und Denkmustern spricht man von einer kognitiven Verzerrung oder einem kognitiven Bias. Aufgrund der Neuigkeit dieser Thematik ist jedoch bisher nicht ersichtlich, welche verschiedenen kognitiven Bias innerhalb eines KI-Projektes auftreten können. Ziel dieses Beitrages ist es, anhand einer strukturierten Literaturanalyse, eine gesamtheitliche Darstellung zu ermöglichen. Die gewonnenen Erkenntnisse werden anhand des in der Praxis weit verbreiten Cross-Industry Standard Process for Data Mining (CRISP-DM) Modell aufgearbeitet und klassifiziert. Diese Betrachtung zeigt, dass der menschliche Einfluss auf eine KI in jeder Entwicklungsphase des Modells gegeben ist und es daher wichtig ist „mensch-ähnlichen“ Bias in einer KI explizit zu untersuchen. N2 - Artificial intelligence (AI) is increasingly penetrating sensitive areas of everyday human life, resulting in the ability to support humans in complex and difficult tasks. The result is that intelligent systems are capable of handling not only simple but also complex tasks. For example, this includes deciding whether an applicant should be hired or not. Oftentimes, this decision-making can be difficult to comprehend, and consequently incorrect decisions may remain undetected, which is why these implementations are often referred to as a so-called black box. Consequently, there is the threat of unfair and discriminatory decisions by an intelligent system. If these distortions result from human actions and thought patterns, it is referred to as a cognitive bias. However, due to the novelty of this subject, it is not yet apparent which different cognitive biases can occur within an AI project. The aim of this paper is to provide a holistic view through a structured literature review. Our insights are processed and classified according to the Cross-Industry Standard Process for Data Mining (CRISP-DM) model, which is widely used in practice. This review reveals that human influence on an AI is present in every stage of the model’s development process and that “human-like” biases in an AI must be examined explicitly. T2 - The impact of human thinking on artificial intelligence – a structured investigation of cognitive biases KW - Menschliche Denkmuster KW - Maschinelles Lernen KW - Künstliche Intelligenz KW - Literaturanalyse KW - cognitive biases KW - machine learning KW - artificial intelligence KW - literature review Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-323787 SN - 1436-3011 VL - 59 IS - 2 ER - TY - THES A1 - Grundke, Andrea T1 - Head and Heart: On the Acceptability of Sophisticated Robots Based on an Enhancement of the Mind Perception Dichotomy and the Uncanny Valley of Mind T1 - Herz und Kopf: Zur Akzeptanz von elaborierten Robotern anhand einer Weiterentwicklung der Mind-Perception-Dichotomie und des Uncanny Valleys of Mind N2 - With the continuous development of artificial intelligence, there is an effort to let the expressed mind of robots resemble more and more human-like minds. However, just as the human-like appearance of robots can lead to feelings of aversion to such robots, recent research has shown that the apparent mind expressed by machines can also be responsible for their negative evaluations. This work strives to explore facets of aversion evoked by machines with human-like mind (uncanny valley of mind) within three empirical projects from a psychological point of view in different contexts, including the resulting consequences. In Manuscript #1, the perspective of previous work in the research area is reversed and thus shows that humans feel eeriness in response to robots that can read human minds, a capability unknown from human-human interaction. In Manuscript #2, it is explored whether empathy for a robot being harmed by a human is a way to alleviate the uncanny valley of mind. A result of this work worth highlighting is that aversion in this study did not arise from the manipulation of the robot’s mental capabilities but from its attributed incompetence and failure. The results of Manuscript #3 highlight that status threat is revealed if humans perform worse than machines in a work-relevant task requiring human-like mental capabilities, while higher status threat is linked with a higher willingness to interact, due to the machine’s perceived usefulness. In sum, if explanatory variables and concrete scenarios are considered, people will react fairly positively to machines with human-like mental capabilities. As long as the machine’s usefulness is palpable to people, but machines are not fully autonomous, people seem willing to interact with them, accepting aversion in favor of the expected benefits. N2 - Mit der stetigen Weiterentwicklung von künstlicher Intelligenz besteht das Bestreben, das ausgedrückte Bewusstsein von Robotern dem menschlichen Bewusstsein immer mehr nachzubilden. Die Forschung hat dargelegt, dass das augenscheinlich von Maschinen ausgedrückte Bewusstsein für negative Bewertungen verantwortlich sein kann (Uncanny Valley of Mind). Dieser Befund soll aus psychologischer Perspektive in verschiedenen Kontexten inklusive der daraus resultierenden Konsequenzen genauer betrachtet werden. Mit Manuskript #1 wird die Perspektive bisheriger Arbeiten in dem Forschungsgebiet umgekehrt und gezeigt, dass Menschen Unheimlichkeit gegenüber Robotern empfinden, die scheinbar menschliche Gedanken lesen können, was aus der Mensch-Mensch-Interaktion unbekannt ist. In Manuskript #2 wird der Frage nachgegangen, ob Empathie für einen von einem Menschen verletzt werdenden Roboter eine Möglichkeit ist, das Uncanny Valley of Mind abzuschwächen. Ein hervorzuhebendes Resultat dieser Arbeit ist, dass Aversion in dieser Studie nicht durch die Manipulation der Bewusstseinszustände des Roboters aufgekommen ist, sondern durch dessen attribuierte Inkompetenz und sein Versagen. Die Ergebnisse von Manuskript #3 zeigen, dass Statusbedrohung auftritt, wenn Menschen bei einer arbeitsrelevanten Aufgabe, die menschenähnliche mentale Fähigkeiten erfordert, schlechter abschneiden als Maschinen. Es wird auf die wahrgenommene Nützlichkeit der Maschine Bezug genommen um zu erklären, dass höhere Statusbedrohung mit höherer Bereitschaft zur Interaktion assoziiert ist. Zusammenfassend reagieren Menschen recht positiv auf Maschinen mit menschenähnlichen mentalen Fähigkeiten, sobald erklärende Variablen und konkrete Szenarien mitberücksichtigt werden. Solange die Nützlichkeit der Maschinen deutlich gemacht wird, diese aber nicht vollkommen autonom sind, scheinen Menschen gewillt zu sein, mit diesen zu interagieren und dabei Gefühle von Aversion zugunsten der antizipierten Vorteile in Kauf zu nehmen. KW - Humanoider Roboter KW - Künstliche Intelligenz KW - Mensch-Maschine-Kommunikation KW - Uncanny Valley of Mind KW - Eeriness KW - Empathy KW - Status Threat KW - Perceived Usefulness KW - Mensch-Maschine-Interaktion Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-330152 ER - TY - THES A1 - Herm, Lukas-Valentin T1 - Algorithmic Decision-Making Facilities: Perception and Design of Explainable AI-based Decision Support Systems T1 - Förderung der algorithmischen Entscheidungsfindung: Wahrnehmung und Gestaltung von erklärbaren KI-basierten Entscheidungsunterstützungssystemen N2 - Recent computing advances are driving the integration of artificial intelligence (AI)-based systems into nearly every facet of our daily lives. To this end, AI is becoming a frontier for enabling algorithmic decision-making by mimicking or even surpassing human intelligence. Thereupon, these AI-based systems can function as decision support systems (DSSs) that assist experts in high-stakes use cases where human lives are at risk. All that glitters is not gold, due to the accompanying complexity of the underlying machine learning (ML) models, which apply mathematical and statistical algorithms to autonomously derive nonlinear decision knowledge. One particular subclass of ML models, called deep learning models, accomplishes unsurpassed performance, with the drawback that these models are no longer explainable to humans. This divergence may result in an end-user’s unwillingness to utilize this type of AI-based DSS, thus diminishing the end-user’s system acceptance. Hence, the explainable AI (XAI) research stream has gained momentum, as it develops techniques to unravel this black-box while maintaining system performance. Non-surprisingly, these XAI techniques become necessary for justifying, evaluating, improving, or managing the utilization of AI-based DSSs. This yields a plethora of explanation techniques, creating an XAI jungle from which end-users must choose. In turn, these techniques are preliminarily engineered by developers for developers without ensuring an actual end-user fit. Thus, it renders unknown how an end-user’s mental model behaves when encountering such explanation techniques. For this purpose, this cumulative thesis seeks to address this research deficiency by investigating end-user perceptions when encountering intrinsic ML and post-hoc XAI explanations. Drawing on this, the findings are synthesized into design knowledge to enable the deployment of XAI-based DSSs in practice. To this end, this thesis comprises six research contributions that follow the iterative and alternating interplay between behavioral science and design science research employed in information systems (IS) research and thus contribute to the overall research objectives as follows: First, an in-depth study of the impact of transparency and (initial) trust on end-user acceptance is conducted by extending and validating the unified theory of acceptance and use of technology model. This study indicates both factors’ strong but indirect effects on system acceptance, validating further research incentives. In particular, this thesis focuses on the overarching concept of transparency. Herein, a systematization in the form of a taxonomy and pattern analysis of existing user-centered XAI studies is derived to structure and guide future research endeavors, which enables the empirical investigation of the theoretical trade-off between performance and explainability in intrinsic ML algorithms, yielding a less gradual trade-off, fragmented into three explainability groups. This includes an empirical investigation on end-users’ perceived explainability of post-hoc explanation types, with local explanation types performing best. Furthermore, an empirical investigation emphasizes the correlation between comprehensibility and explainability, indicating almost significant (with outliers) results for the assumed correlation. The final empirical investigation aims at researching XAI explanation types on end-user cognitive load and the effect of cognitive load on end-user task performance and task time, which also positions local explanation types as best and demonstrates the correlations between cognitive load and task performance and, moreover, between cognitive load and task time. Finally, the last research paper utilizes i.a. the obtained knowledge and derives a nascent design theory for XAI-based DSSs. This design theory encompasses (meta-) design requirements, design principles, and design features in a domain-independent and interdisciplinary fashion, including end-users and developers as potential user groups. This design theory is ultimately tested through a real-world instantiation in a high-stakes maintenance scenario. From an IS research perspective, this cumulative thesis addresses the lack of research on perception and design knowledge for an ensured utilization of XAI-based DSS. This lays the foundation for future research to obtain a holistic understanding of end-users’ heuristic behaviors during decision-making to facilitate the acceptance of XAI-based DSSs in operational practice. N2 - Jüngste technische und algorithmische Fortschritte treiben die Integration von Systemen auf der Basis von künstlicher Intelligenz (KI) in nahezu alle Bereiche unseres täglichen Lebens voran. Inzwischen sind diese Systeme in der Lage, menschliche Intelligenz anhand von algorithmischer Entscheidungsfindung nachzuahmen und sogar zu übertreffen. Insbesondere können KI-basierte Systeme als Entscheidungsunterstützungssysteme (Decision Support Systems - DSS) dienen und damit Domänenexperten in hochsensiblen Anwendungsfällen helfen, bei denen Menschenleben auf dem Spiel stehen. Dies resultiert in komplexen Modellen des maschinellen Lernens (ML), welche mathematische und statistische Algorithmen benutzen, um nichtlineares Entscheidungswissen automatisch abzuleiten. Besonders eine Unterklasse von ML-Modellen, die sogenannten Deep-Learning-Modelle (DL-Modelle), erreichen eine unübertroffene Leistung. Sie haben allerdings den Nachteil, dass sie für den Menschen nicht mehr nachvollziehbar sind. Diese Divergenz kann jedoch dazu führen, dass Endanwender nicht bereit sind, diese Art von KI-basierten DSS zu benutzen. Dadurch wird die Akzeptanz solcher Systeme beeinträchtigt. Um dieses Problem anzugehen, ist der Forschungszweig der erklärbaren KI (Explainable Artificial Intelligence - XAI) entstanden. Darin werden Techniken und Methoden entwickelt, die das wahrgenommene Blackbox-Verhalten dieser Modelle aufbrechen. Die XAI-Methoden können für KI-basierte DSS eingesetzt werden und ermöglichen es, Entscheidungen und Modelle zu rechtfertigen, zu bewerten, zu verbessern und zu verwalten. Dieser Ansatz resultiert jedoch in einer Vielzahl von Erklärungstechniken, aus denen die Anwender eine passende Erklärung wählen müssen. Gleichzeitig werden diese Methoden zurzeit primär von Entwicklern für Entwickler konzipiert, ohne, dass dabei ermittelt wird, ob eine tatsächliche Eignung für den Endanwender gewährleistet ist. Im Umkehrschluss ist daher unbekannt, wie sich das mentale Modell eines Endanwenders im Umgang mit solchen Erklärungstechniken verhält. Die vorliegende kumulative Dissertation thematisiert dieses Forschungsdefizit, indem die Wahrnehmung des Endanwenders im Umgang mit intrinsischen ML- und Post-Hoc-XAI-Erklärungen untersucht wird. Die gewonnenen Erkenntnisse werden in gestaltungsorientiertes Wissen synthetisiert, um den Einsatz von XAI-basierten DSS in der Praxis zu ermöglichen. Zu diesem Zweck umfasst die Dissertation sechs Forschungsbeiträge. Diese richten sich nach dem für den Bereich Information Systems (IS) typischen alternierendem Zusammenspiel zwischen verhaltenswissenschaftlicher und designorientierter Forschung und tragen wie folgt zu den übergeordneten Forschungszielen bei: Zu Beginn erfolgt durch Erweiterung und Validierung des Modells Unified Theory of Acceptance and Use of Technology eine Untersuchung des Einflusses von Transparenz und (initialem) Vertrauen auf die Akzeptanz der Endanwender. Die Studie zeigt einen starken, aber indirekten Effekt beider Faktoren auf die Systemakzeptanz und liefert damit die wissenschaftliche Bestätigung für weitere Forschungsinitiativen. Diese Arbeit konzentriert sich insbesondere auf diesen übergeordneten Einflussfaktor Transparenz. Darauf aufbauend wird eine Systematisierung in Form einer Taxonomie und Analyse bestehender nutzerzentrierter XAI-Studien durchgeführt, um zukünftige Forschungsbestrebungen zu strukturieren. Diese Systematisierung ermöglicht anschließend empirische Untersuchungen weiterer Einflussfaktoren auf die Endanwenderwahrnehmung. Zunächst wird eine Untersuchung des theoretischen Zielkonflikts zwischen Leistung und Erklärbarkeit in intrinsischen ML-Algorithmen vorgenommen, welche eine dreiteilige Anordnung empirisch bestätigt. Ebenso erfolgt eine empirische Untersuchung der vom Endanwender wahrgenommenen Erklärbarkeit von Post-Hoc-Erklärungstypen, wobei hier lokale Erklärungstypen am besten abschneiden. Anschließend wird der Zusammenhang zwischen Verständlichkeit und Erklärbarkeit betrachtet, wobei sich eine überwiegend (mit Ausreißern) signifikante Korrelation aufzeigen lässt. Der letzte Teil der empirischen Untersuchungen widmet sich dem Einfluss von XAI-Erklärungstypen auf die kognitive Belastung und die Auswirkung dieser Belastung auf die Aufgabenleistung und -zeit des Endanwenders. Hier zeigt sich, dass lokale Erklärungstypen ebenfalls verhältnismäßig am besten abschneiden und die Korrelationen zwischen kognitiver Belastung und Aufgabenleistung sowie kognitiver Belastung und Aufgabenzeit gegeben sind. Der letzte Forschungsbeitrag fügt u. a. die Ergebnisse zusammen und leitet daraus eine Design-Theorie für XAI-basierte DSS ab. Diese Design Theorie umfasst (Meta-)Design-Anforderungen, Design-Prinzipien und Design-Merkmale in einer domänenunabhängigen und interdisziplinären Art und Weise, welche den Einbezug sowohl von Endanwendern als auch von Entwicklern als potenzielle Nutzergruppen ermöglicht. Aus der Perspektive der IS Disziplin widmet sich diese kumulative Dissertation dem Mangel an Forschung zu Wahrnehmung und Designwissen für eine gesicherte Nutzung von XAI-basierten DSS. Damit legt sie den Grundstein für zukünftige Forschung, um ein ganzheitliches Verständnis des heuristischen Verhaltens der Endanwender während der Entscheidungsfindung zu erlangen und somit die Akzeptanz von XAI-basierten DSS in der betrieblichen Praxis zu fördern. KW - Künstliche Intelligenz KW - Entscheidungsunterstützungssystem KW - Artificial Intelligence KW - Explainable Artificial Intelligence KW - Decision Support Systems Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-322948 ER - TY - CHAP A1 - Muriel Ciceri, José Hernán ED - Ludwigs, Markus ED - Muriel Ciceri, José Hernán ED - Velling, Annika T1 - Auf dem Weg zur Regelung der künstlichen Intelligenz in Lateinamerika T2 - Digitalization as a challenge for justice and administration = La digitalizacion como reto para la justicia y la administracion = Digitalisierung als Herausforderung für Justiz und Verwaltung N2 - No abstract available. KW - Künstliche Intelligenz KW - Lateinamerika Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-306262 PB - Würzburg University Press CY - Würzburg ER - TY - THES A1 - Reinhard, Sebastian T1 - Improving Super-Resolution Microscopy Data Reconstruction and Evaluation by Developing Advanced Processing Algorithms and Artifcial Neuronal Networks T1 - Verbesserung von Datenrekonstruktion und -auswertung in der Super-Resolution Mikroskopie durch die Entwicklung von fortgeschrittenen Verarbeitungsalgorithmen und künstlichen neuronalen Netzen N2 - The fusion of methods from several disciplines is a crucial component of scientific development. Artificial Neural Networks, based on the principle of biological neuronal networks, demonstrate how nature provides the best templates for technological advancement. These innovations can then be employed to solve the remaining mysteries of biology, including, in particular, processes that take place on microscopic scales and can only be studied with sophisticated techniques. For instance, direct Stochastic Optical Reconstruction Microscopy combines tools from chemistry, physics, and computer science to visualize biological processes at the molecular level. One of the key components is the computer-aided reconstruction of super-resolved images. Improving the corresponding algorithms increases the quality of the generated data, providing further insights into our biology. It is important, however, to ensure that the heavily processed images are still a reflection of reality and do not originate in random artefacts. Expansion microscopy is expanding the sample by embedding it in a swellable hydrogel. The method can be combined with other super-resolution techniques to gain additional resolution. We tested this approach on microtubules, a well-known filamentous reference structure, to evaluate the performance of different protocols and labelling techniques. We developed LineProfiler an objective tool for data collection. Instead of collecting perpendicular profiles in small areas, the software gathers line profiles from filamentous structures of the entire image. This improves data quantity, quality and prevents a biased choice of the evaluated regions. On the basis of the collected data, we deployed theoretical models of the expected intensity distribution across the filaments. This led to the conclusion that post-expansion labelling significantly reduces the labelling error and thus, improves the data quality. The software was further used to determine the expansion factor and arrangement of synaptonemal complex data. Automated Simple Elastix uses state-of-the-art image alignment to compare pre- and post-expansion images. It corrects linear distortions occurring under isotropic expansion, calculates a structural expansion factor and highlights structural mismatches in a distortion map. We used the software to evaluate expanded fungi and NK cells. We found that the expansion factor differs for the two structures and is lower than the overall expansion of the hydrogel. Assessing the fluorescence lifetime of emitters used for direct Stochastic Optical Reconstruction Microscopy can reveal additional information about the molecular environment or distinguish dyes emitting with a similar wavelength. The corresponding measurements require a confocal scanning of the sample in combination with the fluorescent switching of the underlying emitters. This leads to non-linear, interrupted Point Spread Functions. The software ReCSAI targets this problem by combining the classical algorithm of compressed sensing with modern methods of artificial intelligence. We evaluated several different approaches to combine these components and found, that unrolling compressed sensing into the network architecture yields the best performance in terms of reconstruction speed and accuracy. In addition to a deep insight into the functioning and learning of artificial intelligence in combination with classical algorithms, we were able to reconstruct the described non-linearities with significantly improved resolution, in comparison to other state-of-the-art architectures. N2 - Für die Weiterentwicklung der Wissenschaft wird es immer wichtiger, Methoden aus verschiedenen Gebieten zu kombinieren. Die künstliche Intelligenz beruht beispielsweise auf dem Prinzip biologischer neuronaler Netze. Hier wird die Natur als Vorlage für unsere technische Entwicklung genutzt. Diese Innovationen können dazu eingesetzt werden, die verbliebenen Rätsel der Biologie zu lösen. Dazu gehören insbesondere Prozesse, die sich auf mikroskopischer Ebene abspielen und nur mit hochentwickelten Techniken untersucht werden können. Die direkte Stochastisch Optische Rekonstruktionsmikroskopie kombiniert Methoden der Chemie, Physik und Informatik, um biologische Prozesse auf molekularer Ebene sichtbar zu machen. Eine der Schlüsselkomponenten ist die computergestützte Rekonstruktion von hochaufgelösten Bildern. Die Verbesserung der zugrunde liegenden Algorithmen erhöht die Qualität der erzeugten Daten und ermöglicht weitere Einblicke in unsere Biologie. Es muss jedoch sichergestellt werden, dass die künstlich erstellten Bilder immer noch ein Abbild der Realität sind und nicht auf zufälligen Artefakten beruhen. Expansionsmikroskopie vergrößert die Probe durch Einbettung in ein Hydrogel. Die Methode kann mit anderen hochauflösenden Techniken kombiniert werden, um die Auflösung noch weiter zu verbessern. Dieser Ansatz wurde an Mikrotubuli, einer bekannten flamentösen Referenzstruktur, verwendet, um verschiedene Protokolle und Markierungstechniken zu testen. Mit LineProfiler wurde ein objektives Werkzeug zur Datenerfassung entwickelt. Anstatt Linienprofle in kleinen Bereichen zu erfassen, wertet die Software das gesamte Bild aus. Dies verbessert die Datenmenge und Datenqualität und verhindert eine voreingenommene Auswahl der ausgewerteten Regionen. Auf Grundlage der gesammelten Daten wurden theoretische Modelle für die erwartete Intensitätsverteilung über die Filamente erstellt. Daraus konnte geschlossen werden, dass die Markierung nach der Expansion den Markierungsfehler erheblich reduziert und somit die Qualität der Daten verbessert. Die Software wurde außerdem zur Bestimmung des Expansionsfaktors und der Anordnung der Daten des synaptonemalen Komplexes verwendet. Automated Simple Elastix verwendet modernste Bildregistrierung, um Bilder vor und nach der Expansion zu vergleichen. Lineare Verzerrungen, die bei isotroper Expansion auftreten, werden korrigiert. Der strukturelle Expansionsfaktor wird berechnet und strukturelle Unstimmigkeiten werden in einer Verzerrungskarte hervorgehoben. Die Software wurde zur Bewertung expandierter Pilze und NK-Zellen eingesetzt. Dabei wurde festgestellt, dass der Expansionsfaktor für die beiden Strukturen unterschiedlich ist und unter der Gesamtexpansion des Hydrogels liegt. Die Auswertung der Fluoreszenzlebensdauer von Emittern, die für die direkte Stochastische Optische Rekonstruktionsmikroskopie eingesetzt werden, kann zusätzliche Informationen über die molekulare Umgebung liefern oder Farbstoffe unterscheiden, die VI eine ähnliche Lichtwellenlänge emittieren. Die entsprechenden Messungen erfordern eine konfokale Abtastung der Probe in Kombination mit dem fluoreszenten Schalten der zugrunde liegenden Emitter. Dies führt zu nichtlinearen, unterbrochenen Punktspreizfunktionen. Die Software ReCSAI löst dieses Problem, indem sie den klassischen Algorithmus des Compressed Sensing mit modernen Methoden der künstlichen Intelligenz kombiniert. Es wurden verschiedene Ansätze zur Kombination der Komponenten ausgewertet und festgestellt, dass die Integration von Compressed Sensing in die Netzwerkarchitektur die beste Performance in Bezug auf Rekonstruktionsgeschwindigkeit und -genauigkeit bringt. Neben einem tiefen Einblick in die Funktionsweise und das Lernen von künstlicher Intelligenz in Kombination mit klassischen Algorithmen konnten die beschriebenen Nichtlinearitäten mit einer deutlich verbesserten Auflösung im Vergleich zu anderen modernen Architekturen rekonstruiert werden. KW - Mikroskopie KW - Künstliche Intelligenz KW - Datenanalyse KW - Bildverarbeitung KW - Compressed Sensing KW - Lifetime Imaging KW - dSTORM Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-316959 ER - TY - THES A1 - Stier, Simon T1 - Konzepte, Materialien und Verfahren für multimodale und hochintegrierte Elastomersensorik T1 - Concepts, Materials and Processes for Multimodal and Highly Integrated Elastomer Sensors N2 - Dielektrische Elastomersensoren sind aus Elastomermaterialien aufgebaute Sensoren mit einem kapazitiven Messprinzip. In ihrer einfachsten Form bestehen sie aus einer dehnbaren Elastomerfolie als Dielektrikum, die beidseitig mit leitfähigen und ebenfalls dehnbaren Schichten als Elektroden bedeckt ist. Damit entsteht ein mechanisch verformbarer elektrischer Kondensator, dessen Kapazität mit der Dehnung der Elastomerfolie stetig ansteigt. Neben solchen Dehnungssensoren lassen sich mit einem geeigneten geometrischen Aufbau auch dielektrische Elastomersensoren realisieren, bei denen eine elektrische Kapazität mit einem angelegten Druck bzw. einer Kraft auf die Oberfläche, mit einer Scherkraft oder mit der Annäherung eines elektrisch leitfähigen oder polarisierbaren Körpers wie z. B. der menschlichen Hand messbar ansteigt. Durch ihre vielfältige Funktion, intrinsische Verformbarkeit und flächige Ausgestaltung weisen Dielektrische Elastomersensoren erhebliches Potential in der Schaffung smarter, sensitiver Oberflächen auf. Dabei sind weitgehende und individuelle Adaptionen auf den jeweiligen Anwendungszweck durch Abstimmung geometrischer, mechanischer und elektrischer Eigenschaften möglich. Die bisherige Forschung beschränkt sich jedoch auf die Analyse und Optimierung einzelner Aspekte ohne das Potential einer übergreifenden systemischen Perspektive zu nutzen. Diese Arbeit widmet sich daher der Betrachtung der Sensorik als Gesamtsystem, sowohl horizontal - von abstrakten Modellen bis zur Fertigung und prototypischen Anwendung - als auch vertikal über die Komponenten Material, Struktur und Elektronik. Hierbei wurden in mehreren Teilgebieten eigenständige neue Erkenntnisse und Verbesserungen erzielt, die anschließend in die übergreifende Betrachtung des Gesamtsystems integriert wurden. So wurden in den theoretischen Vorarbeiten neue Konzepte zur ortsaufgelösten Erfassung mehrerer physikalischer Größen und zur elektrischen und mechanischen Modellierung entwickelt. Die abgeleiteten Materialanforderungen wurden in eine tiefgehende Charakterisierung der verwendeten Elastomer-Kompositwerkstoffe überführt, in der neuartige analytische Methoden in Form von dynamischer elektromechanischer Testung und nanoskaliger Computertomographie zur Aufklärung der inneren Wechselwirkungen zum Einsatz kamen. Im Bereich der automatisierten Prozessierung wurde ein für die komplexen mehrschichtigen Elektrodenstrukturen geeigneter neuer lasergestützer substraktiver Fertigungprozess etabliert, der zudem die Brücke zu elastischer Elektronik schlägt. In der abschließenden Anwendungsevaluierung wurden mehrere ortsaufgelöste und multimodale Gesamtsysteme aufgebaut und geeignete Messelektronik und Software entwickelt. Abschließend wurden die Systeme mit einem eigens entwickelten robotischen Testsystem charakterisiert und zudem das Potential der Auswertung mittels maschinellem Lernen aufgezeigt. N2 - Dielectric elastomer sensors are sensors constructed from elastomer materials with a capacitive measuring principle. In their simplest form, they consist of a stretchable elastomer film as dielectric, which is covered on both sides with conductive and also stretchable layers as electrodes. This creates a mechanically deformable electrical capacitor whose capacitance increases steadily with the stretching of the elastomer film. In addition to such strain sensors, with a suitable geometric design it is also possible to realize dielectric elastomer sensors in which an electrical capacitance increases measurably with an applied pressure or force on the surface, with a shear force or with the approach of an electrically conductive or polarizable body such as the human hand. Due to their versatile function, intrinsic deformability and flat design, dielectric elastomer sensors have considerable potential in the creation of smart, sensitive surfaces. Extensive and individual adaptations to the respective application purpose are possible by matching geometric, mechanical and electrical properties. However, research to date has been limited to the analysis and optimization of individual aspects without exploiting the potential of an overarching systemic perspective. This work is therefore certainly dedicated to the consideration of sensor technology as an overall system, both horizontally - from abstract modeling to manufacturing and prototypical application - and vertically via the components material, structure and electronics. In this context, individual new findings and improvements were achieved in several sub-areas, which were subsequently integrated into the overall consideration of the entire system. Thus, in the preliminary theoretical work, new concepts were developed for the spatially resolved measurement of multiple physical quantities and for electrical and mechanical modeling. The derived material requirements were transferred into an in-depth characterization of the elastomer composite materials used, in which novel analytical methods in the form of dynamic electro-mechanical testing and nanoscale computer tomography were applied to elucidate the internal mechanisms of interaction. In the area of automated processing, a new laser-based subtractive manufacturing process suitable for the complex multilayer electrode structures was established, which also bridges the gap to stretchable electronics. In the final application evaluation, several spatially resolved and multimodal sensor systems were built and suitable measurement electronics and software were developed. Finally, the systems were characterized with a specially developed robotic test system and, in addition, the potential of evaluation by means of machine learning was demonstrated. KW - Taktiler Sensor KW - Silicone KW - Schaltungsentwurf KW - Roboter KW - Künstliche Intelligenz KW - Dielektrische Elastomersensoren KW - Mikroelektronik KW - Laserstrukturierung KW - Moultimodale Sensorik KW - Roboter Sensorhaut KW - Dielectric Elastomer Sensors KW - Mikroelektronik KW - Laser structuring KW - Multimodal sensors KW - Robot Sensor Skin Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-260875 ER - TY - THES A1 - Wanner, Jonas Paul T1 - Artificial Intelligence for Human Decision-Makers: Systematization, Perception, and Adoption of Intelligent Decision Support Systems in Industry 4.0 T1 - Künstliche Intelligenz für menschliche Entscheidungsträger: Systematisierung, Wahrnehmung und Akzeptanz von intelligenten Entscheidungsunterstützungssystemen im Kontext der Industrie 4.0 N2 - Innovative possibilities for data collection, networking, and evaluation are unleashing previously untapped potential for industrial production. However, harnessing this potential also requires a change in the way we work. In addition to expanded automation, human-machine cooperation is becoming more important: The machine achieves a reduction in complexity for humans through artificial intelligence. In fractions of a second large amounts of data of high decision quality are analyzed and suggestions are offered. The human being, for this part, usually makes the ultimate decision. He validates the machine’s suggestions and, if necessary, (physically) executes them. Both entities are highly dependent on each other to accomplish the task in the best possible way. Therefore, it seems particularly important to understand to what extent such cooperation can be effective. Current developments in the field of artificial intelligence show that research in this area is particularly focused on neural network approaches. These are considered to be highly powerful but have the disadvantage of lacking transparency. Their inherent computational processes and the respective result reasoning remain opaque to humans. Some researchers assume that human users might therefore reject the system’s suggestions. The research domain of explainable artificial intelligence (XAI) addresses this problem and tries to develop methods to realize systems that are highly efficient and explainable. This work is intended to provide further insights relevant to the defined goal of XAI. For this purpose, artifacts are developed that represent research achievements regarding the systematization, perception, and adoption of artificially intelligent decision support systems from a user perspective. The focus is on socio-technical insights with the aim to better understand which factors are important for effective human-machine cooperation. The elaborations predominantly represent extended grounded research. Thus, the artifacts imply an extension of knowledge in order to develop and/ or test effective XAI methods and techniques based on this knowledge. Industry 4.0, with a focus on maintenance, is used as the context for this development. N2 - Durch innovative Möglichkeiten der Datenerhebung, Vernetzung und Auswertung werden Potenziale für die Produktion freigesetzt, die bisher ungenutzt sind. Dies bedingt jedoch eine Veränderung der Arbeitsweise. Neben einer erweiterten Automatisierung wird die Mensch-Maschinen-Kooperation wichtiger: Die Maschine erreicht durch Künstliche Intelligenz eine Komplexitätsreduktion für den Menschen. In Sekundenbruchteilen werden Vorschläge aus großen Datenmengen von hoher Entscheidungsqualität geboten, während der Mensch i.d.R. die Entscheidung trifft und diese ggf. (physisch) ausführt. Beide Instanzen sind stark voneinander abhängig, um eine bestmögliche Aufgabenbewältigung zu erreichen. Es scheint daher insbesondere wichtig zu verstehen, inwiefern eine solche Kooperation effektiv werden kann. Aktuelle Entwicklungen auf dem Gebiet der Künstlichen Intelligenz zeigen, dass die Forschung hierzu insbesondere auf Ansätze Neuronaler Netze fokussiert ist. Diese gelten als hoch leistungsfähig, haben aber den Nachteil einer fehlenden Nachvollziehbarkeit. Ihre inhärenten Berechnungsvorgänge und die jeweilige Ergebnisfindung bleiben für den Menschen undurchsichtig. Einige Forscher gehen davon aus, dass menschliche Nutzer daher die Systemvorschläge ablehnen könnten. Die Forschungsdomäne erklärbare Künstlichen Intelligenz (XAI) nimmt sich der Problemstellung an und versucht Methoden zu entwickeln, um Systeme zu realisieren die hoch-leistungsfähig und erklärbar sind. Diese Arbeit soll weitere Erkenntnisse für das definierte Ziel der XAI liefern. Dafür werden Artefakte entwickelt, welche Forschungsleistungen hinsichtlich der Systematisierung, Wahrnehmung und Adoption künstlich intelligenter Entscheidungsunterstützungssysteme aus Anwendersicht darstellen. Der Fokus liegt auf sozio-technischen Erkenntnissen. Es soll besser verstanden werden, welche Faktoren für eine effektive Mensch-Maschinen-Kooperation wichtig sind. Die Erarbeitungen repräsentieren überwiegend erweiterte Grundlagenforschung. Damit implizieren die Artefakte eine Erweiterung des Wissens, um darauf aufbauend effektive XAI-Methoden und -Techniken zu entwickeln und/ oder zu erproben. Als Kontext der eigenen Erarbeitung wird die Industrie 4.0 mit Schwerpunkt Instandhaltung genutzt. KW - Künstliche Intelligenz KW - Entscheidungsunterstützungssystem KW - Industrie 4.0 KW - Explainable AI KW - Erklärbare Künstliche Intelligenz KW - Artificial Intelligence KW - Industry 4.0 KW - Decision Support Systems Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-259014 ER - TY - CHAP ED - von Mammen, Sebastian ED - Klemke, Roland ED - Lorber, Martin T1 - Proceedings of the 1st Games Technology Summit BT - part of Clash of Realites 11th International Conference on the Technology and Theory of Digital Games N2 - As part of the Clash of Realities International Conference on the Technology and Theory of Digital Games, the Game Technology Summit is a premium venue to bring together experts from academia and industry to disseminate state-of-the-art research on trending technology topics in digital games. In this first iteration of the Game Technology Summit, we specifically paid attention on how the successes in AI in Natural User Interfaces have been impacting the games industry (industry track) and which scientific, state-of-the-art ideas and approaches are currently pursued (scientific track). KW - Veranstaltung KW - Künstliche Intelligenz KW - Mensch-Maschine-Kommunikation KW - Computerspiel KW - natural user interfaces KW - artificial intelligence Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-245776 SN - 978-3-945459-36-2 ER -