Refine
Is part of the Bibliography
- yes (477)
Year of publication
- 2022 (477) (remove)
Document Type
- Doctoral Thesis (477) (remove)
Keywords
- Topologischer Isolator (8)
- Biomarker (7)
- Multiple Sklerose (6)
- Schlaganfall (6)
- Autoantikörper (5)
- Bor (5)
- DNA damage (5)
- HgTe (5)
- Quecksilbertellurid (5)
- T-Lymphozyt (5)
Institute
- Graduate School of Life Sciences (101)
- Medizinische Klinik und Poliklinik I (23)
- Physikalisches Institut (23)
- Institut für Anorganische Chemie (22)
- Theodor-Boveri-Institut für Biowissenschaften (21)
- Neurologische Klinik und Poliklinik (18)
- Medizinische Klinik und Poliklinik II (17)
- Institut für Informatik (14)
- Institut für Organische Chemie (13)
- Institut für Psychologie (13)
Sonstige beteiligte Institutionen
- Fraunhofer-Institut für Silicatforschung ISC (3)
- Helmholtz Institute for RNA-based Infection Research (HIRI) (2)
- Abteilung Molekulare Innere Medizin (1)
- Bugando Medical Center in Mwanza, Tansania (1)
- CHC Würzburg (Comprehensive Hearing Center) (1)
- Catholic University of Health and Allied Sciences in Mwanza, Tansania (1)
- Comprehensive Hearing Center (1)
- Department of Cellular Therapies, University of Navarra, Pamplona, Spain (1)
- Department of X-ray Microscopy, University of Würzburg, Würzburg, Germany (1)
- Deutsches Klimaservice Zentrum (GERICS) (1)
EU-Project number / Contract (GA) number
- 320377 (1)
Ziele
Diese Studie untersuchte, ob ein aktivierter R-Modus, als Surrogat für eine chronotrope Inkompetenz, bei Patienten mit kardialem Device (CIED), mit einer schlechteren Prognose während und nach einer Episode von akuter Herzinsuffizienz (AHF) verbunden ist.
Methoden und Ergebnisse
623 Patienten, die an einer laufenden prospektiven Kohortenstudie zur Phänotypisierung von Patienten mit akuter Herzinsuffizienz teilnahmen, wurden untersucht. Wir verglichen CIED-Träger mit R-Modus-Stimulation (n=37) mit CIED-Trägern ohne R-Modus (n=64) und Patienten ohne CIED (n=511). Die durchschnittliche Herzfrequenz bei Aufnahme lag bei Patienten im R-Modus signifikant niedriger als bei Patienten mit CIED, aber ohne R-Modus oder Patienten ohne CIED. Zwar war die Krankenhaussterblichkeit in allen Gruppen ähnlich, jedoch zeigte sich das für Alter und Geschlecht adjustierte 12-Monats-Mortalitätsrisiko in der R-Modus-Gruppe signifikant erhöht. Diese Effekte blieben auch nach multivariabler Adjustierung anhand der Komorbiditäten bestehen.
Schlussfolgerung
Bei Patienten, die wegen AHF aufgenommen wurden, war die Stimulation im R-Modus mit einem signifikant erhöhten 12-Monats-Mortalitätsrisiko verbunden. Unsere Ergebnisse legen nahe, dass chronotrope Inkompetenz per se mit einer erhöhten Vulnerabilität einhergeht und möglicherweise nicht angemessen durch Beschleunigungs-basierte R-Modus-Stimulation während und nach einer AHF-Episode behandelt wird.
Increasing global competition forces organizations to improve their processes to gain a competitive advantage. In the manufacturing sector, this is facilitated through tremendous digital transformation. Fundamental components in such digitalized environments are process-aware information systems that record the execution of business processes, assist in process automation, and unlock the potential to analyze processes. However, most enterprise information systems focus on informational aspects, process automation, or data collection but do not tap into predictive or prescriptive analytics to foster data-driven decision-making. Therefore, this dissertation is set out to investigate the design of analytics-enabled information systems in five independent parts, which step-wise introduce analytics capabilities and assess potential opportunities for process improvement in real-world scenarios.
To set up and extend analytics-enabled information systems, an essential prerequisite is identifying success factors, which we identify in the context of process mining as a descriptive analytics technique. We combine an established process mining framework and a success model to provide a structured approach for assessing success factors and identifying challenges, motivations, and perceived business value of process mining from employees across organizations as well as process mining experts and consultants. We extend the existing success model and provide lessons for business value generation through process mining based on the derived findings. To assist the realization of process mining enabled business value, we design an artifact for context-aware process mining. The artifact combines standard process logs with additional context information to assist the automated identification of process realization paths associated with specific context events. Yet, realizing business value is a challenging task, as transforming processes based on informational insights is time-consuming.
To overcome this, we showcase the development of a predictive process monitoring system for disruption handling in a production environment. The system leverages state-of-the-art machine learning algorithms for disruption type classification and duration prediction. It combines the algorithms with additional organizational data sources and a simple assignment procedure to assist the disruption handling process. The design of such a system and analytics models is a challenging task, which we address by engineering a five-phase method for predictive end-to-end enterprise process network monitoring leveraging multi-headed deep neural networks. The method facilitates the integration of heterogeneous data sources through dedicated neural network input heads, which are concatenated for a prediction. An evaluation based on a real-world use-case highlights the superior performance of the resulting multi-headed network.
Even the improved model performance provides no perfect results, and thus decisions about assigning agents to solve disruptions have to be made under uncertainty. Mathematical models can assist here, but due to complex real-world conditions, the number of potential scenarios massively increases and limits the solution of assignment models. To overcome this and tap into the potential of prescriptive process monitoring systems, we set out a data-driven approximate dynamic stochastic programming approach, which incorporates multiple uncertainties for an assignment decision. The resulting model has significant performance improvement and ultimately highlights the particular importance of analytics-enabled information systems for organizational process improvement.
Das unechte Unterlassungsdelikt gilt seit langem als das ”dunkelste Ka-
pitel“ in der Dogmatik des Allgemeinen Teils des StGB. Gesetzlicher
Anhaltspunkt der Strafbarkeit ist allein, dass der Unterlassende ”recht-
lich dafür einzustehen hat, daß der Erfolg nicht eintritt“, § 13 Abs. 1
StGB, also Garant ist. Innerhalb der herkommlich diskutierten Garan-
tenstellungen ist die aus Ingerenz besonders umstritten.
Hat derjenige, der eine Gefahr für fremde Rechtsgüter geschaffen hat,
eine Garantenstellung im Hinblick auf dieses schadensträchtige Gesche-
hen, sodass er gemäß § 13 Abs. 1 StGB für das Unterlassen der Erfolgs-
abwendung gleich einem Begehungstäter bestraft wird? Welche rechtli-
chen Anforderungen wären in diesem Fall an das die Garantenstellung
begründende Handeln zu stellen? Die regelmäßig diskutierten Alternati-
ven sind, ob nur pflichtwidriges Tun eine Ingerenzgarantenstellung nach
sich zieht oder auch rechtmäßiges (”qualifiziert riskantes“) Vorverhalten
genügt.
Die vorliegende Arbeit kommt zu dem Ergebnis, dass sich das Einste-
henmüssen des Ingerenten auf der Grundlage des geltenden Rechts be-
gründen lässt. Hinsichtlich der Voraussetzungen der Garantenstellung
will sie aufzeigen, dass es nicht auf die aus der unsicheren Entschei-
dungsperspektive ex ante zu treffende Verhaltensbewertung ankommen
kann. Vorgeschlagen wird stattdessen eine vermittelnde Lösung, die die
Bewertungsgrundlage mit einem Maximum an Objektivität versieht.
Distributed practice is a well-known learning strategy whose beneficial effects on long-term learning are well proven by various experiments. In learning from texts, the benefits of distribution might even go beyond distributed practice, i.e. distribution of repeated materials. In realistic learning scenarios as for example school or university learning, the reader might read multiple texts that not repeat but complement each other. Therefore, distribution might also be implemented between multiple texts and benefit long-term learning in analogy to distributed practice. The assumption of beneficial effects of this distributed learning can be deduced from theories about text comprehension as the landscape model of reading (van den Broek et al., 1996) in combination with theories of desirable difficulties in general (R. A. Bjork & Bjork, 1992) and distributed practice in particular (Benjamin & Tullis, 2010). This dissertation aims to investigate (1) whether distributed learning benefits learning; (2) whether the amount of domain-specific prior knowledge moderates the effects of distribution, (3) whether distributed learning affects the learner’s meta-cognitive judgments in analogy to distributed practice and (4) whether distributed practice is beneficial for seventh graders in learning from single text.
In Experiment 1, seventh graders read two complementary texts either massed or distributed by a lag of one week between the texts. Learning outcomes were measured immediately after reading the second text and one week later. Judgements of learning were assessed immediately after each text. Experiment 2 replicated the paradigm of Experiment 1 while shortening the lag between the texts in the distributed condition to 15 min. In both experiments, an interaction effect between learning condition (distributed vs. massed) and retention interval (immediate vs. delayed) was found. In the distributed condition, the participants showed no decrease in performance between the two tests, whereas participants in the massed condition did. However, no beneficial effects were found in the delayed test for the distributed condition but even detrimental effects for the distributed condition in the immediate test. In Experiment 1, participants in the distributed condition perceived learning as less difficult but predicted lower success than the participants in the massed condition.
Experiment 3 replicated the paradigm of Experiment 1 with university students in the laboratory. In the preregistered Experiment 4, an additional retention interval of two weeks was realized. In both experiments, the same interaction between learning condition and retention interval was found. In Experiment 3, the participants in the distributed condition again showed no decrease in performance between the two tests, whereas participants in the massed condition did. However, even at the longer retention interval in Experiment 4, no beneficial effects were found for the distributed condition. Domain-specific prior knowledge was positively associated with test performance in both experiments. In Experiment 4, the participants with low prior knowledge seemed to be impaired by distributed learning, whereas no difference was found for participants with medium or high prior knowledge.
In the preregistered Experiment 5, seventh graders read a single text twice. The rereading took place either massed or distributed with one week. Immediately after rereading, judgements of learning were assessed. Learning outcomes were assessed four min after second reading or one week later. Participants in the distributed condition predicted lower learning success than participants in the massed condition. An interaction effect between learning condition and retention interval was found, but no advantage for the distributed condition. Participants with low domain-specific prior knowledge showed lower performance in short-answer questions in the distributed condition than in the massed condition.
Overall, the results seem less encouraging regarding the effectiveness of distribution on learning from single and multiple texts. However, the experiments reported here can be perceived as first step in the realistic investigation of distribution in learning from texts.
Schimmelpilze können in Abhängigkeit des Immunstatus und der Vorerkrankungen betroffener Patienten unterschiedliche Krankheitsbilder wie Hypersensitivitäts-erkrankungen oder lebensbedrohliche invasive Infektionen hervorrufen. Da die Diagnosestellung dieser Erkrankungen mitunter komplex und insensitiv ist, sollten im Rahmen dieser Arbeit unterschiedliche Ansätze neuer diagnostischer Assays untersucht werden.
In den letzten Jahren wurden Assays entwickelt, die auf Basis durchflusszytometrisch quantifizierter Pilz-spezifischer T-Zellen aus peripherem Blut einen supportiven Biomarker zur Diagnostik invasiver Mykosen liefern könnten. Da die hierfür isolierten T-Zellen anfällig gegenüber präanalytischer Lagerzeiten und immunsuppressiver Medikation sind, wurden hier Protokolloptimierungen vorgenommen, um anhand eines Vollblut-basierten Assays mit zusätzlicher CD49d-Kostimulation diesen Limitationen entgegen zu wirken. In einer Studie an gesunden Probanden konnte dabei gezeigt werden, dass die Kombination der Durchflusszytometrie mit ausgewählten Zytokin-Messungen (IL-5, IL-10 und IL-17) zu einer verbesserten Erkennung vermehrt Schimmelpilz-exponierter Personen beitragen könnte. Neben Infektionen könnten dabei im umwelt- und arbeitsmedizinischen Kontext Polarisationen der T-Zell-Populationen detektiert werden, welche mit Sensibilisierungen und Hypersensitivität assoziiert werden.
Zusätzlich wurde ein in vitro Transwell® Alveolarmodell zur Simulation pulmonaler Pilzinfektionen für Erreger der Ordnung Mucorales adaptiert, durch Reproduktion wichtiger Merkmale der Pathogenese von Mucormykosen validiert, und für Untersuchungen der Immunpathologie und Erreger-Invasion verwendet. Das Modell wurde anschließend zur in vitro Evaluation von radioaktiv markiertem Amphotericin B mit 99mTc oder 68Ga als nuklearmedizinischen Tracer verwendet. Die untersuchten Schimmelpilze zeigten dabei eine zeit- und dosis-abhängige Aufnahme der Tracer, während bakteriell infizierte Proben nicht detektiert wurden. Die erhobenen Daten dokumentieren ein vielversprechendes Potenzial von Amphotericin B-basierten Tracer, das in zukünftigen in vivo Studien weiter evaluiert werden sollte.
Protein-DNA interactions are central to many biological processes and form the bedrock of gene transcription, DNA replication, and DNA repair processes. Many proteins recognize specific sequences in DNA- a restriction enzyme must only cut at the correct sequence and a transcription factor should bind at its consensus sequence. Some proteins are designed to bind to specific structural or chemical features in DNA, such as DNA repair proteins and some DNA modifying enzymes. Target-specific DNA binding proteins initially bind to non-specific DNA and then search for their target sites through different types of diffusion mechanisms. Atomic force microscopy (AFM) is a single-molecule technique that is specifically well-suited to resolve the distinct states of target-specific as well as nonspecific protein-DNA interactions that are vital for a deeper insight into the target site search mechanisms of these enzymes. In this thesis, protein systems involved in epigenetic regulation, base excision repair (BER), and transcription are investigated by single-molecule AFM analyses complemented by biochemical and biophysical experiments.
The first chapter of this thesis narrates the establishment of a novel, user-unbiased MatLab-based tool for automated DNA bend angle measurements on AFM data. This tool has then been employed to study the initial lesion detection step of several DNA glycosylases. These results promoted a model describing the altered plasticities of DNA at the target lesions of DNA glycosylases as the fundamental mechanism for their enhanced efficiency of lesion detection.
In the second chapter of this thesis, the novel automated tool has been further extended to provide protein binding positions on the DNA along with corresponding DNA bend angles and applied to the study of DNMT3A DNA methyltransferase. These AFM studies revealed preferential co-methylation at specific, defined distances between two CpG sites by the enzyme and when combined with biochemical analyses and structural modelling supported novel modes of CpG co-methylation by DNMT3A.
In the third chapter of this thesis, the role of 8-oxo-guanine glycosylase (hOGG1) in Myc-mediated transcription initiation has been investigated. AFM analyses revealed that in the presence of oxidative damage in DNA, Myc is recruited to its target site (E-box) by hOGG1 through direct protein-protein interactions, specifically under oxidizing conditions. Intriguingly, oxidation of hOGG1 was further observed to result in dimerization of hOGG1, which may also play a role in the mechanism of transcription regulation by hOGG1 under oxidative stress.
Für die Fügung der Interkonnektoren einer Hochtemperaturbrennstoffzelle wurden in der hier vorliegenden Arbeit glaskeramische Lote entwickelt und untersucht. Es konnte ein hochviskoses Glas
gefunden werden, das trotz fehlendem Erweichen bei der Fügung eine stabile, gasdichte und elektrisch isolierende glaskeramische Fügung ausbildet. Auch während des Betriebs kommt es zu keinem Erweichen der Fügung. Weiter treten keine feststellbaren Reaktionen mit den potentiellen Reaktionspartnern, den Stahlelementen, auf. Es konnte eine Korrelation dieses Reaktionsverhaltens
mit dem Kristallisationsverhalten der Glaskeramik gefunden werden. Das Verhalten des Glaslotes
wurde über mehrere tausend Stunden unter Betriebsbedingungen beziehungsweise betriebsimulierenden Bedingungen untersucht. Dabei konnte die Kristallisationsentwicklung beschrieben werden.
Ein weiterer Aspekt der Arbeit war die Untersuchung des Einflusses der einzelnen Faktoren, denen
ein Glaslot während seines Einsatzes von der Fügung bis zum Betrieb ausgesetzt ist, wie die
Fügetemperatur, die Viskosität der eingesetzten glasbildenden Schmelze oder die Dualgasatmosphäre im Betrieb, auf das Gefüge und die Diffusion.
Hierbei konnte gezeigt werden, dass die Fügetemperatur mit Abstand den größten Einfluss auf die
Stabilität der Glaslotschicht hat. Diese bedingt nicht nur die Kinetik des Fließens und die Benetzung
des Stahls durch das Glas, sondern vor allem, welche Kristallphasen gebildet werden und
wie das finale Gefüge im Hinblick auf Kristallitgröße und –verteilung aussieht. So kommt es bei
höheren Temperaturen zu einem größeren Restglasphasenanteil und einem geringeren Kristallitanteil, was wiederum die Diffusion der Stahlelemente in die Glaslotschicht begünstigt.
Detecting anomalies in transaction data is an important task with a high potential to avoid financial loss due to irregularities deliberately or inadvertently carried out, such as credit card fraud, occupational fraud in companies or ordering and accounting errors. With ongoing digitization of our world, data-driven approaches, including machine learning, can draw benefit from data with less manual effort and feature engineering. A large variety of machine learning-based anomaly detection methods approach this by learning a precise model of normality from which anomalies can be distinguished. Modeling normality in transactional data, however, requires to capture distributions and dependencies within the data precisely with special attention to numerical dependencies such as quantities, prices or amounts.
To implicitly model numerical dependencies, Neural Arithmetic Logic Units have been proposed as neural architecture. In practice, however, these have stability and precision issues.
Therefore, we first develop an improved neural network architecture, iNALU, which is designed to better model numerical dependencies as found in transaction data. We compare this architecture to the previous approach and show in several experiments of varying complexity that our novel architecture provides better precision and stability.
We integrate this architecture into two generative neural network models adapted for transaction data and investigate how well normal behavior is modeled. We show that both architectures can successfully model normal transaction data, with our neural architecture improving generative performance for one model.
Since categorical and numerical variables are common in transaction data, but many machine learning methods only process numerical representations, we explore different representation learning techniques to transform categorical transaction data into dense numerical vectors. We extend this approach by proposing an outlier-aware discretization, thus incorporating numerical attributes into the computation of categorical embeddings, and investigate latent spaces, as well as quantitative performance for anomaly detection.
Next, we evaluate different scenarios for anomaly detection on transaction data. We extend our iNALU architecture to a neural layer that can model both numerical and non-numerical dependencies and evaluate it in a supervised and one-class setting. We investigate the stability and generalizability of our approach and show that it outperforms a variety of models in the balanced supervised setting and performs comparably in the one-class setting. Finally, we evaluate three approaches to using a generative model as an anomaly detector and compare the anomaly detection performance.
Eine unerkannte oder unbehandelte Hörstörung im Säuglings- und Kindesalter kann weitreichende Konsequenzen mit negativer Auswirkung auf die Sprachentwicklung und das soziale Verhalten haben. Zusätzlich zu den bereits etablierten Diagnose- und Therapiemaßnahmen von Hörstörungen wird daran geforscht, zu entscheiden, ob die Untersuchung und Förderung der vorsprachlichen Vokalisationen bei hörgeschädigten Säuglingen als ergänzende Methode, insbesondere bei der individualisierten Betreuung, eingesetzt werden könnte. Aufgrund der noch mangelnden Kenntnisse über die Auswirkungen einer Hörschädigung auf die Sprachentwicklung von Säuglingen in den vorkanonischen Phasen, sollte in der vorliegenden Arbeit erstmalig die Frage beantwortet werden, ob Unterschiede in den rhythmischen Eigenschaften von Komfortvokalisationen zwischen Säuglingen mit einer hochgradigen Hörschädigung und gesunden Säuglingen bestehen.
Die Arbeit ist als Teilprojekt einer übergeordneten Kohortenstudie aus einer Kooperation zwischen der HNO-Klinik der Universität Würzburg und dem ZVES (Zentrum für vorsprachliche Entwicklung und Entwicklungsstörungen) entstanden. Im Rahmen der Stufe 2 des Neugeborenenhörscreenings erfolgten Lautaufnahmen von Komfortvokalisationen.
Die Kontrollgruppe der vorliegenden Arbeit besteht aus 16 hörgesunden Säuglingen und die Patientengruppe aus 8 hochgradig sensorineural hörgeschädigten Säuglingen (Schallempfindungsstörung nach WHO-Grad 3) im Alter zwischen 65 und 145 Tagen. Zur temporalen Analyse wurden die Vokalisations- und Pausenlänge, zur rhythmischen Analyse die Inter-Onset-Intervalle und der normierte paarweise Variabilitätsindex (nPVI) berechnet.
Es konnten zahlreiche signifikante Unterschiede zwischen der Kontroll- und Patientengruppe gefunden werden: Bis zu einem Alter von 121 Tagen sind die Komfortvokalisationen der hörgesunden Säuglinge länger als die der Hörgeschädigten. Die Zwischenpausenlängen bzw. Inter-Onset-Intervalle der Kontrollgruppe übertreffen bis zu einem Zeitpunkt von 98 bzw. 103 Tagen die der Patientengruppe, während sich dieses Verhältnis ab einem Alter von 99 bzw. 104 Tagen umkehrt. Der mittlere nPVI der Kontrollgruppe ist kleiner als der nPVI der Patientgruppe.
Aufgrund der hier angeführten Ergebnisse ist zu vermuten, dass die Sprachentwicklung bereits in den Phasen vor dem Auftreten des kanonischen Babbelns auf ein funktionierendes Hörsystem angewiesen ist. Die hörgesunden Säuglinge entwickeln bereits zu einem sehr frühen Zeitpunkt die Fähigkeit zur zeitlichen Feinabstimmung von Vokalisationen und Pausen auf den Sprechrhythmus einer Bezugsperson. Es wird postuliert, dass eine fehlende auditive Rückkopplung zu einer Entwicklungsverzögerung führt, die bereits im Alter von 2 bis 5 Monaten bei der Auswertung temporaler und rhythmischer Parameter messbar ist.