TY - THES A1 - Raban, Rebecca Emmi Hildegard T1 - Sicherheit und Wirksamkeit von intrathekalem Triamcinolon bei Patienten mit chronisch-progredienter Multipler Sklerose : eine retrospektive Longitudinalstudie T1 - Safety and efficacy of intrathecal triamcinolone in chronic progressive multiple sclerosis - a retrospective longitudinal study N2 - Im Zeitraum von 2004 bis 2016 erhielten an der Neurologischen Universitätsklinik Würzburg Patienten mit einer chronisch progredienten Multiplen Sklerose insgesamt 595 Injektionen von intrathekalem Triamcinolonacetonid. Diese Arbeit befasst sich mit Sicherheit, Nebenwirkungen und Wirksamkeit der intrathekalen Therapieform. N2 - In the period from 2004 to 2016 patients with chronic progressive multiple sclerosis at the Neurological University Clinic Würzburg received a total of 595 injections of intrathecal triamcinolone acetonide. This work deals with safety, side effects and effectiveness of intrathecal therapy. KW - Intrathekale Applikation KW - Triamcinolon KW - Multiple Sklerose KW - intrathekal KW - intrathecal KW - Volon A KW - chronische Multiple Sklerose KW - triamcinolone acetonide KW - progressive multiple sclerosis Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-220478 ER - TY - THES A1 - Kempf, Bettina T1 - Interaktion ausgewählter Mechanismen der Pemphigus-Pathogenese T1 - Interaction of selected mechanisms of the pathogenesis of pemphigus N2 - Bei der Autoimmunerkrankung Pemphigus vulgaris führen Antikörper zur charakteristischen suprabasalen Akantholyse und Blasenbildung der Epidermis, indem sie an spezifische Antigene, Dsg3 (Desmoglein 3) und Dsg1 (Desmoglein 1), auf der Zelloberfläche der Keratinozyten binden. Die Art und Weise, wie die multiplen zellulären Pathomechanismen zusammenwirken und das potenziell tödliche Krankheitsbild hervorrufen, ist jedoch bislang noch weitgehend unklar. In der vorliegenden Arbeit wurden entscheidende, durch die Autoantikörper hervorgerufene, pathologische intrazelluläre Prozesse genauer untersucht und deren Stellenwert beleuchtet. N2 - In the autoimmune disease Pemphigus autoantibodies lead to characteristic suprabasal acantholysis and blistering of the epidermis by binding to specific antigens, Dsg3 (desmoglein 3) and Dsg1 (desmoglein 1) on the surface of keratinocytes. The way, how multiple cellular pathomechanisms work together causing the potentially lethal clinical picture, is yet largely unknown. In this work, decisive pathologic intracellular processes, caused by the autoantibodies, were investigated more closely and their respective significance illuminated. KW - pemphigus KW - Pemphigus KW - Autoimmunerkrankung Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-220480 ER - TY - THES A1 - Löffler, Andre T1 - Constrained Graph Layouts: Vertices on the Outer Face and on the Integer Grid T1 - Graphzeichnen unter Nebenbedingungen: Knoten auf der Außenfacette und mit ganzzahligen Koordinaten N2 - Constraining graph layouts - that is, restricting the placement of vertices and the routing of edges to obey certain constraints - is common practice in graph drawing. In this book, we discuss algorithmic results on two different restriction types: placing vertices on the outer face and on the integer grid. For the first type, we look into the outer k-planar and outer k-quasi-planar graphs, as well as giving a linear-time algorithm to recognize full and closed outer k-planar graphs Monadic Second-order Logic. For the second type, we consider the problem of transferring a given planar drawing onto the integer grid while perserving the original drawings topology; we also generalize a variant of Cauchy's rigidity theorem for orthogonal polyhedra of genus 0 to those of arbitrary genus. N2 - Das Einschränken von Zeichnungen von Graphen, sodass diese bestimmte Nebenbedingungen erfüllen - etwa solche, die das Platzieren von Knoten oder den Verlauf von Kanten beeinflussen - sind im Graphzeichnen allgegenwärtig. In dieser Arbeit befassen wir uns mit algorithmischen Resultaten zu zwei speziellen Einschränkungen, nämlich dem Platzieren von Knoten entweder auf der Außenfacette oder auf ganzzahligen Koordinaten. Für die erste Einschränkung untersuchen wir die außen k-planaren und außen k-quasi-planaren Graphen und geben einen auf monadische Prädikatenlogik zweiter Stufe basierenden Algorithmus an, der überprüft, ob ein Graph voll außen k-planar ist. Für die zweite Einschränkung untersuchen wir das Problem, eine gegebene planare Zeichnung eines Graphen auf das ganzzahlige Koordinatengitter zu transportieren, ohne dabei die Topologie der Zeichnung zu verändern; außerdem generalisieren wir eine Variante von Cauchys Starrheitssatz für orthogonale Polyeder von Geschlecht 0 auf solche von beliebigem Geschlecht. KW - Graphenzeichnen KW - Komplexität KW - Algorithmus KW - Algorithmische Geometrie KW - Kombinatorik KW - Planare Graphen KW - Polyeder KW - Konvexe Zeichnungen Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-215746 SN - 978-3-95826-146-4 SN - 978-3-95826-147-1 N1 - Parallel erschienen als Druckausgabe in Würzburg University Press, ISBN 978-3-95826-146-4, 32,90 EUR PB - Würzburg University Press CY - Würzburg ET - 1. Auflage ER - TY - THES A1 - Schihada, Hannes T1 - Novel optical methods to monitor G-protein-coupled receptor activation in microtiter plates T1 - Neue optische Methoden zur Messung der Aktivierung von G-Protein-gekoppelten Rezeptoren in Mikrotiter-Platten N2 - G-protein-coupled receptors (GPCRs) regulate diverse physiological processes in the human body and represent prime targets in modern drug discovery. Engagement of different ligands to these membrane-embedded proteins evokes distinct receptor conformational rearrangements that facilitate subsequent receptor-mediated signalling and, ultimately, enable cellular adaptation to altered environmental conditions. Since the early 2000s, the technology of resonance energy transfer (RET) has been exploited to assess these conformational receptor dynamics in living cells and real time. However, to date, these conformational GPCR studies are restricted to single-cell microscopic setups, slowing down the discovery of novel GPCR-directed therapeutics. In this work, we present the development of a novel generalizable high-throughput compatible assay for the direct measurement of GPCR activation and deactivation. By screening a variety of energy partners for fluorescence (FRET) and bioluminescence resonance energy transfer (BRET), we identified a highly sensitive design for an α2A-adrenergic receptor conformational biosensor. This biosensor reports the receptor’s conformational change upon ligand binding in a 96-well plate reader format with the highest signal amplitude obtained so far. We demonstrate the capacity of this sensor prototype to faithfully quantify efficacy and potency of GPCR ligands in intact cells and real time. Furthermore, we confirm its universal applicability by cloning and validating five further equivalent GPCR biosensors. To prove the suitability of this new GPCR assay for screening purposes, we measured the well-accepted Z-factor as a parameter for the assay quality. All tested biosensors show excellent Z-factors indicating outstanding assay quality. Furthermore, we demonstrate that this assay provides excellent throughput and presents low rates of erroneous hit identification (false positives and false negatives). Following this phase of assay development, we utilized these biosensors to understand the mechanism and consequences of the postulated modulation of parathyroid hormone receptor 1 (PTHR1) through receptor activity-modifying protein 2 (RAMP2). We found that RAMP2 desensitizes PTHR1, but not the β2-adrenergic receptor (β2AR), for agonist-induced structural changes. This generalizable sensor design offers the first possibility to upscale conformational GPCR studies, which represents the most direct and unbiased approach to monitor receptor activation and deactivation. Therefore, this novel technology provides substantial advantages over currently established methods for GPCR ligand screening. We feel confident that this technology will aid the discovery of novel types of GPCR ligands, help to identify the endogenous ligands of so-called orphan GPCRs and deepen our understanding of the physiological regulation of GPCR function. N2 - Die Klasse der G-protein-gekoppelten Rezeptoren (GPCRs) stellt die größte Familie membranständiger Proteine dar. GPCRs regulieren eine Vielzahl diverser physiologischer Prozesse in eukaryotischen Zellen und kontrollieren so unterschiedliche Zellfunktionen im menschlichen Organismus. Sie stellen die Zelloberflächenrezeptoren für verschiedenartige extrazelluläre Stimuli, wie zum Beispiel Photonen, niedermolekulare chemische Verbindungen, Peptide und Lipide dar. Die Wechselwirkung mit diesen sogenannten Liganden stabilisiert spezifische GPCR-Konformationen. Diese dienen wiederum als Ausgangspunkt für nachgeschaltete intrazelluläre Signalkaskaden, die beispielweise über membranverankerte G-Proteine vermittelt werden können. Während endogene GPCR-Agonisten diese Signalweiterleitung verstärken, können andere Biomoleküle wie Lipide, Ionen oder andersartige Membranproteine die Funktion, und damit die Signalweiterleitung der GPCRs modulieren. Aufgrund ihrer Einbindung in eine Vielzahl physiologischer und pathophysiologischer Prozesse, wurden GPCRs schon früh als Angriffspunkte („Targets“) zur Behandlung verschiedener Erkrankungen erforscht und genutzt. Heutzutage vermitteln etwa 30% aller zugelassenen Arzneistoffe ihre Wirkung über G-protein-gekoppelte Rezeptoren. Dennoch wird das große Potential dieser Rezeptorfamilie als Targets für medikamentöse Behandlungen noch nicht in vollem Umfang ausgeschöpft. Tatsächlich gibt es für mehr als 200 GPCRs, die nicht der olfaktorischen Wahrnehmung dienen, noch keine Arzneistoffe, da wenig über deren Pharmakologie und physiologische Bedeutung bekannt ist. Zudem wird die Entwicklung neuartiger GPCR-Liganden erheblich durch das eingeschränkte Methodenrepertoire beeinträchtigt. Alle derzeit etablierten Techniken zur Identifizierung neuer GPCR-Liganden erfassen entweder den Ligand-GPCR-Bindungsprozess, der keine Informationen über die tatsächliche Aktivität der Verbindung liefert, oder messen weit-nachgeschaltete Signale, wie Änderungen sogenannter „Second-Messenger“-Konzentrationen (meist cAMP oder Calcium) und Reporter-Gen-Expressionslevel. Aufgrund ihrer Entfernung vom eigentlichen Rezeptor-Aktivierungsprozess haben diese Methoden allerdings bedeutende Nachteile und produzieren so häufig Falsch-Positive und Falsch-Negative Ergebnisse. Seit den frühen 2000er wurden GPCR-Konformationssensoren auf Basis von Fluoreszenz-Resonanz-Energie-Transfer (FRET) zur Messung der Ligand-induzierten Rezeptordynamik genutzt. Jedoch wies keiner der bisher entwickelten FRET- oder BRET- (Biolumineszenz-Resonanz-Energie-Transfer) Sensoren ausreichende Signalstärke auf, um im Hochdurchsatz-Screening (HTS) angewendet werden zu können. Die vorliegende Studie beschreibt das erste GPCR-Sensordesign, das aufgrund seiner exzellenten Signalstärke im Hochdurchsatz-Verfahren verwendet werden kann. Wir haben 21 unterschiedliche FRET- und BRET-Sensoren des α2A-adrenergen Rezeptors (α2AAR) getestet und dabei die Kombination der kleinen und hellen Luziferase NanoLuciferase (Nluc) mit dem rot-fluoreszierenden HaloTag-Farbstoff 618 als sensitivstes RET-Paar identifiziert. Der α2AARNluc/Halo(618) Biosensor ermöglicht die Messung der Aktivität und Wirkstärke von α2AAR-Liganden im Mikrotiterplattenformat. Um die universelle Anwendbarkeit dieses Sensordesigns zu prüfen, wurden fünf weitere Nluc/Halo(618)-basierende Sensoren für GPCRs unterschiedlicher Unterfamilien entwickelt. Zudem konnten wir zeigen, dass diese GPCRNluc/Halo(618)-Fusionsproteine weiterhin ihre natürlichen Signalkaskaden in Gang setzen können und damit die biologische Funktionalität dieser Rezeptoren erhalten ist. Außerdem belegt die vorlegende Arbeit, dass diese neue Sensor-Generation zur Messung Ligand-vermittelter Rezeptordynamiken im Hochdurchsatz-Format und zur Untersuchung der GPCR-Regulation durch endogene Modulatoren genutzt werden kann. Zusammenfassend kann gesagt werden, dass wir den ersten HTS-kompatiblen Assay zur Messung der GPCR-Konformationsänderungen entwickelt haben. Diese Biosensoren erlauben die Charakterisierung neuartiger GPCR-Liganden direkt auf der Rezeptorebene und funktionieren damit unabhängig von nachgeschalteter Signalamplifikation oder Überlagerung verschiedener Signalwege, welche die Aussagekraft traditioneller GPCR-Screening-Verfahren häufig beeinträchtigen. Diese Technik kann zur Entdeckung neuartiger GPCR-Arzneistoffe genutzt werden, zu einem besseren Verständnis bisher kaum erforschter Rezeptoren beitragen und der Identifizierung und Charakterisierung potentieller GPCR-Modulatoren dienen. KW - G-Protein gekoppelte Rezeptoren KW - Hochdurchsatz-Screening KW - Förster Resonanz Energie Transfer KW - High-thropughput screening KW - Bioluminescence resonance energy transfer KW - G-protein-coupled receptors KW - Receptor dynamics Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-175415 ER - TY - THES A1 - Leucht, Annalena T1 - Einfluss der mitochondrialen Ca\(^{2+}\)-Aufnahme auf die nukleäre Ca\(^{2+}\)-Konzentration in ventrikulären Kardiomyozyten der Maus T1 - The effect of mitochondrial Ca\(^{2+}\) uptake on the nuclear Ca\(^{2+}\) concentration in murine ventricular cardiomyocytes N2 - Nach Stimulierung mit einem IP3-Rezeptor Agonisten wird die mitochondriale Ca2+-Aufnahme stimuliert. Wenn diese mitochondriale Ca2+-Aufnahme durch Dantrolen oder Ru360 blockiert wird, dann steigt nachfolgend das zytosolische [Ca2+] an. Nach Blockierung des mRyR durch Dantrolen steigt zusätzlich durch die Beeinflussung der passiven Komponente des nukleären Ca2+-Transienten das nukleäre [Ca2+] an. Dieses erhöhte nukleäre [Ca2+] hat letztlich eine Hypertrophie zur Folge. Somit können Mitochondrien, die in ihrer Funktion gestört sind, zur Entwicklung der Hypertrophie beitragen. N2 - After treatment with an IP3-receptor agonist mitochondria takes up calcium. If this uptake is blocked by dantrolene or Ru 360 the cytosolic calcium increases. When the mRyR is blocked by dantrolene the nuclear calcium is additionally increased. KW - Mitochondrium KW - Herzinsuffizienz KW - Calcium-Aufnahme Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-220289 ER - TY - THES A1 - Bauer, André T1 - Automated Hybrid Time Series Forecasting: Design, Benchmarking, and Use Cases T1 - Automatisierte hybride Zeitreihenprognose: Design, Benchmarking und Anwendungsfälle N2 - These days, we are living in a digitalized world. Both our professional and private lives are pervaded by various IT services, which are typically operated using distributed computing systems (e.g., cloud environments). Due to the high level of digitalization, the operators of such systems are confronted with fast-paced and changing requirements. In particular, cloud environments have to cope with load fluctuations and respective rapid and unexpected changes in the computing resource demands. To face this challenge, so-called auto-scalers, such as the threshold-based mechanism in Amazon Web Services EC2, can be employed to enable elastic scaling of the computing resources. However, despite this opportunity, business-critical applications are still run with highly overprovisioned resources to guarantee a stable and reliable service operation. This strategy is pursued due to the lack of trust in auto-scalers and the concern that inaccurate or delayed adaptations may result in financial losses. To adapt the resource capacity in time, the future resource demands must be "foreseen", as reacting to changes once they are observed introduces an inherent delay. In other words, accurate forecasting methods are required to adapt systems proactively. A powerful approach in this context is time series forecasting, which is also applied in many other domains. The core idea is to examine past values and predict how these values will evolve as time progresses. According to the "No-Free-Lunch Theorem", there is no algorithm that performs best for all scenarios. Therefore, selecting a suitable forecasting method for a given use case is a crucial task. Simply put, each method has its benefits and drawbacks, depending on the specific use case. The choice of the forecasting method is usually based on expert knowledge, which cannot be fully automated, or on trial-and-error. In both cases, this is expensive and prone to error. Although auto-scaling and time series forecasting are established research fields, existing approaches cannot fully address the mentioned challenges: (i) In our survey on time series forecasting, we found that publications on time series forecasting typically consider only a small set of (mostly related) methods and evaluate their performance on a small number of time series with only a few error measures while providing no information on the execution time of the studied methods. Therefore, such articles cannot be used to guide the choice of an appropriate method for a particular use case; (ii) Existing open-source hybrid forecasting methods that take advantage of at least two methods to tackle the "No-Free-Lunch Theorem" are computationally intensive, poorly automated, designed for a particular data set, or they lack a predictable time-to-result. Methods exhibiting a high variance in the time-to-result cannot be applied for time-critical scenarios (e.g., auto-scaling), while methods tailored to a specific data set introduce restrictions on the possible use cases (e.g., forecasting only annual time series); (iii) Auto-scalers typically scale an application either proactively or reactively. Even though some hybrid auto-scalers exist, they lack sophisticated solutions to combine reactive and proactive scaling. For instance, resources are only released proactively while resource allocation is entirely done in a reactive manner (inherently delayed); (iv) The majority of existing mechanisms do not take the provider's pricing scheme into account while scaling an application in a public cloud environment, which often results in excessive charged costs. Even though some cost-aware auto-scalers have been proposed, they only consider the current resource demands, neglecting their development over time. For example, resources are often shut down prematurely, even though they might be required again soon. To address the mentioned challenges and the shortcomings of existing work, this thesis presents three contributions: (i) The first contribution-a forecasting benchmark-addresses the problem of limited comparability between existing forecasting methods; (ii) The second contribution-Telescope-provides an automated hybrid time series forecasting method addressing the challenge posed by the "No-Free-Lunch Theorem"; (iii) The third contribution-Chamulteon-provides a novel hybrid auto-scaler for coordinated scaling of applications comprising multiple services, leveraging Telescope to forecast the workload intensity as a basis for proactive resource provisioning. In the following, the three contributions of the thesis are summarized: Contribution I - Forecasting Benchmark To establish a level playing field for evaluating the performance of forecasting methods in a broad setting, we propose a novel benchmark that automatically evaluates and ranks forecasting methods based on their performance in a diverse set of evaluation scenarios. The benchmark comprises four different use cases, each covering 100 heterogeneous time series taken from different domains. The data set was assembled from publicly available time series and was designed to exhibit much higher diversity than existing forecasting competitions. Besides proposing a new data set, we introduce two new measures that describe different aspects of a forecast. We applied the developed benchmark to evaluate Telescope. Contribution II - Telescope To provide a generic forecasting method, we introduce a novel machine learning-based forecasting approach that automatically retrieves relevant information from a given time series. More precisely, Telescope automatically extracts intrinsic time series features and then decomposes the time series into components, building a forecasting model for each of them. Each component is forecast by applying a different method and then the final forecast is assembled from the forecast components by employing a regression-based machine learning algorithm. In more than 1300 hours of experiments benchmarking 15 competing methods (including approaches from Uber and Facebook) on 400 time series, Telescope outperformed all methods, exhibiting the best forecast accuracy coupled with a low and reliable time-to-result. Compared to the competing methods that exhibited, on average, a forecast error (more precisely, the symmetric mean absolute forecast error) of 29%, Telescope exhibited an error of 20% while being 2556 times faster. In particular, the methods from Uber and Facebook exhibited an error of 48% and 36%, and were 7334 and 19 times slower than Telescope, respectively. Contribution III - Chamulteon To enable reliable auto-scaling, we present a hybrid auto-scaler that combines proactive and reactive techniques to scale distributed cloud applications comprising multiple services in a coordinated and cost-effective manner. More precisely, proactive adaptations are planned based on forecasts of Telescope, while reactive adaptations are triggered based on actual observations of the monitored load intensity. To solve occurring conflicts between reactive and proactive adaptations, a complex conflict resolution algorithm is implemented. Moreover, when deployed in public cloud environments, Chamulteon reviews adaptations with respect to the cloud provider's pricing scheme in order to minimize the charged costs. In more than 400 hours of experiments evaluating five competing auto-scaling mechanisms in scenarios covering five different workloads, four different applications, and three different cloud environments, Chamulteon exhibited the best auto-scaling performance and reliability while at the same time reducing the charged costs. The competing methods provided insufficient resources for (on average) 31% of the experimental time; in contrast, Chamulteon cut this time to 8% and the SLO (service level objective) violations from 18% to 6% while using up to 15% less resources and reducing the charged costs by up to 45%. The contributions of this thesis can be seen as major milestones in the domain of time series forecasting and cloud resource management. (i) This thesis is the first to present a forecasting benchmark that covers a variety of different domains with a high diversity between the analyzed time series. Based on the provided data set and the automatic evaluation procedure, the proposed benchmark contributes to enhance the comparability of forecasting methods. The benchmarking results for different forecasting methods enable the selection of the most appropriate forecasting method for a given use case. (ii) Telescope provides the first generic and fully automated time series forecasting approach that delivers both accurate and reliable forecasts while making no assumptions about the analyzed time series. Hence, it eliminates the need for expensive, time-consuming, and error-prone procedures, such as trial-and-error searches or consulting an expert. This opens up new possibilities especially in time-critical scenarios, where Telescope can provide accurate forecasts with a short and reliable time-to-result. Although Telescope was applied for this thesis in the field of cloud computing, there is absolutely no limitation regarding the applicability of Telescope in other domains, as demonstrated in the evaluation. Moreover, Telescope, which was made available on GitHub, is already used in a number of interdisciplinary data science projects, for instance, predictive maintenance in an Industry 4.0 context, heart failure prediction in medicine, or as a component of predictive models of beehive development. (iii) In the context of cloud resource management, Chamulteon is a major milestone for increasing the trust in cloud auto-scalers. The complex resolution algorithm enables reliable and accurate scaling behavior that reduces losses caused by excessive resource allocation or SLO violations. In other words, Chamulteon provides reliable online adaptations minimizing charged costs while at the same time maximizing user experience. N2 - Heutzutage leben wir in einer digitalisierten Welt. Sowohl unser berufliches als auch unser privates Leben ist von verschiedenen IT-Diensten durchzogen, welche typischerweise in verteilten Computersystemen (z.B. Cloud-Umgebungen) betrieben werden. Die Betreiber solcher Systeme sind aufgrund des hohen Digitalisierungsgrades mit schnellen und wechselnden Anforderungen konfrontiert. Insbesondere Cloud-Umgebungen unterliegen starken Lastschwankungen und entsprechenden schnellen und unerwarteten Änderungen des Bedarfs an Rechenressourcen. Um dieser Herausforderung zu begegnen, können so genannte Auto-Scaler, wie z.B. der schwellenwertbasierte Mechanismus von Amazon Web Services EC2, eingesetzt werden, um eine elastische Skalierung der Rechenressourcen zu ermöglichen. Doch trotz dieser Gelegenheit werden geschäftskritische Anwendungen nach wie vor mit deutlich überdimensionierten Rechenkapazitäten betrieben, um einen stabilen und zuverlässigen Dienstbetrieb zu gewährleisten. Diese Strategie wird aufgrund des mangelnden Vertrauens in Auto-Scaler und der Sorge verfolgt, dass ungenaue oder verzögerte Anpassungen zu finanziellen Verlusten führen könnten. Um die Ressourcenkapazität rechtzeitig anpassen zu können, müssen die zukünftigen Ressourcenanforderungen "vorhergesehen" werden. Denn die Reaktion auf Veränderungen, sobald diese beobachtet werden, führt zu einer inhärenten Verzögerung. Mit anderen Worten, es sind genaue Prognosemethoden erforderlich, um Systeme proaktiv anzupassen. Ein wirksamer Ansatz in diesem Zusammenhang ist die Zeitreihenprognose, welche auch in vielen anderen Bereichen angewandt wird. Die Kernidee besteht darin, vergangene Werte zu untersuchen und vorherzusagen, wie sich diese Werte im Laufe der Zeit entwickeln werden. Nach dem "No-Free-Lunch Theorem" gibt es keinen Algorithmus, der für alle Szenarien am besten funktioniert. Daher ist die Auswahl einer geeigneten Prognosemethode für einen gegebenen Anwendungsfall eine wesentliche Herausforderung. Denn jede Methode hat - abhängig vom spezifischen Anwendungsfall - ihre Vor- und Nachteile. Deshalb basiert üblicherweise die Wahl der Prognosemethode auf Trial-and-Error oder auf Expertenwissen, welches nicht vollständig automatisiert werden kann. Beide Ansätze sind teuer und fehleranfällig. Obwohl Auto-Skalierung und Zeitreihenprognose etablierte Forschungsgebiete sind, können die bestehenden Ansätze die genannten Herausforderungen nicht vollständig bewältigen: (i) Bei unserer Untersuchung zur Zeitreihenvorhersage stellten wir fest, dass die meisten der überprüften Artikel nur eine geringe Anzahl von (meist verwandten) Methoden berücksichtigen und ihre Performanz auf einem kleinen Datensatz von Zeitreihen mit nur wenigen Fehlermaßen bewerten, während sie keine Informationen über die Ausführungszeit der untersuchten Methoden liefern. Daher können solche Artikel nicht als Hilfe für die Wahl einer geeigneten Methode für einen bestimmten Anwendungsfall herangezogen werden; (ii) Bestehende hybride open-source Prognosemethoden, die sich mindestens zwei Methoden zunutze machen, um das "No-Free-Lunch Theorem" anzugehen, sind rechenintensiv, schlecht automatisiert, für einen bestimmten Datensatz ausgelegt oder haben eine unvorhersehbare Laufzeit. Methoden, die eine hohe Varianz in der Ausführungszeit aufweisen, können nicht für zeitkritische Szenarien angewendet werden (z.B. Autoskalierung), während Methoden, die auf einen bestimmten Datensatz zugeschnitten sind, Einschränkungen für mögliche Anwendungsfälle mit sich bringen (z.B. nur jährliche Zeitreihen vorhersagen); (iii) Auto-Scaler skalieren typischerweise eine Anwendung entweder proaktiv oder reaktiv. Obwohl es einige hybride Auto-Scaler gibt, fehlt es ihnen an ausgeklügelten Lösungen zur Kombination von reaktiver und proaktiver Skalierung. Beispielsweise werden Ressourcen nur proaktiv freigesetzt, während die Ressourcenzuweisung vollständig reaktiv (inhärent verzögert) erfolgt; (iv) Die Mehrheit der vorhandenen Mechanismen berücksichtigt bei der Skalierung einer Anwendung in einer öffentlichen Cloud-Umgebung nicht das Preismodell des Anbieters, was häufig zu überhöhten Kosten führt. Auch wenn einige kosteneffiziente Auto-Scaler vorgeschlagen wurden, berücksichtigen sie nur den aktuellen Ressourcenbedarf und vernachlässigen ihre Entwicklung im Laufe der Zeit. Beispielsweise werden Ressourcen oft vorzeitig abgeschaltet, obwohl sie vielleicht bald wieder benötigt werden. Um den genannten Herausforderungen und den Defiziten der bisherigen Arbeiten zu begegnen, werden in dieser Arbeit drei Beiträge vorgestellt: (i) Der erste Beitrag - ein Prognosebenchmark - behandelt das Problem der begrenzten Vergleichbarkeit zwischen bestehenden Prognosemethoden; (ii) Der zweite Beitrag stellt eine automatisierte hybride Zeitreihen-Prognosemethode namens Telescope vor, die sich der Herausforderung des "No-Free-Lunch Theorem" stellt; (iii) Der dritte Beitrag stellt Chamulteon, einen neuartigen hybriden Auto-Scaler für die koordinierte Skalierung von Anwendungen mit mehreren Diensten, bereit, der Telescope zur Vorhersage der Lastintensität als Grundlage für eine proaktive Ressourcenbereitstellung nutzt. Im Folgenden werden die drei Beiträge der Arbeit zusammengefasst: Beitrag I - Prognosebenchmark Um gleiche Ausgangsbedingungen für die Bewertung von Prognosemethoden anhand eines breiten Spektrums zu schaffen, schlagen wir einen neuartigen Benchmark vor, der Prognosemethoden auf der Grundlage ihrer Performanz in einer Vielzahl von Szenarien automatisch bewertet und ein Ranking erstellt. Der Benchmark umfasst vier verschiedene Anwendungsfälle, die jeweils 100 heterogene Zeitreihen aus verschiedenen Bereichen abdecken. Der Datensatz wurde aus öffentlich zugänglichen Zeitreihen zusammengestellt und so konzipiert, dass er eine viel höhere Diversität aufweist als bestehende Prognosewettbewerbe. Neben dem neuen Datensatz führen wir zwei neue Maße ein, die verschiedene Aspekte einer Prognose beschreiben. Wir haben den entwickelten Benchmark zur Bewertung von Telescope angewandt. Beitrag II - Telescope Um eine generische Prognosemethode bereitzustellen, stellen wir einen neuartigen, auf maschinellem Lernen basierenden Prognoseansatz vor, der automatisch relevante Informationen aus einer gegebenen Zeitreihe extrahiert. Genauer gesagt, Telescope extrahiert automatisch intrinsische Zeitreihenmerkmale und zerlegt die Zeitreihe dann in Komponenten, wobei für jede dieser Komponenten ein Prognosemodell erstellt wird. Jede Komponente wird mit einer anderen Methode prognostiziert und dann wird die endgültige Prognose aus den vorhergesagten Komponenten unter Verwendung eines regressionsbasierten Algorithmus des maschinellen Lernens zusammengestellt. In mehr als 1300 Experiment-Stunden, in denen 15 konkurrierende Methoden (einschließlich Ansätze von Uber und Facebook) auf 400 Zeitreihen verglichen wurden, übertraf Telescope alle Methoden und zeigte die beste Prognosegenauigkeit in Verbindung mit einer niedrigen und zuverlässigen Ausführungszeit. Im Vergleich zu den konkurrierenden Methoden, die im Durchschnitt einen Prognosefehler (genauer gesagt, den symmetric mean absolute forecast error) von 29% aufwiesen, wies Telescope einen Fehler von 20% auf und war dabei 2556 mal schneller. Insbesondere die Methoden von Uber und Facebook wiesen einen Fehler von 48% bzw. 36% auf und waren 7334 bzw. 19 mal langsamer als Telescope. Beitrag III - Chamulteon Um eine zuverlässige Auto-Skalierung zu ermöglichen, stellen wir einen hybriden Auto-Scaler vor, der proaktive und reaktive Techniken kombiniert, um verteilte Cloud-Anwendungen, die mehrere Dienste umfassen, koordiniert und kostengünstig zu skalieren. Genauer gesagt, werden proaktive Anpassungen auf der Grundlage von Prognosen von Telescope geplant, während reaktive Anpassungen auf der Grundlage tatsächlicher Beobachtungen der überwachten Lastintensität ausgelöst werden. Um auftretende Konflikte zwischen reaktiven und proaktiven Anpassungen zu lösen, wird ein komplexer Konfliktlösungsalgorithmus implementiert. Außerdem überprüft Chamulteon Anpassungen im Hinblick auf das Preismodell des Cloud-Anbieters, um die anfallenden Kosten in öffentlichen Cloud-Umgebungen zu minimieren. In mehr als 400 Experiment-Stunden, in denen fünf konkurrierende Auto-Skalierungsmechanismen unter fünf verschiedene Arbeitslasten, vier verschiedene Anwendungen und drei verschiedene Cloud-Umgebungen evaluiert wurden, zeigte Chamulteon die beste Auto-Skalierungsleistung und Zuverlässigkeit bei gleichzeitiger Reduzierung der berechneten Kosten. Die konkurrierenden Methoden lieferten während (durchschnittlich) 31% der Versuchszeit zu wenige Ressourcen. Im Gegensatz dazu reduzierte Chamulteon diese Zeit auf 8% und die SLO-Verletzungen (Service Level Objectives) von 18% auf 6%, während es bis zu 15% weniger Ressourcen verwendete und die berechneten Kosten um bis zu 45% senkte. Die Beiträge dieser Arbeit können als wichtige Meilensteine auf dem Gebiet der Zeitreihenprognose und der automatischen Skalierung in Cloud Computing angesehen werden. (i) In dieser Arbeit wird zum ersten Mal ein Prognosebenchmark präsentiert, der eine Vielzahl verschiedener Bereiche mit einer hohen Diversität zwischen den analysierten Zeitreihen abdeckt. Auf der Grundlage des zur Verfügung gestellten Datensatzes und des automatischen Auswertungsverfahrens trägt der vorgeschlagene Benchmark dazu bei, die Vergleichbarkeit von Prognosemethoden zu verbessern. Die Benchmarking-Ergebnisse von verschiedenen Prognosemethoden ermöglichen die Auswahl der am besten geeigneten Prognosemethode für einen gegebenen Anwendungsfall. (ii) Telescope bietet den ersten generischen und vollautomatischen Zeitreihen-Prognoseansatz, der sowohl genaue als auch zuverlässige Prognosen liefert, ohne Annahmen über die analysierte Zeitreihe zu treffen. Dementsprechend macht es teure, zeitaufwändige und fehleranfällige Verfahren überflüssig, wie z.B. Trial-and-Error oder das Hinzuziehen eines Experten. Dies eröffnet neue Möglichkeiten, insbesondere in zeitkritischen Szenarien, in denen Telescope genaue Vorhersagen mit einer kurzen und zuverlässigen Antwortzeit liefern kann. Obwohl Telescope für diese Arbeit im Bereich des Cloud Computing eingesetzt wurde, gibt es, wie die Auswertung zeigt, keinerlei Einschränkungen hinsichtlich der Anwendbarkeit von Telescope in anderen Bereichen. Darüber hinaus wird Telescope, das auf GitHub zur Verfügung gestellt wurde, bereits in einer Reihe von interdisziplinären datenwissenschaftlichen Projekten eingesetzt, z.B. bei der vorausschauenden Wartung im Rahmen von Industry 4.0, bei der Vorhersage von Herzinsuffizienz in der Medizin oder als Bestandteil von Vorhersagemodellen für die Entwicklung von Bienenstöcken. (iii) Im Kontext der elastischen Ressourcenverwaltung ist Chamulteon ein wichtiger Meilenstein für die Stärkung des Vertrauens in Auto-Scaler. Der komplexe Konfliktlösungsalgorithmus ermöglicht ein zuverlässiges und genaues Skalierungsverhalten, das Verluste durch übermäßige Ressourcenzuweisung oder SLO-Verletzungen reduziert. Mit anderen Worten, Chamulteon bietet zuverlässige Ressourcenanpassungen, die die berechneten Kosten minimieren und gleichzeitig die Benutzerzufriedenheit maximieren. KW - Zeitreihenanalyse KW - Prognose KW - Cloud Computing KW - Auto-Scaling KW - Feature Engineering & Extraction KW - Skalierbarkeit KW - Benchmarking KW - Forecasting Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-220255 ER - TY - THES A1 - von der Heide, Carolina T1 - Langzeitergebnisse der klinischen und röntgenologischen Qualität von Gold- und Keramikteilkronen im Vergleich 9 bis 25 Jahre nach Insertion T1 - Long-term results of the clinical and radiological quality of partial ceramic crowns and cast gold partial crowns 9 to 25 years after insertion N2 - In der vorliegenden klinischen retrospektiven Studie wurden 147 Goldteilkronen und 149 Keramikteilkronen an 296 Patienten nachuntersucht. Der Beobachtungszeitraum umfasste 9-25 Jahre nach Insertion (M = 14,28, SD = 3,59). Die systematische Bewertung der Restaurationsqualität beruhte auf modifizierten USPHS-Kriterien, klinischen Parametern sowie einer röntgenologischen Beurteilung anhand eines Zahnfilms. Die Goldteilkronen waren zu 68% (n = 100), Keramikteilkronen zu 75,2% (n = 112) in einem exzellenten bis akzeptablen Zustand. Eine Reparatur unter Erhalt der Restauration war bei 25,9% (n = 38) der Gold- und 20,8% (n = 31) der Keramikrestaurationen notwendig. Goldrestaurationen konnten in 6,1% der Fälle (n = 9) nicht erhalten werden, Keramikrestaurationen in 4% der Fälle (n = 6). Die Qualität der Keramikrestaurationen war hinsichtlich der Kriterien Randverfärbung, Oberflächendefekte/Retention, Randqualität und Karies niedriger als die der hochgold-haltigen Restaurationen. Die Gesamtqualität wies keine signifikanten Unterschiede zwischen den Restaurationsgruppen auf. Vorhandene Plaqueakkumulation, erhöhtes Kariesrisiko und steigendes Patientenalter wirkten sich qualitätsmindernd auf die indirekten Restaurationen aus. Gold- und Keramikteilkronen wiesen zufriedenstellende klinische Ergebnisse auf und können gleichermaßen als langfristige, hochqualitative Versorgung für ausgedehnte Defekte im Seitenzahnbereich angesehen werden. N2 - In this dissertation, 296 patients with either partial ceramic crowns (PCC) (n = 149) or cast gold partial crowns (CGPC) (n = 147) were assessed clinically and radiologically after 9-25 years (M = 14,28, SD = 3,59). To assess the quality of the indirect restorations, modified USPHS criteria were used. 68% (n = 100) of the CGPC and 75,2% (n = 112) of the PCC achieved acceptable up to excellent results. Reparation of the restoration was needed in 25,9% (n = 38) of the CGPC and 20,8% (n = 31) of the PCC. Nine CGPC (6,1%) and six PCC (4%) failed and had to be replaced. PCC showed lower quality in marginal staining, fracture/retention, marginal adaptation, and recurrence of caries compared to CGPC. The quality of the restorations in total did not depict any significant differences between the groups. Existing plaque, higher caries risk, and increasing patients age had an impact on the restorations quality. PCC and CGPC both revealed good results and can be recommended for the restoration of extended lesions in posterior teeth. KW - Dentalkeramik KW - Teilkrone KW - Zahnerhaltung KW - Restaurationsqualität KW - partial crown KW - long-term quality Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-220498 ER - TY - THES A1 - Keß, Stefan T1 - Einfluss von Zahn- und Kieferfehlstellungen auf die Mundgesundheitsbezogene Lebensqualität von Kindern und Jugendlichen unter Berücksichtigung demographischer und psychologischer Einflussfaktoren T1 - Impact of malocclusion on the oral health-related quality of life in children and adolescents with regard to demographic and psychological factors N2 - Ziel der prospektiven, klinischen und multizentrischen Kohortenstudie war die Untersuchung des Einflusses demographischer (Alter, SÖS), psychologischer (KIDSCREEN-10, RSES, SDQ) und kieferorthopädischer Parameter auf die Mundgesundheitsbezogene Lebensqualität (COHIP-G19) von Kindern und Jugendlichen. Hierzu wurden 250 kieferorthopädische Patienten akquiriert. Die Ergebnisse zeigten signifikante Zusammenhänge zwischen der Mundgesundheitsbezogenen Lebensqualität und: (1) dem Alter, (2) der gesundheitsbezogenen Lebensqualität, (3) dem Selbstwertgefühl, (4) Verhaltensauffälligkeiten, (5) dem objektiven kieferorthopädischen Behandlungsbedarf, (6) spezifischen kieferorthopädischen Befunden. N2 - The aim of the prospective, clinical and multicentre cohort study was to investigate the impact of demographic (age, SES), psychological (KIDSCREEN-10, RSES, SDQ) and orthodontic parameters on the oral health-related quality of life (COHIP-G19) in children and adolescents. 250 orthodontic patients were acquired. The results showed significant relations between the oral health-related quality of life and: (1) age, (2) overall health-related quality of life, (3) self-esteem, (4) behavioral problems, (5) objective orthodontic treatment need, (6) specific orthodontic findings. KW - Kieferorthopädie KW - Mundgesundheitsbezogene Lebensqualität Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-220240 ER - TY - THES A1 - Grän, Franziska T1 - Rezeptor-vermittelte Chemotherapie von ovarialen Karzinomzellen mit Disorazol-GnRH-Konjugaten T1 - Targeted therapy of ovarian cancer cells with GnRH-Disorazol conjugates N2 - Das Ovarialkarzinom stellt einen häufigen maligen Tumor der Frau dar, der meist spät diagnostiziert wird. Therapeutische Optionen sind nur eingeschränkt verfügbar und nebenwirkungsbehaftet. In der modernen Tumortherapie sind zielgerichtete medikamentöse Ansätze von immer größer Bedeutung und sind bei verschiedenen Entitäten bereits zugelassen. Da Ovarialkarzinome häufig GnRH-Rezeptoren exprimieren, stellt dies einen guten Angriffspunkt für mögliche Therapeutika dar. In dieser Arbeit wurde die Wirkung von Disorazol, einem potenten Zytotoxin, in Kopplung an GnRH auf Ovarialkarzinom-Zellen untersucht. Unter anderem wurden hierbei RT-PCR, Kristallviolettversuche, WST-Versuche und FACS-Analysen durchgeführt. Molekularbiologisch war eine deutliche Expression von GnRH-Rezeptoren auf ovarialen Karzinomzellen zu sehen. Es zeigte sich eine spezifische Toxizität von GnRH-Disorazol-Konjugaten auf Ovarialkarzinom-Zelllinien und andere GnRH-tragende Zellen. Lymphozyten aus dem peripheren Blut waren nicht im besonderen Maße anfällig für Disorazol. Verapamil konnte in einzelnen Zelllinien die Toxizität des Konjugats verstärken, eine Cisplatin-Resistenz hatte jedoch keinen Einfluss darauf. Apoptose-inhibierende Substanzen wie zVAD verminderten den Anteil an toten Zellen, Necrostatin war dazu nicht in der Lage. Die spezifische Wirksamkeit von GnrH gekoppeltem Disorazol auf Ovarialkarzinomzellen bestätigt das ursprüngliche Therapiekonzept. Eine ausgeprägtere Hämatotoxizität konnte nicht nachgewiesen werden, was im Hinblick auf den klinischen Einsatz eine bedeutende Rolle spielt. Da einige weitere Entitäten wie das triple-negative Mamma-Karzinom GnRH-Rezeptor-exprimierende Zellen aufweisen, ist ein Einsatz auch in diesen Krankheitsbildern denkbar. N2 - Ovarian cancer is a frequent gynecological malignant disease with poor prognosis due to late diagnosis. Therapeutic options are limited. In modern oncologic treatment approaches, targeted therapy is a well-known therapeutic principle. Since ovarian cancer cells can express GnRH receptors, this can be used as a medical target. We investigated the toxic effect of conjugates consisting of Disorazol and GnRH on ovarian cancer cell lines. Among others RT-PCR, cristal violett assays, WST-assays and FACS-analysis were performed. RT-PCR revealed expression of the GnRH receptor in ovarian cancer cells. There was specific toxicity of GnRH-Disorazol-conjugates on cell lines representing ovarian cancer. In contrast, peripheral blood lymphocytes were not especially sensitive for Disorazol. Verapamil was able to enhance toxicity in distinct cell lines; Cisplatin resistant cell lines were sensitive for the conjugate too. Substances inhibiting apoptosis like z-VAD could decrease the amount of dead cells, whereas necrostatin had no effect. The specific toxicity of disorazol-GnRH-conjugates on ovarian cancer cells proofed the principle of this targeted therapy approach. Human lymphocytes were not especially sensitive to the toxin, which could play an important role with regard to the clinical use. Since other cancerous tissues like the triple negative breast cancer express GnRH receptors, this therapeutic approach could be reasonable in those entities. KW - Eierstockkrebs KW - Disorazole KW - Ovarialkarzinom KW - Disorazol KW - GnRH Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-219957 ER - TY - THES A1 - Zwettler, Fabian Ulrich T1 - Expansionsmikroskopie kombiniert mit hochauflösender Fluoreszenzmikroskopie T1 - Expansion Microscopy combined with Super-Resolution Fluorescence Microscopy N2 - Fluorescence microscopy is a form of light microscopy that has developed during the 20th century and is nowadays a standard tool in Molecular and Cell biology for studying the structure and function of biological molecules. High-resolution fluorescence microscopy techniques, such as dSTORM (direct Stochastic Optical Reconstruction Microscopy) allow the visualization of cellular structures at the nanometre scale (10−9 m). This has already made it possible to decipher the composition and function of various biopolymers, such as proteins, lipids and nucleic acids, up to the three-dimensional (3D) structure of entire organelles. In practice, however, it has been shown that these imaging methods and their further developments still face great challenges in order to achieve an effective resolution below ∼ 10 nm. This is mainly due to the nature of labelling biomolecules. For the detection of molecular structures, immunostaining is often performed as a standard method. Antibodies to which fluorescent molecules are coupled, recognize and bind specifcally and with high affnity to the molecular section of the target structure, also called epitope or antigen. The fluorescent molecules serve as reporter molecules which are imaged with the use of a fluorescence microscope. However, the size of these labels with a length of about 10-15 nm in the case of immunoglobulin G (IgG) antibodies, cause a detection of the fluorescent molecules shifted to the real position of the studied antigen. In dense regions where epitopes are located close to each other, steric hindrance between antibodies can also occur and leads to an insuffcient label density. Together with the shifted detection of fluorescent molecules, these factors can limit the achievable resolution of a microscopy technique. Expansion microscopy (ExM) is a recently developed technique that achieves a resolution improvement by physical expansion of an investigated object. Therefore, biological samples such as cultured cells, tissue sections, whole organs or isolated organelles are chemically anchored into a swellable polymer. By absorbing water, this so-called superabsorber increases its own volume and pulls the covalently bound biomolecules isotropically apart. Routinely, this method achieves a magnifcation of the sample by about four times its volume. But protocol variants have already been developed that result in higher expansion factors of up to 50-fold. Since the ExM technique includes in the frst instance only the sample treatment for anchoring and magnifcation of the sample, it can be combined with various standard methods of fluorescence microscopy. In theory, the resolution of the used imaging technique improves linearly with the expansion factor of the ExM treated sample. However, an insuffcient label density and the size of the antibodies can here again impair the effective achievable resolution. The combination of ExM with high-resolution fluorescence microscopy methods represents a promising strategy to increase the resolution of light microscopy. In this thesis, I will present several ExM variants I developed which show the combination of ExM with confocal microscopy, SIM (Structured Illumination Microscopy), STED (STimulated Emission Depletion) and dSTORM. I optimized existing ExM protocols and developed different expansion strategies, which allow the combination with the respective imaging technique. Thereby, I gained new structural insights of isolated centrioles from the green algae Chlamydomonas reinhardtii by combining ExM with STED and confocal microscopy. In another project, I combined 3D-SIM imaging with ExM and investigated the molecular structure of the so-called synaptonemal complex. This structure is formed during meiosis in eukaryotic cells and contributes to the exchange of genetic material between homologous chromosomes. Especially in combination with dSTORM, the ExM method showed its high potential to overcome the limitations of modern fluorescence microscopy techniques. In this project, I expanded microtubules in mammalian cells, a polymer of the cytoskeleton as well as isolated centrioles from C. reinhardtii. By labelling after expansion of the samples, I was able to signifcantly reduce the linkage error of the label and achieve an improved label density. In future, these advantages together with the single molecule sensitivity and high resolution obtained by the dSTORM method could pave the way for achieving molecular resolution in fluorescence microscopy N2 - Die Fluoreszenzmikroskopie ist eine Form der Lichtmikroskopie, die sich im Laufe des 20. Jahrhunderts entwickelt hat und heutzutage standardmäßig in der Molekular-und Zellbiologie zur Erforschung von Aufbau und Funktion biologischer Moleküle eingesetzt wird. Hochauflösende Verfahren der Fluoreszenzmikroskopie, wie die dSTORM (direct Stochastic Optical Reconstruction Microscopy) Technik, ermöglichen die Visualisierung zellulärer Strukturen im Nanometer-Größenbereich (10−9 m). Dadurch konnte bereits die Zusammensetzung und Funktion unterschiedlicher Biopolymere, wie die von Proteinen, Lipiden und Nukleinsäuren, bis hin zum dreidimensionalen (3D) Aufbau ganzer Organellen entschlüsselt werden. In der Praxis zeigt sich jedoch, dass diese Bildgebungsverfahren und ihre Weiterentwicklungen immer noch vor großen Herausforderungen stehen, bevor eine effektive Auflösung von unter ∼10 nm erreicht werden kann. Die größte Hürde stellt die Art und Weise der Markierung von Biomolekülen dar. Bei dieser wird zum Nachweis molekularer Strukturen häufig die sogenannte Immunfärbung als Standardmethode eingesetzt. Antikörper, welche mit Fluoreszenzmolekülen gekoppelt werden, erkennen und binden hierbei spezifisch und mit hoher Affinität den Molekülabschnitt der Zielstruktur, auch Epitop oder Antigen genannt. Die Fluoreszenzmoleküle dienen als Reportermoleküle, welche mit Hilfe eines Fluoreszenzmikroskops abgebildet werden. Die Größe der Antikörper, mit einer Länge von etwa 10-15 nm im Falle von Immunglobulin G (IgG) Antikörpern, bewirkt jedoch eine Detektion der fluoreszierenden Moleküle verschoben zur eigentlichen Lage des untersuchten Antigens. In Regionen mit räumlich dicht nebeneinander liegenden Epitopen kann es zusätzlich zur sterischen Hinderung zwischen den Antikörpern kommen. Dies führt zu einer unzureichenden Markierungsdichte und stellt - zusammen mit der verschobenen Detektion der Fluoreszenzmoleküle - eine Limitierung der zu erreichenden Auflösung dar. Die Expansionsmikroskopie (ExM) ist ein neu entwickeltes Verfahren, welches eine Auflösungsverbesserung durch die physikalische Expansion eines untersuchten Objekts erreicht. Hierbei werden biologische Proben, wie beispielsweise kultivierte Zellen, Gewebeschnitte, ganze Organe oder isolierte Organellen, chemisch in ein quellbares Polymer verankert. Durch Absorption von Wasser vergrößert dieser sogenannte Superabsorber sein eigenes Volumen und zieht während der räumlichen Expansion die kovalent gebundenen Biomoleküle isotrop auseinander. Standardmäßig wird durch dieses Verfahren eine Vergrößerung der Proben um etwa das vierfache Volumen erreicht, wobei bereits Protokollvarianten entwickelt wurden, die eine bis zu 50-fache Expansion erzielt haben. Da die ExM-Technik zunächst nur die Probenbehandlung zur Verankerung und Vergrößerung der Probe selbst beinhaltet, kann sie mit unterschiedlichen Standardmethoden der Fluoreszenzmikroskopie kombiniert werden. Dadurch verbessert sich die Auflösung des verwendeten Bildgebungsverfahrens theoretisch linear um den Faktor der Volumenvergrößerung der ExM behandelten Probe. Eine unzureichende Markierungsdichte und die Größe der verwendeten Antikörper können auch hier die effektiv erreichbare Auflösung beeinträchtigen. Die Kombination der ExM mit hochauflösenden Verfahren der Fluoreszenzmikroskopie stellt eine vielversprechende Strategie zur Erhöhung der bisher erreichbaren Auflösung in der Lichtmikroskopie dar. In dieser Arbeit werde ich mehrere von mir entwickelte ExM Varianten vorstellen, welche die Kombination von ExM mit konfokaler Mikroskopie, SIM (Structured Illumination Microscopy), STED (STimulated Emission Depletion) und dSTORM zeigen. Um die Verbindung mit dem jeweiligen Bildgebungsverfahren zu ermöglichen, optimierte ich bestehende ExM-Protokolle und entwickelte unterschiedliche Expansionsstrategien. Dadurch konnte ich neue strukturelle Erkenntnisse von isolierten Zentriolen aus der Grünalge Chlamydomonas reinhardtii durch die Verbindung von ExM mit STED und konfokaler Mikroskopie gewinnen. In einem weiteren Projekt kombinierte ich 3D-SIM mit ExM und untersuchte den molekularen Aufbau des sogenannten synaptonemalen Komplexes. Diese Struktur bildet sich in eukaryotischen Zellen während der Reifeteilung (Meiose) aus und trägt zum Austausch des genetischen Materials zwischen homologen Chromosomen bei. Vor allem in Verbindung mit dSTORM zeigte sich das hohe Potential der ExM-Methode, die bisherigen Limitierungen moderner Techniken der Fluoreszenzmikroskopie zu überwinden. In diesem Projekt expandierte ich Mikrotubuli in Säugetierzellen, ein Polymer des Zytoskeletts, sowie isolierte Zentriolen aus C. reinhardtii. Dadurch, dass die Markierung erst nach dem Expandieren der Proben erfolgte, gelang es, den Abstandsfehler der Markierung deutlich zu verringern und eine verbesserte Markierungsdichte zu erreichen. Diese Vorteile könnten in Verbindung mit der Einzelmolekülsensititvität und hohen Auflösung der dSTORM Methode Wegbereiter zur Erreichung einer molekularen Auflösung sein KW - Fluoreszenzmikroskopie KW - Expansionsmikroskopie KW - Einzelmolekül-Lokalisationsmikroskopie KW - Zentriolen KW - Synaptonemaler Komplex Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-212362 ER - TY - THES A1 - Cronauer, Julian T1 - Die primäre Tele- und Brachytherapie des lokal fortgeschrittenen Zervixkarzinoms - Auswertung der Würzburger Daten T1 - The primary teletherapy and brachytherapy of locally advanced cervical cancer – an evaluation of the Würzburg data N2 - Strahlentherapie des Zervixkarzinoms untergliedert sich in die Teletherapie von extrakorporal und die Brachytherapie von intrauterin und intravaginal. Während in Bezug auf die Teletherapie international standardisierte Therapieschemata bestehen, fehlen diese bei der Brachytherapie. In Würzburg wurde ein Therapieregime von 3x8,5 Gy gewählt, während in anderen Therapierzentren mit z.B. 4x7 Gy oder 5x6 Gy bestrahlt wurde. Somit wurden in Würzburg deutlich höheren Einzeldosen appliziert. Ziel der Arbeit war es, das in Würzburg angewandte Fraktionierungsschema auf Verträglichkeit und Effektivität zu überprüfen. In die Studie eingeschlossen wurden 74 Patientinnen, die zwischen Februar 1999 und September 2014 bei gesichertem Zervixkarzinom einer primären Radiochemotherapie unterzogen wurden. In einem medianen Follow-Up von 48 Monaten wurden Nebenwirkungen an Blase und Rektum sowie lokale und regionäre Rezidive und Fernmetastasen erhoben. Bei neun Patientinnen (12,2%) wurde am Rektum eine Spätnebenwirkung vom Grad III oder IV nach CTCAE festgestellt, an der Blase wurde dies bei drei Patientinnen (4,8%) gefunden. Bei zwei (2,7%) Patientinnen fand sich ein lokaler, bei drei Patientinnen (4%) ein regionärer Progress. 19 Patientinnen (25,66%) entwickelten Fernmetastasen. Es zeigte sich zusammenfassend, dass es im Rahmen des angewandten Therapieschemas zu einer im internationalen Vergleich sehr guten lokalen Kontrolle kam bei vor allem am Rektum leicht erhöhten höhergradigen Nebenwirkungsraten. Mittels moderner bildgestützter IMRT- und Brachytherapie-Planung werden sich diese Toxizitäten in Zukunft weiter reduzieren lassen. N2 - Radiation therapy for cervical cancer is divided into external body radiation therapy (EBRT) and brachytherapy from intrauterine and intravaginal. While internationally standardized therapy schemes exist with regard to EBRT, these are absent with brachytherapy. In Würzburg, a therapy regimen of 3x8.5 Gy was chosen, while in other therapy centers the majority of patients were treated with z: b. 4x7 Gy or 5x6 Gy. This means that significantly higher single doses were applied in Würzburg. The aim of this study was to check the fractionation scheme used in Würzburg for compatibility and effectiveness. The study included 74 patients who had undergone primary chemoradiotherapy between February 1999 and September 2014 for confirmed cervical cancer. In a median follow-up of 48 months, side effects on the bladder and rectum as well as local and regional recurrences and distant metastases were recorded. In nine patients (12.2%) a late side effect of grade III or IV according to CTCAE was found on the rectum; this was found in the bladder in three patients (4.8%). Local progression was found in two (2.7%) patients and regional progression in three patients (4%). 19 patients (25.66%) developed distant metastases. In summary, it was shown that the applied therapy regimen resulted in a very good local control by international comparison with slightly increased higher-grade side effect rates, especially in the rectum. These toxicities can be further reduced in the future by means of modern image-guided IMRT and brachytherapy planning. KW - Gebärmutterhalskrebs KW - Brachytherapie KW - Effektivität KW - Nebenwirkungen Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-216937 ER - TY - THES A1 - von der Assen [geb. Weiß], Katrin Barbara T1 - Markierung von humanen mesenchymalen Stammzellen mit für die Magnet-Partikel-Spektroskopie geeigneten Eisenoxidnanopartikeln, Untersuchung des Zellverhaltens in dreidimensionaler Umgebung und nicht-invasive Analyse mittels Raman-Spektroskopie T1 - Labeling of human mesenchymal stem cells using iron oxide nanoparticles which are traceable by magnetic particle spectroscopy, examination of cell behaviour in a 3D environment and non-invasive analysis using raman spectroscopy N2 - Stem cell research has already been challenged for years by the question how to design tissues or even whole organs in vitro. Human mesenchymal stem cells (hMSC) seem to be very promising for this task as they can be extracted in many cases directly from the recipient. Thus potential graft rejections are avoided. For further research on the behaviour of stem cells in vivo it is essential to be able to track them non-invasively. This is for example possible by Magnetic Particle Imaging (MPI). For this purpose stem cells have to be labelled with a suitable substance, for example with superparamagnetic iron oxide nanoparticles (SPION). Presently there are no SPION approved by FDA or EMA that are able to enter hMSC without transfection agent (TA). Therefore the aim of this dissertation was to identify at least one SPION that possesses an optimal interaction with hMSC and can be tracked by MPI as well as by Raman-Spectroscopy. Furthermore the identified SPION should be detectable for a longer period of time and should not have any influence on hMSC. This dissertation was performed within the framework of the EU-wide `IDEA-project´. hMSC have been labelled with the iron oxide nanoparticles M4E, M4F, M4F2 and M3A-PDL in varying concentrations. For M3A-PDL and M4E examinations were done with concentrations of 0.5 mg/ml in standard cell culture as well as in a three-dimensional environment on a matrix of small intestinal submucosae (SIS-ser). Furthermore chondrogenic differentiation of M4E labelled hMSC was examined. Additionally Magnetic Particle Spectroscopy (MPS) and Raman-Spectroscopy were used as non-invasive detection systems. Histologically SPION uptake was proven by Prussian blue staining. Cell viability and proliferation were examined by Trypan blue staining and Ki67 antibody staining. In order to prove that also labelled cells proliferate, a special staining protocol combining Prussian blue and immunohistochemical stainings was established. The success of chondrogenic differentiation was histologically verified by Alcian blue staining, Aggrecan and Collagen II antibody staining. It could be demonstrated, that M4E has a very good cell-particle interaction when used for labelling hMSC. In contrast to M3A, which is only taken up into hMSC when covered by a TA, M4E can be used without TA. Both particles do not influence cell viability or proliferation. M4F and M4F2 are not suitable to lable hMSC. SPION could be detected at least for four weeks after labelling in a three-dimensional environment which is significantly longer than the maximum detection time of two weeks in cell culture. Chondrogenic differentiation is influenced by cell labelling with 0.5 mg/ml M4E. M3A-PDL can be detected by MPS. Raman-Spectroscopy is suitable to differentiate between M3A-PDL labelled and unlabelled hMSC. This dissertation has been able to identify an iron oxide nanoparticle with an excellent cell-particle interaction that allows intense cell labelling without TA and can be detected by MPS. In further studies at the institute it could already be shown that Raman-Spectroscopy can differentiate also between M4E labelled and unlabelled cells. However, chondrogenic differentiation of hMSC was inhibited in this dissertation. In literature several authors came to the conclusion that there is a dose-dependent inhibition of differentiation. Therefore further experiments are necessary to find out whether inhibition of differentiation might be less immanent when using smaller SPION concentrations. Additionally it should be evaluated if smaller SPION concentrations remain detectable by MPS for several weeks. Finally further studies should be done in testing systems that are more similar to the situation in vivo. Such systems are for example the dynamic environment of a BioVaSc-TERM®. This is important to make better predictions of the behaviour of labelled hMSC in vivo. N2 - Die Stammzellforschung beschäftigt sich bereits seit Jahren mit der Frage, wie Gewebe oder sogar Organe im Labor hergestellt werden können. Als besonders vielversprechend erscheinen hierfür humane Mesenchymale Stammzellen (hMSC), da diese in vielen Fällen direkt vom Empfänger gewonnen werden können und so keine Organ- oder Gewebeabstoßung durch Abwehrreaktionen zu erwarten ist. Für die weitere Erforschung des Verhaltens von Stammzellen in vivo ist es notwendig, diese nicht-invasiv darstellen zu können. Dies ist zum Beispiel mittels Magnetischer Partikel Bildgebung (MPI) möglich. Hierfür müssen die Stammzellen mit einer geeigneten Substanz markiert werden. Eine solche sind beispielsweise superparamagnetische Eisenoxidnanopartikel (SPION). Derzeit gibt es keine von den medizinischen Zulassungsbehörden zugelassenen SPION die ohne TA in hMSC aufgenommen werden. In der hier vorliegenden Arbeit sollte also im Rahmen des EU-weiten „IDEA-Projekts“ ein geeigneter SPION identifiziert werden, der eine optimale Zell-Partikel-Interaktion aufweist und sowohl mittels MPI als auch mit Raman-Spektroskopie nachweisbar ist. Zudem sollte die Nachweisbarkeit des SPION über einen längeren Zeitraum gegeben und kein Einfluss auf die hMSC feststellbar sein. Es wurden hMSC mit den Eisenoxidnanopartikeln M4E, M4F, M4F2 und M3A-PDL in unterschiedlichen Konzentrationen markiert. Für M3A-PDL und M4E erfolgten bei einer Konzentration von 0,5 mg/ml Untersuchungen in Zellkultur sowie auf SIS-ser als Matrix im 3D-Modell. Desweiteren wurde das Differenzierungsverhalten der mit M4E markierten hMSC bei chondrogener Differenzierung untersucht. Außerdem kamen Magnetische Partikel Spektroskopie (MPS) und Raman-Spektroskopie als nicht-invasive Nachweisverfahren zum Einsatz. Der SPION-Nachweis erfolgte histologisch mittels Berliner Blau Färbung. Untersuchungen zu Zellviabilität und Proliferation erfolgten durch Trypanblau sowie Ki67-Antikörper-Färbung. Um Nachzuweisen ob auch markierte Zellen proliferieren wurde eigens ein kombiniertes Färbeprotokoll zur Kombination von Berliner Blau und immunhistochemischer Färbung etabliert. Der Erfolg der chrondrogenen Differenzierung wurde mittels Alcianblau, Aggrecan- und Kollagen-II-Antikörper Färbung überprüft. Es konnte gezeigt werden, dass M4E bei der Markierung von hMSC eine sehr gute Zell-Partikel-Interaktion aufweist und im Gegensatz zu M3A auch ohne TA in die Zellen aufgenommen wird. Durch beide Partikel werden Zellviabilität und Proliferation nicht beeinflusst. M4F sowie M4F2 ist zur Markierung nicht geeignet. Die Markierung ließ sich im 3D-Modell mit vier Wochen deutlich länger nachweisen als in 2D Zellkultur mit maximal zwei Wochen. Die chondrogene Differenzierung wird durch die Markierung mit 0,5 mg/ml M4E beeinflusst. M3A-PDL sind durch MPS nachweisbar. Die Raman-Spektroskopie eignet sich zur Differenzierung zwischen mit M3A-PDL markierten und unmarkierten hMSC. Es ist im Rahmen dieser Arbeit gelungen, einen Eisenoxidnanopartikel mit hervorragender Zell-Partikel-Interaktion zu identifizieren, der ohne zusätzliches TA eine intensive Markierung der hMSC ermöglicht und mit MPS nachweisbar ist. Für M4E konnte in weiteren Arbeiten am Institut bereits gezeigt werden, dass auch eine Differenzierung zwischen markierten und unmarkierten Zellen mittels Raman-Spektroskopie möglich ist. Die chondrogene Differenzierung der hMSC wurde in der vorliegenden Arbeit allerdings beeinträchtigt. In der Literatur finden sich Hinweise auf eine dosisabhängige Inhibition der Differenzierung. Es sind daher weitere Versuche notwendig, um herauszufinden, ob die Inhibition der Differenzierung möglicherweise bei geringerer SPION-Konzentration weniger ausgeprägt ist. Zudem sollte untersucht werden, ob auch geringere Konzentrationen in den Zellen über mehrere Wochen mittels MPS nachweisbar bleiben. Desweiteren sollten Untersuchungen in, der in vivo Situation ähnlicheren, Systemen, wie dem dynamischen Umfeld einer BioVaSc-TERM® durchgeführt werden um bessere Vorhersagen zum Verhalten markierter hMSC in vivo treffen zu können. KW - Stammzellforschung KW - Eisenoxid-Nanopartikel KW - Magnet-Partikel-Spektroskopie KW - Raman-Spektroskopie KW - 3D-Kultur KW - humane mesenchymale Stammzellen Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-219095 ER - TY - THES A1 - Ring, Markus T1 - Detektion sicherheitskritischer Ereignisse in Unternehmensnetzwerken mittels Data Mining T1 - Detection of security-critical events in company networks using data mining N2 - E-Mails, Online Banking und Videokonferenzen sind aus unserem heutigen Alltag nicht mehr wegzudenken. Bei all diesen Aktivitäten werden zahlreiche personenbezogene Informationen und vertrauenswürdige Daten digital übertragen und gespeichert. Zur Sicherstellung der digitalen Daten vor unbefugten Zugriffen und Manipulationen existieren verschiedenste Konzepte, Methoden und Verfahren, die sich unter dem Begriff IT-Sicherheit zusammenfassen lassen. Klassische Sicherheitslösungen aus dem Bereich IT-Sicherheit sind Firewalls und Virenscanner. Derartige Ansätze sind meist regelbasiert und prüfen Dateien beziehungsweise eingehenden Netzwerkverkehr anhand einer Liste bekannter Angriffssignaturen. Folglich können diese Systeme nur bereits bekannte Angriffsszenarien detektieren und bieten keinen Schutz vor neuartigen Angriffen. Somit entsteht im Bereich IT-Sicherheit ein Wettlauf zwischen Hackern und IT-Sicherheitsexperten, bei dem die Hacker stets nach neuen Mitteln und Wegen suchen, die existierenden Sicherheitslösungen zu überwinden, während IT-Sicherheitsexperten stetig ihre Schutzmechanismen verbessern. Die vorliegende Arbeit widmet sich der Detektion von Angriffsszenarien in Unternehmensnetzwerken mithilfe von Data Mining-Methoden. Diese Methoden sind in der Lage anhand von repräsentativen Daten die darin enthaltenen Strukturen zu erlernen und zu generalisieren. Folglich können sich Data Mining-Methoden grundsätzlich zur Detektion neuer Angriffsszenarien eignen, wenn diese Angriffsszenarien Überschneidungen mit bekannten Angriffsszenarien aufweisen oder sich wesentlich vom bekannten Normalverhalten unterscheiden. In dieser Arbeit werden netzwerkbasierte Daten im NetFlow Format analysiert, da diese einen aggregierten Überblick über das Geschehen im Netzwerk bieten. Häufig können Netzwerkdaten aufgrund datenschutzrechtlicher Bedenken nicht veröffentlicht werden, was für die Erzeugung synthetischer, aber realistischer Netzwerkdaten spricht. Des Weiteren führt die Beschaffenheit der Netzwerkdaten dazu, dass eine Kombination von kontinuierlichen und kategorischen Attributen analysiert werden muss, was vor allem das Vergleichen der Daten bezüglich ihrer Ähnlichkeit erschwert. Diese Arbeit liefert methodische Beiträge zu jeder der drei genannten Herausforderungen. Im Bereich der Abstandsberechnung kategorischer Werte werden mit ConDist und IP2Vec zwei unterschiedliche Ansätze entwickelt. ConDist ist ein universell einsetzbares Abstandsmaß zur Berechnung von Abständen zwischen Datenpunkten, die aus kontinuierlichen und kategorischen Attributen bestehen. IP2Vec ist auf Netzwerkdaten spezialisiert und transformiert kategorische Werte in kontinuierliche Vektoren. Im Bereich der Generierung realistischer Netzwerkdaten werden neben einer ausführlichen Literaturrecherche zwei unterschiedliche Ansätze vorgestellt. Zunächst wird ein auf Simulation basierter Ansatz zur Generierung flowbasierter Datensätze entwickelt. Dieser Ansatz basiert auf einer Testumgebung und simuliert typische Benutzeraktivitäten durch automatisierte Python Skripte. Parallel hierzu wird ein zweiter Ansatz zur synthetischen Generierung flowbasierter Netzwerkdaten durch Modellierung mithilfe von Generative Adversarial Networks entwickelt. Dieser Ansatz erlernt die zugrundeliegenden Eigenschaften der Netzwerkdaten und ist anschließend in der Lage, neue Netzwerkdaten mit gleichen Eigenschaften zu generieren.Während sich der erste Ansatz zur Erstellung neuer Datensätze eignet, kann der zweite Ansatz zur Anreicherung existierender Datensätze genutzt werden. Schließlich liefert diese Arbeit noch zwei Beiträge zur Detektion von Angriffsszenarien. Im ersten Beitrag wird ein Konzept zur Detektion von Angriffsszenarien entwickelt, welches sich an die typischen Phasen eines Angriffsszenarios orientiert. Im zweiten Beitrag werden eine überwachte und eine unüberwachte Methode zur Detektion von langsamen Port Scans vorgestellt. N2 - E-mails, online banking and video conferences have become an integral part of our daily lives. All these processes transmit confidential data and personal information over insecure lines. There are many concepts, methods and procedures to protect digital data against unauthorised access and manipulation which can be summarised under the term IT security. Typical security mechanisms are firewalls and virus scanners. Such approaches are usually rule-based and check files or incoming network traffic against a list of known attack signatures. Consequently, these approaches can only detect known signatures and do not offer protection against zero-day exploits. Generally, there is a race between IT security experts and hackers in which hackers try to find new ways and methods to trick existing security solutions while IT security experts try to improve their security mechanisms. This work aims at the detection of attack scenarios in company networks using data mining methods. Data mining methods are able to learn and generalise from representative training data. Consequently, these methods can be used to detect new attack scenarios if the new attack scenarios overlap with known attack scenarios or differ significantly from normal behaviour. This work focuses on the analysis of network-based data in NetFlow format, since this provides an aggregate view of what is going on in the network. Mostly, network-based data can not be shared due to privacy concerns which calls for the generation of synthetic, but realistic network data. Further, network-based data consists of continuous and categorical attributes which complicates their analysis, in particular comparing these data with respect to their (dis)similarity. This work provides methodological contributions to each of the three mentioned challenges above. The developed methods ConDist and IP2Vec are two different approaches for distance calculation between categorical values. ConDist is a generally usable distance measure for calculating distances between objects with continuous and categorical attributes. IP2Vec is specialised on network-based data and transforms categorical values into semantic-preserving continuous vectors. Further, this work provides an exhaustive overview about network-based data sets and pro-poses two new approaches for generating realistic network-based data. The first approach rebuilds company networks in a test environment and simulates typical user activities by automated Python scripts. The second approach is based on Generative Adversarial Networks and generates synthetic data. Generative Adversarial Networks learn the characteristics of network-based data and generate new data with the same underlying characteristics. While the first approach is able to create new data sets, the second approach can be used to enrich existing data sets with additional data. Finally, this work provides two contributions to the detection of attack scenarios. The first contribution provides a general concept for attack detection, which is oriented towards the typical phases of attack scenarios. The second contribution proposes an unsupervised and a supervised method for detecting slow port scans with high accuracy. KW - Data Mining KW - Corporate Network KW - Angriff KW - IT-Sicherheit KW - Netzwerkdaten KW - Intrusion Detection KW - Datensicherung KW - Neuronale Netze KW - Eindringerkennung Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-219561 ER - TY - THES A1 - Hafer [geb. Zailer], Elina T1 - Tagging - Development of new qNMR methods T1 - Tagging - Die Entwicklung neuer Quantifizierungmethoden in der NMR Spektroskopie N2 - High-resolution nuclear magnetic resonance (NMR) spectroscopy is used in structure elucidation and qualitative as well as quantitative examination of product components. Despite the worldwide development of numerous innovative NMR spectroscopic methods, several official methods that analyze specific substances and do not represent a holistic analysis, are still in use for the quality control of drugs, food and chemicals. Thus, counterfeit or contaminated products of inferior quality can be brought onto the market and distributed despite previous quality controls. To prevent this, three NMR spectroscopic methods have been developed within the scope of this work (1) to study the peroxide value in vegetable and animal oils, (2) for the qualitative and quantitative analysis of metal cations and (3) to determine the enantiomeric excess in chiral alcohols. In oil analysis, titration methods are used to determine the bulk quality parameters such as peroxide value, which represents the concentration of peroxides. Titrations show several drawbacks, such as the need of a large amount of sample and solvents, cross reactions and the low robustness. Thus, an alternative NMR spectroscopic method was developed to improve the peroxide analysis by using triphenylphosphine as a derivatization reagent, which reacts with peroxides in a stoichiometric ratio of 1:1 forming triphenylphosphine oxide. In the 1H-31P decoupled NMR spectrum, the signals of the unreacted triphenylphosphine and the reacted triphenylphosphine oxide are detected at 7.4 ppm and 7.8 ppm, respectively. The ratio of the two signals is used for the calculation of the peroxide concentration. 108 oil samples with a peroxide value between 1 meq/kg and 150 meq/kg were examined using the developed method. Oils with a very low peroxide value of less than 3 meq/kg showed a relative standard deviation of 4.9%, highly oxidized oils with a peroxide value of 150 meq/kg of 0.2%. The NMR method was demonstrated as a powerful technique for the analysis of vegetable and krill oils. Another 1H NMR spectroscopic method was developed for the qualitative determination of Be2+, Sr2+ and Cd2+, and for the qualitative and quantitative determination of Ca2+, Mg2+, Hg2+, Sn2+, Pb2+ and Zn2+ by using ethylenediamine tetraacetate (EDTA) as complexing agent. EDTA is a hexadentate ligand that forms stable chelate complexes with divalent cations. The known amount of added EDTA and the signal ratio of free and complexed EDTA are used to calculate the concentrations of the divalent cations, which makes the use of an internal standard obsolete. The use of EDTA with Be2+, Sr2+, Cd2+, Ca2+, Mg2+, Hg2+, Sn2+, Pb2+ and Zn2+ result in complexes whose signals are pH-independent, showing cation-specific chemical shifts and couplings in the 1H NMR spectrum that are used for identification and quantification. In the presented NMR method, the limit of quantification of the cations Ca2+, Mg2+, Hg2+, Sn2+, Pb2+, and Zn2+ was determined with 5-22 μg/mL. This method is applicable in the food and drug sectors. The third NMR spectroscopic method introduced an alternative determination of the enantiomer excess (ee) of the chiral alcohols menthol, borneol, 1-phenylethanol and linalool using phosgene as a derivatizing reagent. Phosgene reacts with a chiral alcohol to form carboxylic acid diesters, made of two identical (RR, SS) or two different enantiomers (RS, SR). These two different types of diastereomers can be examined by the difference of their chemical shifts. In the presented method, the integration values of the carbonyl signals in the 13C NMR spectrum are used for the determination of the enantiomer excess. The limit of quantification depends, among others, on the sample and on the non-labelled or 13C-labelled phosgene used for the analysis. In the case of menthol, a quantification limit of ee=99.1% was determined using non-labelled phosgene and ee=99.9% using 13C-labelled phosgene. The 13C NMR method was also applied for the quality control of the enantiomeric purity of borneol, 1-phenylethanol and linalool. The developed 13C NMR method represents a powerful alternative to Mosher’s reagent for investigating the enantiomeric excess in chiral alcohols. This work demonstrates the variety of possibilities of applications for the quantitative nuclear magnetic resonance spectroscopy in the chemical analysis of drugs, food and chemicals using tagging reactions such as derivatizations and complexations. The nuclear resonance spectroscopic methods developed in this research work represent powerful alternatives to the previously used quality control techniques. N2 - Die hochauflösende Kernresonanzspektroskopie findet heute primär Anwendung in derStrukturaufklärung und der qualitativen sowie quantitativen Untersuchung von Produkt-inhaltsstoffen. Trotz der weltweiten Entwicklung von innovativen kernresonanzspektrosko-pischen Methoden sind noch zahlreiche, offiziell anerkannte Methoden zur Qualitätskon-trolle von Arzneimitteln, Lebensmitteln und Chemikalien in Verwendung, die spezifischeSubstanzen kontrollieren und keine ganzheitliche Untersuchung darstellen. Somit könnenverunreinigte, qualitativ minderwertige oder gefälschte Produkte trotz vorheriger Quali-tätskontrollen auf den Markt gebracht und vertrieben werden. Um dies zu verhindern,wurden im Rahmen dieser Arbeit drei kernresonanzspektroskopische Methoden entwickelt,die zur (1) Bestimmung der primären Oxidation in pflanzlichen und tierischen Ölen anhandder Peroxidzahl, (2) zur qualitativen und quantitativen Analyse von Metallkationen und(3) zur Ermittlung des Enantiomerüberschusses in chiralen Alkoholen dienen.In der Ölanalytik werden Titrationsverfahren zur Bestimmung der Bulkqualitätsparameterwie auch der Peroxidzahl, welche die Konzentration an Peroxiden aufzeigt, eingesetzt. Dadie Titration neben dem Einsatz von größeren Mengen an Probenmaterial und Lösungsmit-teln, auch Kreuzreaktionen und eine geringe Robustheit aufweist, wurde eine kernreso-nanzspektroskopische Methode entwickelt, in der Triphenylphosphin als Derivatisierungs-reagenz eingesetzt wird, welches mit Peroxiden im stöchiometrischen Verhältnis von 1:1zu Triphenylphosphinoxid reagiert. Im1H-31P entkoppelten Kernresonanzspektrum wer-den die Signale des nicht reagierten Triphenylphosphins bei 7,4 ppm und des reagiertenTriphenylphosphinoxid bei 7,8 ppm detektiert. Das Verhältnis beider Signale wird in dieKonzentration der Peroxide umgerechnet. 108 Ölproben mit einer Peroxidzahl zwischen 1meq/kg und 170 meq/kg wurden mit der entwickelten Methode untersucht. Hierbei zeigtenÖle mit einer sehr geringen Peroxidzahl von weniger als 3 meq/kg eine relative Standard-abweichung von 4,9%, hochoxidierte Öle mit einer Peroxidzahl von 150 meq/kg 0,2%. Diekernresonanzspektroskopische Methode findet Anwendung in der Untersuchung von Krill-und pflanzlichen Ölen.Eine weitere1H kernresonanzspektroskopische Methode wurde zur qualitativen Analyse. Zusammenfassungvon Be2+, Sr2+und Cd2+und zur qualitatitativen sowie quantitativen Bestimmung vonCa2+, Mg2+, Hg2+, Sn2+, Pb2+und Zn2+entwickelt. Hierbei wurde Ethylendiamintetra-acetat (EDTA) als Komplexbildner verwendet. EDTA ist ein sechszähniger-Ligand, derstabile Chelatkomplexe mit zweiwertigen Kationen bildet. Die definierte Menge an EDTAund das Verhältnis von freier und komplexierter EDTA nach Zugabe der Probe werdenfür die Rückrechnung der Konzentration der Kationen verwendet. Somit ist der Einsatzeines internen Standards obsolet. EDTA komplexiert Be2+, Sr2+, Cd2+, Ca2+, Mg2+, Hg2+,Sn2+, Pb2+und Zn2+zu stabilen Komplexen, deren Signale im Protonen-Kernresonanz-spektrum pH-unabhängige und kationenspezifische chemische Verschiebungen und Kop-plungen aufweisen, die zur Identifizierung und Quantifizierung verwendet werden. DieKoaleszenz der∆undΛKonfigurationen des EDTA-Komplexes mit Be2+, Sr2+und Cd2+führt bei 298K zu einer Signalverbreiterung, die eine Quantifizierung bei den vorliegendenParametern unmöglich macht. Die Kationen Ca2+, Mg2+, Hg2+, Sn2+, Pb2+und Zn2+sindab einer Konzentration von 5-22μg/mL quantitativ in wässriger Lösung quantifizierbar.Diese Methode kann im Lebensmittel- und Arzneimittelbereich eingesetzt werden.Die dritte kernresonanzspektroskopische Methode stellt eine neue Bestimmung des Enan-tiomerüberschusses (ee) in den chiralen Alkoholen Menthol, Borneol, 1-Phenylethanol undLinalool unter Einsatz von Phosgen als Derivatisierungsreagenz vor. Phosgen reagiert miteinem chiralen Alkohol zu Carbonsäurediestern, die aus zwei gleichen (RR, SS) oder zweiunterschiedlichen Enantiomeren (RS, SR) entstehen. Diese zwei Diastereomertypen kön-nen anhand der unterschiedlichen, chemischen Verschiebungen ihrer Signale identifiziertwerden. In der vorgestellten Methode wird das Carbonylsignal integriert und zur Bes-timmung des Enantiomerenüberschusses eingesetzt. Die Bestimmungsgrenze ist hierbeiu. a. von dem eingesetzten Phosgen und der Probe abhängig. Bei Menthol wurdeeine Bestimmungsgrenze mittels nicht markiertem Phosgen von ee = 99,1% und mit-tels13C-markiertem Phosgen von ee = 99,9% ermittelt. Die13C Methode wurde zudemzur Qualitätskontrolle der Enantiomerreinheit von Borneol, 1-Phenylethanol sowie vonLinalool eingesetzt. Hierbei enthielten die käuflich erworbenen Chemikalien (-)-Borneolund (S)-1-Phenylethanol jeweils 1,7% des anderen Enantiomers (+)-Borneol bzw. (R)-1-Phenylethanol. Bei (-)-Linalool konnte ein Enantiomerüberschuss von ee = 66,4% undsomit eine größere Verunreinigung durch (+)-Linalool identifiziert werden. Bei Proben,die einen Enantiomerüberschuss von ee < 95,0% aufweisen, sollte eine potentielle, asym-metrische Induktion mittels Kalibrationskurven anhand von künstlichen Enantiomeren-mischungen vorab untersucht werden. Die entwickelte13C kernresonanzspektroskopischeMethode präsentiert eine leistungsstarke Alternative zur Analyse mittels Mosher’s Reagenzfür die Untersuchung des Enantiomerüberschusses in chiralen Alkoholen.Diese Arbeit weist eine Vielfalt an Möglichkeiten der Anwendungen der quantitativen Kern-resonanzspektroskopie in der chemischen Untersuchung von Arzneimitteln, Lebensmittelnund Chemikalien unter Einsatz von Tagging, wie Derivatisierungen und Komplexierun-gen auf. Die hierbei entwickelten kernresonanzspektroskopischen Methoden repräsentierenleistungsstarke Alternativen zu bisher eingesetzten Techniken der Qualitätskontrolle KW - NMR Spektroskopie KW - EDTA KW - Lipid-Peroxide KW - Chiralität KW - Derivsatisierung KW - Peroxidzahl KW - Enantiomerüberschuss KW - qNMR Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-219583 ER - TY - THES A1 - Schmidts, Constantin T1 - Affective regulation of cognitive conflict T1 - Affektive Regulation von kognitivem Konflikt N2 - Kognitive Kontrolle beschreibt Prozesse die nötig sind um zielgerichtetes Handeln im Angesicht von internen oder externen Widerständen zu ermöglichen. Wenn wir aus eigenen Stücken oder inspiriert durch unsere Umwelt Handlungen vorbereiten die unseren aktuellen Zielen entgegen stehen, kommt es zu Konflikten. Solche Konflikte können sich auf nachfolgendes Erleben und Verhalten auswirken. Aversive Konsequenzen von Konflikt könnten in einem Konfliktüberwachungsmodul registriert werden, welches anschließend Aufmerksamkeitsänderungen und Handlungstendenzen zur Reduzierung dieses negativen Affektes in Gang setzt. Wenn das der Fall wäre, könnten die vielfach beobachteten Verhaltensanpassungen an kognitiven Konflikt ein Ausdruck von Emotionsregulation sein. Ein theoretischer Eckpfeiler der gegenwärtigen Forschung zur Emotionsregulation ist das Prozessmodell der Emotionsregulation, das aus den Regulationsstrategien Situationsauswahl, Situationsmodifikation, Aufmerksamkeitslenkung, kognitiven Veränderungen und Reaktionsmodulation besteht. Unter der Annahme, dass Konfliktanpassung und Affektregulation auf gemeinsamen Mechanismen fußen, habe ich aus dem Prozessmodell der Emotionsregulation Vorhersagen zur kognitiven Kontrolle abgeleitet und diese in elf Experimenten getestet (N = 509). Die Versuchsteilnehmer zeigten Situationsauswahl in Bezug auf Konflikte, allerdings nur dann, wenn sie ausdrücklich auf Handlungs- und Ergebniskontingenzen hingewiesen wurden (Experimente 1 bis 3). Ich fand Anzeichen für einen Mechanismus, der der Situationsmodifikation ähnelt, aber keine Hinweise auf eine Beteiligung von Affekt (Experimente 4 bis 10). Eine Änderung der Konfliktbewertung hatte keinen Einfluss auf das Ausmaß der Konfliktadaptation (Experiment 11). Insgesamt gab es Hinweise auf eine explizite Aversivität kognitiver Konflikte, jedoch weniger auf implizite Aversivität, was darauf hindeutet, dass Konflikte vor allem dann Affektregulationsprozesse auslösen, wenn Menschen explizit Affektregulationsziele vor Augen haben. N2 - Cognitive control is what makes goal-directed actions possible. Whenever the environment or our impulses strongly suggests a response that is incompatible with our goals, conflict arises. Such conflicts are believed to cause negative affect. Aversive consequences of conflict may be registered in a conflict monitoring module, which subsequently initiates attentional changes and action tendencies to reduce negative affect. This association suggests that behavioral adaptation might be a reflection of emotion regulation. The theoretical cornerstone of current research on emotion regulation is the process model of emotion regulation, which postulates the regulation strategies situation selection, situation modification, attentional deployment, cognitive change, and response modulation. Under the assumption that conflict adaptation and affect regulation share common mechanisms, I derived several predictions regarding cognitive control from the process model of emotion regulation and tested them in 11 experiments (N = 509). Participants engaged in situation selection towards conflict, but only when they were explicitly pointed to action-outcome contingencies (Experiments 1 to 3). I found support for a mechanism resembling situation modification, but no evidence for a role of affect (Experiments 4 to 10). Changing the evaluation of conflict had no impact on the extent of conflict adaptation (Experiment 11). Overall, there was evidence for an explicit aversiveness of cognitive conflict, but less evidence for implicit aversiveness, suggesting that conflict may trigger affect regulation processes, particularly when people explicitly have affect regulation goals in mind. KW - Affekt KW - Kognition KW - Emotionsregulation KW - Cognitive conflict KW - Affect regulation KW - Cognitive control KW - Experimentelle Psychologie Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-219897 ER - TY - THES A1 - Eisenhuth, Nicole Juliana T1 - Novel and conserved roles of the histone methyltransferase DOT1B in trypanosomatid parasites T1 - Neue und konservierte Rollen der Histonmethyltransferase DOT1B in Parasiten der Ordnung Trypanosomatida N2 - The family of trypanosomatid parasites, including the human pathogens Trypanosoma brucei and Leishmania, has evolved sophisticated strategies to survive in harmful host environments. While Leishmania generate a safe niche inside the host’s macrophages, Trypanosoma brucei lives extracellularly in the mammalian bloodstream, where it is constantly exposed to the attack of the immune system. Trypanosoma brucei ensures its survival by periodically changing its protective surface coat in a process known as antigenic variation. The surface coat is composed of one species of ‘variant surface glycoprotein’ (VSG). Even though the genome possesses a large repertoire of different VSG isoforms, only one is ever expressed at a time from one out of the 15 specialized subtelomeric ‘expression sites’ (ES). Switching the coat can be accomplished either by a recombination-based exchange of the actively-expressed VSG with a silent VSG, or by a transcriptional switch to a previously silent ES. The conserved histone methyltransferase DOT1B methylates histone H3 on lysine 76 and is involved in ES regulation in T. brucei. DOT1B ensures accurate transcriptional silencing of the inactive ES VSGs and influences the kinetics of a transcriptional switch. The molecular machinery that enables DOT1B to execute these regulatory functions at the ES is still elusive, however. To learn more about DOT1B-mediated regulatory processes, I wanted to identify DOT1B-associated proteins. Using two complementary approaches, specifically affinity purification and proximity-dependent biotin identification (BioID), I identified several novel DOT1B-interacting candidates. To validate these data, I carried out reciprocal co-immunoprecipitations with the most promising candidates. An interaction of DOT1B with the Ribonuclease H2 protein complex, which has never been described before in any other organism, was confirmed. Trypanosomal Ribonuclease H2 maintains genome integrity by resolving RNA-DNA hybrids, structures that if not properly processed might initiate antigenic variation. I then investigated DOT1B’s contribution to this novel route to antigenic variation. Remarkably, DOT1B depletion caused an increased RNA-DNA hybrid abundance, accumulation of DNA damage, and increased VSG switching. Deregulation of VSGs from throughout the silent repertoire was observed, indicating that recombination-based switching events occurred. Encouragingly, the pattern of deregulated VSGs was similar to that seen in Ribonuclease H2-depleted cells. Together these data support the hypothesis that both proteins act together in modulating RNA-DNA hybrids to contribute to the tightly-regulated process of antigenic variation. The transmission of trypanosomatid parasites to mammalian hosts is facilitated by insect vectors. Parasites need to adapt to the extremely different environments encountered during transmission. To ensure their survival, they differentiate into various specialized forms adapted to each tissue microenvironment. Besides antigenic variation, DOT1B additionally affects the developmental differentiation from the mammalian-infective to the insect stage of Trypanosoma brucei. However, substantially less is known about the influence of chromatin-associated proteins such as DOT1B on survival and adaptation strategies of related Leishmania parasites. To elucidate whether DOT1B’s functions are conserved in Leishmania, phenotypes after gene deletion were analyzed. As in Trypanosoma brucei, generation of a gene deletion mutant demonstrated that DOT1B is not essential for the cell viability in vitro. DOT1B deletion was accompanied with a loss of histone H3 lysine 73 trimethylation (the lysine homologous to trypanosomal H3K76), indicating that Leishmania DOT1B is also solely responsible for catalyzing this post-translational modification. As in T. brucei, dimethylation could only be observed during mitosis/cytokinesis, while trimethylation was detectable throughout the cell cycle in wild-type cells. In contrast to the trypanosome DOT1B, LmxDOT1B was not essential for differentiation in vitro. However, preliminary data indicate that the enzyme is required for effective macrophage infection. In conclusion, this study demonstrated that the identification of protein networks and the characterization of protein functions of orthologous proteins from related parasites are effective tools to improve our understanding of the parasite survival strategies. Such insights are a necessary step on the road to developing better treatments for the devastating diseases they cause. N2 - Vertreter der Familie der Trypanosomatidae einschließlich der humanpathogenen Trypanosoma brucei und Leishmania Arten entwickelten eine Reihe von ausgeklügelten Strategien, um in ihren Wirten zu überleben. Während sich Leishmanien eine sichere Nische in den Makrophagen ihrer Wirte aufbauen, lebt Trypanosoma brucei ausschließlich extrazellulär im Blutkreislauf der Säugetiere. Dort ist der Parasit ständig dem Angriff des Immunsystems ausgesetzt. Um sein Überleben zu sichern, wechselt er regelmäßig seine variablen Oberflächenproteine (VSG), eine Strategie, die auch als antigene Variation bekannt ist. Obwohl das Genom des Parasiten über ein enormes Repertoire an VSG Genen verfügt, wird immer nur eine einzige Art von einer von 15 spezialisierten telomerproximalen Expressionsstellen (ES) transkribiert. Um die VSG-Zelloberfläche zu wechseln, können Trypanosomen das VSG Gen der aktiven ES gegen ein inaktives VSG aus dem gigantischen Repertoire mittels Rekombination eintauschen. Eine weitere Möglichkeit ist der Transkriptionswechsel zu einer zuvor stillen ES. Die konservierte Histonmethyltransferase DOT1B katalysiert die Methylierung von Histon H3 am Lysin 76 und ist an der ES-Regulation beteiligt. DOT1B gewährleistet den transkriptionell inaktiven Status der ES und beeinflusst die Kinetik eines transkriptionellen ES Wechsels. Die molekularen Komponenten, die DOT1B diese regulatorischen Funktionen an der ES ermöglichen, sind jedoch noch unbekannt. Um mehr über die von DOT1B vermittelten Mechanismen zu erfahren, ist es notwendig, DOT1B-assoziierte Proteine zu identifizieren. Durch die Anwendung von komplementären biochemischen Proteinaufreinigungsmethoden gelang es mir, mehrere potentielle Proteininteraktionen zu DOT1B zu entdecken. Um die Daten zu validieren, führte ich weitere Proteinaufreinigungen mit den vielversprechendsten Kandidaten durch. Eine Interaktion zwischen DOT1B und der Ribonuklease H2 konnte bestätigt werden - eine Interaktion, die noch nie zuvor in anderen Organismen beschrieben wurde. In Trypanosomen gewährleistet Ribonuklease H2 die Genomintegrität, indem das Enzym RNA-DNA-Hybride auflöst. Diese Strukturen können zudem, wenn sie nicht richtig prozessiert werden, antigene Variation initiieren. In dieser Studie wurde daher außerdem DOT1B’s Beitrag zu diesem Weg der Initiation der antigenen Variation analysiert. In der Tat konnte gezeigt werden, dass DOT1B RNA-DNA-Hybride moduliert und die Genomintegrität sowie VSG-Wechselrate beeinflusst. Die Tatsache, dass in DOT1B-Mutanten VSG Isoformen von den unterschiedlichsten Genomregionen exprimiert wurden, deutet darauf hin, dass rekombinations-basierte Ereignisse dem VSG-Wechsel zu Grunde lagen. Da in den DOT1B-Mutanten ähnliche VSG exprimiert wurden wie in Ribonuklease H2-Mutanten, kann vermutet werden, dass beide Proteine bei der Modulation der RNA-DNA-Hybride zusammenwirken, um antigene Variation zu regulieren. Trypanosomen und Leishmanien werden mittels Insektenvektoren auf den nächsten Säugerwirt übertragen. Sie müssen daher nicht nur im Säugerwirt überleben, sondern sich auch an die extrem unterschiedliche Umgebung im Vektor anpassen. Dafür differenzieren sich die Parasiten in speziell angepasste Zellstadien. Zusätzlich zu der antigenen Variation beeinflusst DOT1B die Entwicklungsdifferenzierung in Trypanosoma brucei. In Leishmanien hingegen ist über den Einfluss von chromatin-assoziierten Proteinen wie DOT1B auf die Überlebens- und Anpassungsstrategien wesentlich weniger bekannt. Um herauszufinden, ob die Funktionen von DOT1B in Leishmanien konserviert sind, wurden Phänotypen nach Gendeletion analysiert. Wie auch in Trypanosoma brucei konnte gezeigt werden, dass DOT1B für das Überleben der Parasiten nicht essentiell ist. Die Deletion von DOT1B ging mit einem Verlust der Trimethylierung von Histon H3 am Lysin 73 (dem zum trypanosomalen H3K76 homologen Lysin) einher, was darauf hinweist, dass DOT1B auch in Leishmanien allein für die Katalyse dieser posttranslationalen Modifikation verantwortlich ist. Wie in Trypanosoma brucei konnte eine Dimethylierung nur in der Mitose/Zytokinese beobachtet werden, wobei die Trimethylierung während des gesamten Zellzyklus in Wildtyp-Zellen nachweisbar war. Im Gegensatz zum trypanosomalen DOT1B war LmxDOT1B für die Differenzierung in vitro entbehrlich. Vorläufige Daten zeigen jedoch, dass das Enzym für eine wirksame Makrophageninfektion wesentlich ist. Zusammenfassend zeigte diese Studie, dass die Identifizierung von Proteinnetzwerken und die Charakterisierung von Funktionen orthologer Proteine aus verwandten Parasiten wirksame Werkzeuge sind, um unser Verständnis der Überlebensstrategien der Parasiten zu verbessern. Solche Erkenntnisse sind ein notwendiger Schritt auf dem Weg zu effektiveren Behandlungsmethoden für die verheerenden Krankheiten, die diese Parasiten verursachen. KW - Trypanosoma brucei KW - Leishmania KW - Chromatin KW - Histon-Methyltransferase KW - DNA repair KW - developmental differentiation KW - DOT1 KW - Ribonuclease H2 Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-219936 ER - TY - THES A1 - Gorth, Peter T1 - Vergleich hospitalisierter Patienten im Kindesalter mit Rotaviren-assoziierter Gastroenteritis am Universitätsklinikum Innsbruck vor und nach Einführung der universellen Rotaviren-Impfung in Österreich T1 - Comparison of hospitalized childhood patients with Rotavirus-associated gastroenteritis at the university hospital Innsbruck before and after the introduction of the universal rotavirus vaccination in Austria N2 - Die Dissertation untersucht hospitalisierte Patienten in der Kinderklinik des Universitätsklinikum Innsbruck, die wegen einer rotaviren assoziierten Gastroenteritis hospitalisiert wurden. Der Untersuchungszeitraum war von Januar 2002 bis Dezmber 2012.Untersucht wurde die Hospitalisierungsrate, Hospitalisierungsdauer, Hospitalisierungsalter, die Schwere der Erkrankung sowie eine Änderung von nosokomialen und ambulanten Erwerb vor und nach Impfeinführung im Juli 2007. N2 - The dissertation examines hospitalized patients in the children's clinic of the University Medical Center Innsbruck who were hospitalized for rotavirus-associated gastroenteritis. The study period was from January 2002 to December 2012 and examined the hospitalization rate, length of hospitalization, age of hospitalization, the severity of the disease and a change in nosocomial and outpatient acquisition before and after the vaccination was introduced in July 2007. KW - Rotavirus KW - Impfung Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-219400 ER - TY - THES A1 - Roth, Bernhard T1 - Entwicklung von Plasmiden mit multiplen short hairpin RNA-Expressionskassetten für den simultanen Knockdown onkogener Zielstrukturen im Multiplen Myelom T1 - Development of plasmids with multiple shRNA-expressioncassettes for simultaneous knockdown of oncogene targets in multiple myeloma N2 - Zielvorgabe dieser Dissertation stellte die Konstruktion eines Plasmides mit mehreren shRNA-Expressionskassetten für den simultanen Knockdown onkogener Zielstrukturen im Multiplen Myelom dar. Es sollte sich zudem um ein Konstrukt handeln, bei dem ein beliebig häufiges Einfügen oder Ersetzen von Expressionskassetten durch einfache Klonierungsschritte möglich ist. Im Rahmen dieser Arbeit wurden Plasmide mit bis zu vier unterschiedlichen shRNA-Expressionskassetten konstruiert und getestet. Mittels Elektroporation und anschließender Analyse der Knock-down-Effizienz im Western Blot konnte beispielhaft an Proteinen des MEK-ERK-Signalweges gezeigt werden, dass mithilfe der klonierten Plasmide die Spiegel von mindestens vier Zielproteinen gleichzeitig herunterreguliert werden können, ohne dass es dabei zu Einschränkungen im Vergleich zur Verwendung von Einzel-shRNA-Expressionsvektoren kommt. Es konnte gezeigt werden, dass weder die zunehmende Menge an hintereinander klonierten Kassetten noch die Reihenfolge der einzelnen Expressionskassetten im Plasmid einen negativen Einfluss auf das Knock-down-Ergebnis haben. Dieses Ergebnis konnte in verschiedenen Zelllinien des Multiplen Myeloms bestätigt werden. Die Vorteile des Verfahrens liegen vor allem in der Kosteneffizienz, der einfachen Herstellung und Modifikation, sowie der niedrigen biologischen Sicherheitsstufe der Versuchsschritte. Bedeutend ist zudem die Vermeidung von toxischen Effekten, welche das Einbringen von Fremd-DNA in Zellen ab gewissen Mengen mit sich bringt, durch Klonierung aller shRNA-Expressionskassetten zu lediglich einem Plasmidkonstrukt. Einschränkungen erfährt die etablierte Methodik dadurch, dass die zu untersuchenden Zellen sich für die Transfizierung mit Plasmiden eigenen müssen und ein Verfahren der Selektion transfizierter von nativen Zellen verfügbar sein muss. Durch genannte Vorteile stellt das Konstrukt jedoch ein hervorragendes Mittel zur Erforschung zellulärer Signalwege und ihrer Interaktionen weit über die Erkrankung des Multiplen Myeloms hinaus dar. Es kann zudem als kostengünstige molekulare Methode zur Identifizierung neuer pharmakologischer Angriffspunkte bei Tumorerkrankungen dienen. Die Ergebnisse dieser Arbeit wurden in Folgeversuchen genutzt um eine stabile Integration der shRNA-Expressionskassetten in die zelluläre DNA sowie eine pharmakologische Induzierbarkeit zu erreichen. Es konnte somit der Sprung von den transienten Knock-down-Versuchen dieser Arbeit hin zur langfristig verminderten Proteintranslation geschafft werden. Am Ende dieser Arbeit verblieb zu eruieren, inwieweit die Anzahl der shRNA-Expressionskassetten über die getestete Anzahl von vier erweiterbar wäre und ob die guten Erfahrungen mit dieser Methodik auch bei anderen Arten von Tumorzellen replizierbar sind. Das etablierte Vektorsystem könnte in künftigen Versuchen zur schnellen Erforschung bisher wenig untersuchter oder unbekannter Signalwege dienen. N2 - Goal setting of this dissertation was the construction of a plasmid with multiple shRNA-expressioncassettes for a simultaneous knockdown of oncogene targets in multiple myeloma. It was furthermore supposed to be a construct which allowed adding or replacing of cassettes by simple cloning mechanisms. In this work plasmids have been constructed and established with up to four shRNA-expressioncassettes. By electroporation and westernblot-analysis it could be shown on the MEK-ERK-pathway that it is possible to downregulate four proteins at once with one plasmid and that this is as efficient as the use of single plasmids. It could be shown that neither the number of expressioncassettes nor the order had a negative impact on the knockdown results. This result could be proved in different myeloma cell lines. The advantages of this construct are based on the cost efficiency, the simple construction and modification and the low biosafety level. The most significant advantage lies within the reduction of toxic effects for the cells that come within growing amounts of foreign DNA. These are reduced by fusion of multiple shRNA-expressioncassettes in one plasmid. The construct also underlies restrictions because in order to work with it there has to be a method to transfect the cells with the plasmid and a method to sort transfected cells afterwards. Nevertheless, the construct represents an excellent mean to investigate cellular signalling and interactions in multiple myeloma and beyond. Moreover, it can be used as a cost-efficient method to identify new pharmacological targets in malignancies. The results of this work have been used to establish stable transfection and inducible knockdowns. In the end it stayed yet to be investigated if the construct could be expanded over the here tested number of four shRNA-expressioncassettes and if it could be used in other malignancies than multiple myeloma. The established vector-system could be used in future to quickly investigate unknown signalling pathways. KW - RNS-Interferenz KW - Plasmide KW - Multiples Myelom Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-219464 ER - TY - THES A1 - Carl, Salome T1 - Anatomische Besonderheiten der Mundhöhle und der Kopf-Halsregion bei Morbus Fabry Patienten T1 - Anatomical anomalies of the oral cavity and head-neck region in patients with Fabry disease N2 - Morbus Fabry betrifft als lysosomale Speicherkrankheit viele Organsysteme durch die Ablagerung von Gb3 in verschiedenen Geweben. Besonders durch die Beteiligung von Nieren und Herz, wird die Lebenszeit von den Patienten häufig verkürzt. Eine Beschreibung konkreter klinischer Symptome, welche auch durch Allgemeinmediziner oder Zahnärzte erkannt werden könnten, könnte eine frühzeitigere Diagnose und damit frühzeitige Therapie ermöglichen. Besonders extraorale gesichtsspezifische Merkmale können von verschiedensten Gruppen von Ärzten erkannt werden. Die extraorale Auswertung zeigte, wie in der Literatur beschrieben, das Vorkommen von periorbitaler Fülle, prominente Arcus superciliaris, eine kürzere und bullösere Nase. Die Auffälligkeiten waren besonders bei den Männern zu beobachten. Die intraorale Auswertung wurde in dentale Auffälligkeiten und Ereignisse des Hart- und Weichgewebes eingeteilt. Bei den dentalen Ereignissen zeigte sich eine Diskrepanz zwischen der Kiefergröße und dem Zahnmaterial. So neigte das Patientenkollektiv eher zu einem Breitkiefer, was eine Erklärung für die multiplen Lücken im Frontzahnbereich der Patienten darstellt. An der Mundschleimhaut und perioral konnten vermehrt Angiokeratome und Teleangiektasien festgestellt werden, sowie das vermehrte Vorkommen von Exostosen. Speziell die Zunge der Patienten zeigte auch Auffälligkeiten in Form von einer subjektiven Makroglossie, einer Furchenzunge und Veränderungen der Papillen. Die Auffälligkeiten in der Mundhöhle und im Kopf-Hals Bereich der Morbus Fabry Patienten sind, wie der Literatur beschrieben, vorhanden, jedoch stellen sie keine Schlüsselrolle in der Diagnose dar, da sie in allen Bereichen nur leichte Abweichungen oder Auffälligkeiten zeigen, welche nicht immer Auftreten und daher schwer zu diagnostizieren sind. N2 - Fabry disease is a lysosomal storage disease which affects various organ systems through the deposition of Gb3 in different tissues. Especially due to the involvement of heart and kidneys, the patients’ life expectation is often reduced. A description of clinical symptoms which could be identified by general practitioners or dentists, could lead to an earlier diagnosis and therapy for patients. Particularly extraoral facial abnormalities could be recognized by different groups of physicians. The extraoral evaluation, as outlined in literature, showed the appearance of periorbital fullness, prominent supra-orbital ridges, a shorter and more bulbous nose. These abnormalities were most prominent among men. The intraoral analysis was divided into dental abnormalities as well as features of the oral cavity’s hard and soft tissue. It displayed a discrepancy between the jaw- and teeth size which explains the occurrence of multiple diastematas in the anterior tooth region. A higher frequency of angiokeratomas and teleangiectasies was found on the oral mucosa and perioral, as well as an increased incidence of exostoses. In particular, the patients’ tongues also showed abnormalities in the form of a subjective makroglossia, fissuring of tongue and changes in the papillae. The anomalies of the oral cavity and the head-neck region of Fabry patients are, as described in literature, present. However, they do not take a key role in the diagnosis of Fabry disease itself as they only show slight divergences or abnormalities, which do not necessarily always occur and therefore pose difficult to be diagnosed. KW - Fabry-Krankheit KW - Lysosomale Speicherkrankheit KW - Morbus Fabry Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-220184 ER - TY - THES A1 - Wellner, Stefan Friedrich T1 - Oberflächenphänotypisierung und funktionelle Analyse von T Zellen des peripheren Blutes bei Kindern mit Diabetes mellitus Typ 1 T1 - Surface Phenotype and Functional Analysis of Peripheral Blood T Cells in Children with Type 1 Diabetes Mellitus N2 - Typ 1 Diabetes mellitus (T1DM) ist eine Autoimmunerkrankung, welche durch die progrediente Schä¬digung der βZellen der Pankreas mit dadurch resultierendem absolutem Insulin¬mangel gekennzeichnet ist. Obwohl sich eine Vielzahl an Studien in den ver¬gangenen Jahrzehnten den zellulären Grundlagen dieser Erkrankung ge¬widmet hat, fehlt bis dato ein geeigneter kausaler Therapieansatz, sodass nach wie vor lediglich die eher symptomatisch orientierte Insulin-Substitution im Vor-dergrund steht. Die hier vorliegende Arbeit beschäftigte sich mit der genauen Charakterisierung von Immunzellen – insbesondere Lymphozyten – aus dem peripheren Blut er¬krankter Kinder mit dem Ziel, Verschiebungen im Phänotyp dieser Zellen aufzudecken, um potenzielle Ansatzpunkte zur weiteren Forschung und Therapiefindung zu finden. Hierfür wurde die Durchflusszytometrie genutzt, um den genauen Phänotyp der Lymphozyten zu untersuchen und Veränderungen im Oberflächenmarker-Expressionsmuster einzelner spezifischer Subpopulati¬onen zuweisen zu können. In erster Linie wurden hierbei zwei Zellpopulationen identifiziert, welche bei erkrankten Kindern deutlich vermehrt im peripheren Blut vorkommen, als bei gesunden Vergleichspersonen. Die Erste dieser Populationen sind CCR6-exprimierende CD4+ Zellen. Dies ist interessant, da CCR6 in verschiedenen früheren Studien mit Autoim¬munität in Verbindung gebracht wurde. In der weiteren Analyse zeigte sich, dass eine erhöhte IFNγ-Produktion in der vermutlich selben Zellpopulation vorlag, die auch CCR6 verstärkt exprimierte (Gedächtnis-T-Zellen vom Typ CD4+CD45RO+CCR7+CD28+), während kein Anhalt auf eine geänderte IL 17-Produktion gesehen wer¬den konnte. Die zweite in unserer Studie bei T1DM deutlich vermehrte Zellpopulation sind CXCR3-exprimierende CD8+ Zellen. Hierbei handelte es sich in erster Linie um Zellen, welche auch CCR7 exprimierten. In der hier vorliegenden Studie wurde die T1DM-Gruppe außerdem aufgeteilt nach der Krankheitsdauer (recent onset T1DM RO und long-standing T1DM LS), um im Krankheitsverlauf entstehende Veränderungen erkennen zu können. Es konnten jedoch insgesamt keine klaren derartigen Veränderungen festgestellt werden, was allerdings möglicherweise auch an einer zu geringen überblickten Zeitspanne liegen könnte (geringe durchschnittliche und maximale Krankheitsdauer). Aufgrund unserer Ergebnisse kann spekuliert werden, dass es sich bei den prozentuell vermehrt auftre¬tenden CCR6+ Zellen um IFNγ-produzierende Zellen handelt. Dies würde neueren Erkenntnissen von anderen Studien entsprechen, welche nicht – wie zuvor vermu¬tet wurde – Th17 Zellen, sondern nicht-klassische Th1 Zellen als pathogene Population diskutieren. Ein quantitativer Mangel an Treg als Ursache der ge¬steigerten IFNγ-Produktion erscheint nach unseren Ergebnissen unwahrscheinlich, da wir erhöhte Mengen CD25+CD127 /dim Zellen bei T1DM nachweisen konnten. Die beobachtete Koexpression von CXCR3 und CCR7 ist interessant vor dem Hintergrund, dass CXCR3-Überexpression im Pankreas in einer früheren Studie mit T1DM in Verbindung gebracht wurde, jedoch eine CXCR3-Blockade bisher keinen geeigneten therapeutischen Ansatz lieferte. Zunächst kann hier aber nur eine Assoziation beschrieben werden, wobei ein kausaler Zusammenhang in geeigneten Studiendesigns überprüft werden müsste. Eine genauere Betrachtung der CD8+CCR7+CXCR3+ Zellen könnte nach unserer Ansicht interessante neue Aspekte und potenzielle Therapieansätze offenlegen. Insbesondere scheint die Untersuchung CCR7-vermittelter Migration dieser Zel¬len einen geeigneten Studienansatz darzustellen. Ebenso verweisen unsere Er-gebnisse erneut auf eine pathogene Rolle CCR6-exprimierender Zellen, welche in kommenden Studien näher beleuchtet werden sollte. N2 - T1DM displays an autoimmune disease characterized by a progressive destruction of pancreatic β cells, with subsequent absolute lack of Insulin. Despite a high number of studies dedicated to the investigation of the cellular background of the disease throughout the last decades, still no appropriate causal therapy exists, thus leaving the symptomatic approach of Insulin substitution the main therapeutic approach. This study focused on a more precise characterization of immune cells – especially lymphocytes – derived from peripheral blood of children with T1DM, with the aim of uncovering phenotypical changes in these cells and potentially revealing new therapeutic targets. Flow cytometry was used in order to define cell phenotype more accurately and allocate changes in the expression profile of cell surface markers of lymphocyte subpopulations more specifically than in early studies. Two cell populations were significantly increased in the peripheral blood of diseased children compared to healthy controls. First, CCR6-expressing CD4+ cells were increased, which is of interest considering earlier studies that showed a connection of this chemokine receptor to autoimmunity. Furthermore, functional investigations showed an increased IFNγ production as well, presumably derived from the CCR6 overexpressing CD4+CD45RO+CCR7+CD28+ memory T cells, whereas there was no difference in the production of IL 17. The second cell population found to be increased were CXCR3-expressing CD8+ cells, which also express CCR7. Additionally, this study separated T1DM into two groups according to disease duration (recent onset T1DM RO and long-standing T1DM LS) in order to evaluated changes throughout disease progression. However, no such change could be found, possibly resulting from rather short disease duration of long-standing T1DM in our cohort. Our findings concerning the CCR6 and INFγ expression would be in accordance to other studies, showing a potential pathogenic role of non-classic Th1 cells but not primarily of Th17 cells, as formerly suspected. A quantitative lack of Treg as a cause for the increased IFNγ production seems unlikely according to the results of our study, as there were higher proportions of CD25+CD127–/dim cells. The co-expression of CXCR3 and CCR7 is interesting regarding earlier studies that could not find positive effects of a CXCR3 blockade in T1DM, despite an evident overexpression of CXCR3 on T cells in the pancreas. Taken together, our results suggest increased numbers of IFNγ producing CD4+ CCR6+CD45RO+CCR7+CD28+ cells and of CD8+CXCR3+CCR7+ cells in T1DM and thus a potential pathogenic importance of these two populations. However, the present results describe associations rather than causality, thus causal contribution of chemokine receptor expression to etiopathogenesis of T1DM has to be confirmed in appropriate study designs. A more extensive investigation of CD8+CCR7+CXCR3+ cells could potentially reveal interesting etiopathogenical aspects and targets for new therapeutic approaches. Especially the investigation of CCR7-mediated migration of these cells seems to be a promising field of study. In addition, this study again points to the potentially pathogenic role of CCR6-expressing cells, which ought to be examined further in upcoming studies. KW - T-Lymphozyt KW - Regulatorischer T-Lymphozyt KW - Diabetes mellitus Typ 1 KW - T Helfer Zelle KW - CD4+ T Zelle KW - CD4+ T Lymphocyte KW - Zytotoxische T Zelle KW - CD8+ T Zelle KW - Cytotoxic T Lymphocyte KW - Th17 Zelle KW - Th17 cell KW - Treg Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-217539 ER -