TY - THES A1 - Üreyen, Soner T1 - Multivariate Time Series for the Analysis of Land Surface Dynamics - Evaluating Trends and Drivers of Land Surface Variables for the Indo-Gangetic River Basins T1 - Multivariate Zeitreihen zur Analyse von Landoberflächendynamiken - Auswertung von Trends und Treibern von Landoberflächenvariablen für Flusseinzugsgebiete der Indus-Ganges Ebene N2 - The investigation of the Earth system and interplays between its components is of utmost importance to enhance the understanding of the impacts of global climate change on the Earth's land surface. In this context, Earth observation (EO) provides valuable long-term records covering an abundance of land surface variables and, thus, allowing for large-scale analyses to quantify and analyze land surface dynamics across various Earth system components. In view of this, the geographical entity of river basins was identified as particularly suitable for multivariate time series analyses of the land surface, as they naturally cover diverse spheres of the Earth. Many remote sensing missions with different characteristics are available to monitor and characterize the land surface. Yet, only a few spaceborne remote sensing missions enable the generation of spatio-temporally consistent time series with equidistant observations over large areas, such as the MODIS instrument. In order to summarize available remote sensing-based analyses of land surface dynamics in large river basins, a detailed literature review of 287 studies was performed and several research gaps were identified. In this regard, it was found that studies rarely analyzed an entire river basin, but rather focused on study areas at subbasin or regional scale. In addition, it was found that transboundary river basins remained understudied and that studies largely focused on selected riparian countries. Moreover, the analysis of environmental change was generally conducted using a single EO-based land surface variable, whereas a joint exploration of multivariate land surface variables across spheres was found to be rarely performed. To address these research gaps, a methodological framework enabling (1) the preprocessing and harmonization of multi-source time series as well as (2) the statistical analysis of a multivariate feature space was required. For development and testing of a methodological framework that is transferable in space and time, the transboundary river basins Indus, Ganges, Brahmaputra, and Meghna (IGBM) in South Asia were selected as study area, having a size equivalent to around eight times the size of Germany. These basins largely depend on water resources from monsoon rainfall and High Mountain Asia which holds the largest ice mass outside the polar regions. In total, over 1.1 billion people live in this region and in parts largely depend on these water resources which are indispensable for the world's largest connected irrigated croplands and further domestic needs as well. With highly heterogeneous geographical settings, these river basins allow for a detailed analysis of the interplays between multiple spheres, including the anthroposphere, biosphere, cryosphere, hydrosphere, lithosphere, and atmosphere. In this thesis, land surface dynamics over the last two decades (December 2002 - November 2020) were analyzed using EO time series on vegetation condition, surface water area, and snow cover area being based on MODIS imagery, the DLR Global WaterPack and JRC Global Surface Water Layer, as well as the DLR Global SnowPack, respectively. These data were evaluated in combination with further climatic, hydrological, and anthropogenic variables to estimate their influence on the three EO land surface variables. The preprocessing and harmonization of the time series was conducted using the implemented framework. The resulting harmonized feature space was used to quantify and analyze land surface dynamics by means of several statistical time series analysis techniques which were integrated into the framework. In detail, these methods involved (1) the calculation of trends using the Mann-Kendall test in association with the Theil-Sen slope estimator, (2) the estimation of changes in phenological metrics using the Timesat tool, (3) the evaluation of driving variables using the causal discovery approach Peter and Clark Momentary Conditional Independence (PCMCI), and (4) additional correlation tests to analyze the human influence on vegetation condition and surface water area. These analyses were performed at annual and seasonal temporal scale and for diverse spatial units, including grids, river basins and subbasins, land cover and land use classes, as well as elevation-dependent zones. The trend analyses of vegetation condition mostly revealed significant positive trends. Irrigated and rainfed croplands were found to contribute most to these trends. The trend magnitudes were particularly high in arid and semi-arid regions. Considering surface water area, significant positive trends were obtained at annual scale. At grid scale, regional and seasonal clusters with significant negative trends were found as well. Trends for snow cover area mostly remained stable at annual scale, but significant negative trends were observed in parts of the river basins during distinct seasons. Negative trends were also found for the elevation-dependent zones, particularly at high altitudes. Also, retreats in the seasonal duration of snow cover area were found in parts of the river basins. Furthermore, for the first time, the application of the causal discovery algorithm on a multivariate feature space at seasonal temporal scale revealed direct and indirect links between EO land surface variables and respective drivers. In general, vegetation was constrained by water availability, surface water area was largely influenced by river discharge and indirectly by precipitation, and snow cover area was largely controlled by precipitation and temperature with spatial and temporal variations. Additional analyses pointed towards positive human influences on increasing trends in vegetation greenness. The investigation of trends and interplays across spheres provided new and valuable insights into the past state and the evolution of the land surface as well as on relevant climatic and hydrological driving variables. Besides the investigated river basins in South Asia, these findings are of great value also for other river basins and geographical regions. N2 - Die Untersuchung von Erdsystemkomponenten und deren Wechselwirkungen ist von großer Relevanz, um das Prozessverständnis sowie die Auswirkungen des globalen Klimawandels auf die Landoberfläche zu verbessern. In diesem Zusammenhang liefert die Erdbeobachtung (EO) wertvolle Langzeitaufnahmen zu einer Vielzahl an Landoberflächenvariablen. Diese können als Indikator für die Erdsystemkomponenten genutzt werden und sind essenziell für großflächige Analysen. Flusseinzugsgebiete sind besonders geeignet um Landoberflächendynamiken mit multivariaten Zeitreihen zu analysieren, da diese verschiedene Sphären des Erdsystems umfassen. Zur Charakterisierung der Landoberfläche stehen zahlreiche EO-Missionen mit unterschiedlichen Eigenschaften zur Verfügung. Nur einige wenige Missionen gewährleisten jedoch die Erstellung von räumlich und zeitlich konsistenten Zeitreihen mit äquidistanten Beobachtungen über großräumige Untersuchungsgebiete, wie z.B. die MODIS Sensoren. Um bisherige EO-Analysen zu Landoberflächendynamiken in großen Flusseinzugsgebieten zu untersuchen, wurde eine Literaturrecherche durchgeführt, wobei mehrere Forschungslücken identifiziert wurden. Studien untersuchten nur selten ein ganzes Einzugsgebiet, sondern konzentrierten sich lediglich auf Teilgebietsgebiete oder regionale Untersuchungsgebiete. Darüber hinaus wurden transnationale Einzugsgebiete nur unzureichend analysiert, wobei sich die Studien größtenteils auf ausgewählte Anrainerstaaten beschränkten. Auch wurde die Analyse von Umweltveränderungen meistens anhand einer einzigen EO-Landoberflächenvariable durchgeführt, während eine synergetische Untersuchung von sphärenübergreifenden Landoberflächenvariablen kaum unternommen wurde. Um diese Forschungslücken zu adressieren, ist ein methodischer Ansatz notwendig, der (1) die Vorverarbeitung und Harmonisierung von Zeitreihen aus mehreren Quellen und (2) die statistische Analyse eines multivariaten Merkmalsraums ermöglicht. Für die Entwicklung und Anwendung eines methodischen Frameworks, das raum-zeitlich übertragbar ist, wurden die transnationalen Einzugsgebiete Indus, Ganges, Brahmaputra und Meghna (IGBM) in Südasien, deren Größe etwa der achtfachen Fläche von Deutschland entspricht, ausgewählt. Diese Einzugsgebiete hängen weitgehend von den Wasserressourcen des Monsunregens und des Hochgebirges Asiens ab. Insgesamt leben über 1,1 Milliarden Menschen in dieser Region und sind zum Teil in hohem Maße von diesen Wasserressourcen abhängig, die auch für die größten zusammenhängenden bewässerten Anbauflächen der Welt und auch für weitere inländische Bedarfe unerlässlich sind. Aufgrund ihrer sehr heterogenen geographischen Gegebenheiten ermöglichen diese Einzugsgebiete eine detaillierte sphärenübergreifende Analyse der Wechselwirkungen, einschließlich der Anthroposphäre, Biosphäre, Kryosphäre, Hydrosphäre, Lithosphäre und Atmosphäre. In dieser Dissertation wurden Landoberflächendynamiken der letzten zwei Jahrzehnte anhand von EO-Zeitreihen zum Vegetationszustand, zu Oberflächengewässern und zur Schneebedeckung analysiert. Diese basieren auf MODIS-Aufnahmen, dem DLR Global WaterPack und dem JRC Global Surface Water Layer sowie dem DLR Global SnowPack. Diese Zeitreihen wurden in Kombination mit weiteren klimatischen, hydrologischen und anthropogenen Variablen ausgewertet. Die Harmonisierung des multivariaten Merkmalsraumes ermöglichte die Analyse von Landoberflächendynamiken unter Nutzung von statistischen Methoden. Diese Methoden umfassen (1) die Berechnung von Trends mittels des Mann-Kendall und des Theil-Sen Tests, (2) die Berechnung von phänologischen Metriken anhand des Timesat-Tools, (3) die Bewertung von treibenden Variablen unter Nutzung des PCMCI Algorithmus und (4) zusätzliche Korrelationstests zur Analyse des menschlichen Einflusses auf den Vegetationszustand und die Wasseroberfläche. Diese Analysen wurden auf jährlichen und saisonalen Zeitskalen und für verschiedene räumliche Einheiten durchgeführt. Für den Vegetationszustand wurden weitgehend signifikant positive Trends ermittelt. Analysen haben gezeigt, dass landwirtschaftliche Nutzflächen am meisten zu diesen Trends beitragen haben. Besonders hoch waren die Trends in ariden Regionen. Bei Oberflächengewässern wurden auf jährlicher Ebene signifikant positive Trends festgestellt. Auf Pixelebene wurden jedoch sowohl regional als auch saisonal Cluster mit signifikant negativen Trends identifiziert. Die Trends für die Schneebedeckung blieben auf jährlicher Ebene weitgehend stabil, jedoch wurden in Teilen der Einzugsgebiete zu bestimmten Jahreszeiten signifikant negative Trends beobachtet. Die negativen Trends wurden auch für höhenabhängige Zonen festgestellt, insbesondere in hohen Lagen. Außerdem wurden in Teilen der Einzugsgebiete Rückgänge bei der saisonalen Dauer der Schneebedeckung ermittelt. Darüber hinaus ergab die Untersuchung des multivariaten Merkmalsraums auf kausale Zusammenhänge auf saisonaler Ebene erstmals Aufschluss über direkte und indirekte Relationen zwischen EO-Landoberflächenvariablen und den entsprechenden Einflussfaktoren. Zusammengefasst wurde die Vegetation durch die Wasserverfügbarkeit, die Oberflächengewässer durch den Abfluss und indirekt durch den Niederschlag sowie die Schneebedeckung durch Niederschlag und Temperatur mit räumlichen und saisonalen Unterschieden kontrolliert. Zusätzliche Analysen wiesen auf einen positiven Zusammenhang zwischen dem menschlichen Einfluss und den zunehmenden Trends in der Vegetationsfläche hin. Diese sphärenübergreifenden Untersuchungen zu Trends und Wechselwirkungen liefern neue und wertvolle Einblicke in den vergangenen Zustand von Landoberflächendynamiken sowie in die relevanten klimatischen und hydrologischen Einflussfaktoren. Neben den untersuchten Einzugsgebieten in Südasien sind diese Erkenntnisse auch für weitere Einzugsgebiete und geographische Regionen von großer Bedeutung. KW - Multivariate Analyse KW - Zeitreihe KW - Fernerkundung KW - Geographie KW - Multivariate Time Series KW - River Basins KW - Earth Observation KW - Remote Sensing Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-291941 ER - TY - THES A1 - Ünzelmann, Maximilian T1 - Interplay of Inversion Symmetry Breaking and Spin-Orbit Coupling – From the Rashba Effect to Weyl Semimetals T1 - Zusammenspiel aus Inversionssymmetriebruch und Spin-Bahn-Kopplung – Vom Rashba-Effekt zu Weyl-Halbmetallen N2 - Breaking inversion symmetry in crystalline solids enables the formation of spin-polarized electronic states by spin-orbit coupling without the need for magnetism. A variety of interesting physical phenomena related to this effect have been intensively investigated in recent years, including the Rashba effect, topological insulators and Weyl semimetals. In this work, the interplay of inversion symmetry breaking and spin-orbit coupling and, in particular their general influence on the character of electronic states, i.e., on the spin and orbital degrees of freedom, is investigated experimentally. Two different types of suitable model systems are studied: two-dimensional surface states for which the Rashba effect arises from the inherently broken inversion symmetry at the surface, and a Weyl semimetal, for which inversion symmetry is broken in the three-dimensional crystal structure. Angle-resolved photoelectron spectroscopy provides momentum-resolved access to the spin polarization and the orbital composition of electronic states by means of photoelectron spin detection and dichroism with polarized light. The experimental results shown in this work are also complemented and supported by ab-initio density functional theory calculations and simple model considerations. Altogether, it is shown that the breaking of inversion symmetry has a decisive influence on the Bloch wave function, namely, the formation of an orbital angular momentum. This mechanism is, in turn, of fundamental importance both for the physics of the surface Rashba effect and the topology of the Weyl semimetal TaAs. N2 - Wird die Inversionssymmetrie kristalliner Festkörper gebrochen, ermöglicht dies die Ausbildung von spinpolarisierten elektronischen Zuständen durch Spin-Bahn-Kopplung ohne die Notwendigkeit von Magnetismus. In den vergangenen Jahren wurde eine Vielzahl interessanter physikalischer Phänomene diskutiert, die mit diesem Effekt zusammenhängen, darunter der Rashba-Effekt, topologische Isolatoren sowie Weyl-Halbmetalle. In dieser Arbeit wird das Zusammenspiel von Inversionssymetriebruch und Spin-Bahn-Kopplung sowie insbesondere deren Einfluss auf die Eigenschaften der elektronischen Zustände, also auf die Spin- und Orbital-Freiheitsgrade, experimentell untersucht. Zwei verschiedene Arten geeigneter Modellsysteme werden dazu betrachtet: zweidimensionale Oberflächenzustände, in denen der Rashba-Effekt aufgrund der an der Oberfläche inhärent gebrochenen Inverisonssymetrie auftritt, und ein Weyl-Halbmetall, dessen dreidimensionale Kristallstruktur kein Inversionszentrum besitzt. Winkelaufgelöste Photoelektronenspektroskopie bietet einen impulsaufgelösten Zugang zur Spinpolarisation sowie zur orbitalen Zusammensetzung der elektronischen Zustände mittels Photoelektronenspindetektion und Dichroismus mit polarisiertem Licht. Die in dieser Arbeit gezeigten experimentellen Ergebnisse werden außerdem durch ab-initio Dichtefunktionaltheorierechnungen sowie einfachen Modellbetrachtungen ergänzt und untermauert. Insgesamt zeigt sich, dass das Brechen von Inversionssymmetrie einen entscheidenden Einfluss auf die Bloch-Wellenfunktion hat, nämlich die Ausbildung eines orbitalen Bahndrehimpulses. Dieser Mechanismus ist wiederum von grundlegender Bedeutung sowohl für die Physik des Oberflächen- Rashba-Effekts als auch für die Topologie desWeyl-Halbmetalls TaAs. KW - Rashba-Effekt KW - Inversion Symmetry Breaking KW - Topologie KW - ARPES KW - Spin-Orbit Coupling KW - Orbital Angular Momentum Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-283104 ER - TY - THES A1 - Önal-Hartmann, Cigdem T1 - Emotional Modulation of Motor Memory Formation T1 - Emotionale Modulation des Motorischen Gedächtnises N2 - Hintergründe: Wie eine Vielzahl von Studien belegt, kann das explizite Gedächtnis, das die bewusste Erinnerung an enkodierte Informationen beinhaltet, durch Emotionen beeinflusst werden, und zwar über den Einfluss auf verschiedene Verarbeitungsebenen (Enkodierung, Konsolidierung, Abruf usw.). Bisher wenig untersucht ist, ob und wie Emotionen Vorgänge der motorischen Gedächtnisbildung, die nicht auf bewusster Erinnerung beruhen und sich stattdessen durch Veränderungen im Verhalten darstellen, modulieren. Experiment 1: Das Ziel des ersten Experimentes war es, den Einfluss von Emotionen auf motorisches Lernen zu untersuchen. Vier Gruppen von Probanden mussten in einer motorischen Lernaufgabe schnelle, seitliche Bewegungen mit dem Daumen ausführen. Während dieser Aufgabe hörten die Probanden emotionale Klänge, die in Valenz und Arousal variierten: 1. Valenz negativ/ Arousal niedrig (V-/A-), 2. Valenz negativ/ Arousal hoch (V-/A+), 3. Valenz positiv/ Arousal niedrig (V+/A-), 4. Valenz positiv/ Arousal hoch (V+/A+). Die deskriptive Analyse aller Daten sprach für beste Ergebnisse für das motorische Lernen in der Bedingung V-/A-, aber die Unterschiede zwischen den Bedingungen waren nicht signifikant. Die Interaktion zwischen Valenz und Arousal emotionaler Töne scheint demnach motorische Enkodierungsprozesse zu modulieren, jedoch müssen zukünftige Studien mit unterschiedlichen emotionalen Stimuli die Annahme weiter untersuchen, dass negative Stimuli mit niedrigem Arousal während der Enkodierung einen fördernden Effekt auf das motorische Kurzzeitgedächtnis haben. Experiment 2: Die Absicht des zweiten Experimentes war es, die Auswirkungen emotionaler Interferenzen auf die Konsolidierung beim Sequenzlernen zu untersuchen. Sechs Gruppen von Probanden trainierten zuerst in getrennten Sitzungen eine SRTT-Aufgabe (serial reaction time task). Um die Konsolidierung der neu erlernten Fertigkeit zu modulieren, wurden die Probanden nach dem Training einer von drei unterschiedlichen Klassen emotionaler Stimuli (positiv, negativ oder neutral) ausgesetzt. Diese bestanden aus einem Set emotionaler Bilder, die mit emotional kongruenten Musikstücken oder neutralen Klängen kombiniert waren. Bei den Probandengruppen wurde die emotionale Interferenz nach zwei unterschiedlichen Zeitintervallen realisiert, entweder direkt nach der Trainingssitzung oder sechs Stunden später. 72 Stunden nach der Trainingssitzung wurde jede Gruppe erneut mit der SRTT-Aufgabe getestet. Die Leistung in diesem Nachtest wurde mittels Reaktionszeit und Genauigkeit bei der Ausführung der Zielsequenz analysiert. Die emotionale Interferenz beeinflusste weder die Nachtestergebnisse für die Reaktionszeit noch die für die Genauigkeit. Allerdings konnte eine Steigerung der expliziten Sequenzerkennung durch erregende negative Stimuli festgestellt werden, wenn diese direkt nach der ersten Trainingseinheit (0h) dargeboten wurden. Diese Ergebnisse lassen vermuten, dass die Konsolidierung der expliziten Aspekte prozeduralen Lernens in einer stärkeren Wechselwirkung mit emotionalen Interferenzen stehen könnte als die der impliziten Aspekte. Die Konsolidierung unterschiedlicher Ebenen des Fertigkeitserwerbs könnte demnach von unterschiedlichen Mechanismen gesteuert werden. Da Performanz und explizites Sequenzerkennen nicht korrelierten, vermuten wir, dass implizite und explizite Modalitäten bei der Durchführung der SRTT-Aufgabe nicht komplementär sind. Experiment 3: Es sollte untersucht werden, ob es eine Präferenz der linken Gehirnhemisphäre bei der Kontrolle von Flexionsreaktionen auf positive Stimuli gibt und der rechten Hemisphäre bei der Kontrolle von Extensionsreaktionen auf negative Stimuli. Zu diesem Zweck sollten rechtshändige Probanden einen Joystick zu sich ziehen oder von sich weg drücken, nachdem sie einen positiven oder negativen Stimulus in ihrem linken oder rechten Gesichtsfeld gesehen hatten. Die Flexionsreaktionen waren bei positiven Stimuli schneller, Extensionsreaktion hingegen bei negativen Stimuli. Insgesamt war die Performanz am schnellsten, wenn die emotionalen Stimuli im linken Gesichtsfeld präsentiert wurden. Dieser Vorrang der rechten Gehirnhemisphäre war besonders deutlich für negative Stimuli, wohingegen die Reaktionszeiten auf positive Bilder keine hemisphärische Differenzierung zeigten. Wir konnten keine Interaktion zwischen Gesichtsfeld und Reaktionstyp belegen, auch fand sich keine Dreifachinteraktion zwischen Valenz, Gesichtsfeld und Reaktionstyp. In unserem experimentellen Kontext scheint die Interaktion zwischen Valenz und Gesichtsfeld stärker zu sein als die Interaktion zwischen Valenz und motorischem Verhalten. Auf Grund dieser Ergebnisse vermuten wir, dass unter gewissen Bedingungen eine Hierarchisierung der asymmetrischen Muster Vorrang hat, die möglicherweise andere vorhandene Asymmetrien maskieren könnte. N2 - Background: There is extensive evidence that explicit memory, which involves conscious recall of encoded information, can be modulated by emotions; emotions may influence encoding, consolidation or retrieval of information. However, less is known about the modulatory effects of emotions on procedural processes like motor memory, which do not depend upon conscious recall and are instead demonstrated through changes in behaviour. Experiment 1: The goal of the first experiment was to examine the influence of emotions on motor learning. Four groups of subjects completed a motor learning task performing brisk isometric abductions with their thumb. While performing the motor task, the subjects heard emotional sounds varying in arousal and valence: (1) valence negative / arousal low (V-/A-), (2) valence negative / arousal high (V-/A+), (3) valence positive / arousal low (V+/A-), and (4) valence positive / arousal high (V+/A+). Descriptive analysis of the complete data set showed best performances for motor learning in the V-/A- condition, but the differences between the conditions did not reach significance. Results suggest that the interaction between valence and arousal may modulate motor encoding processes. Since limitations of the study cannot be ruled out, future studies with different emotional stimuli have to test the assumption that exposure to low arousing negative stimuli during encoding has a facilitating effect on short term motor memory. Experiment 2: The purpose of the second experiment was to investigate the effects of emotional interference on consolidation of sequential learning. In different sessions, 6 groups of subjects were initially trained on a serial reaction time task (SRTT). To modulate consolidation of the newly learned skill, subjects were exposed, after the training, to 1 of 3 (positive, negative or neutral) different classes of emotional stimuli which consisted of a set of emotional pictures combined with congruent emotional musical pieces or neutral sound. Emotional intervention for each subject group was done in 2 different time intervals (either directly after the training session, or 6 h later). After a 72 h post-training interval, each group was retested on the SRTT. Re-test performance was evaluated in terms of response times and accuracy during performance of the target sequence. Emotional intervention did not influence either response times or accuracy of re-testing SRTT task performance. However, explicit awareness of sequence knowledge was enhanced by arousing negative stimuli applied at 0 h after training. These findings suggest that consolidation of explicit aspects of procedural learning may be more responsive toward emotional interference than are implicit aspects. Consolidation of different domains of skill acquisition may be governed by different mechanisms. Since skill performance did not correlate with explicit awareness we suggest that implicit and explicit modes of SRTT performance are not complementary. Experiment 3: The aim of the third experiment was to analyze if the left hemisphere preferentially controls flexion responses towards positive stimuli, while the right hemisphere is specialized towards extensor responses to negative pictures. To this end, right-handed subjects had to pull or push a joystick subsequent to seeing a positive or a negative stimulus in their left or right hemifield. Flexion responses were faster for positive stimuli, while negative stimuli were associated with faster extensions responses. Overall, performance was fastest when emotional stimuli were presented to the left visual hemifield. This right hemisphere superiority was especially clear for negative stimuli, while reaction times towards positive pictures showed no hemispheric difference. We did not find any interaction between hemifield and response type. Neither was there a triple interaction between valence, hemifield and response type. In our experimental context the interaction between valence and hemifield seems to be stronger than the interaction between valence and motor behaviour. From these results we suppose that under certain conditions a hierarchy scaling of the asymmetry patterns prevails, which might mask any other existing asymmetries. KW - Motorisches Lernen KW - Gefühl KW - Motorisches Gedächtnis KW - Emotionen KW - Konsolidierung KW - Motor Memory KW - Emotion Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-64838 ER - TY - THES A1 - Zürn, Michael T1 - The Dual Nature of Utility - Categorical and Comparative Evaluations in Economic Decisions T1 - Die Dualität des Nutzens - kategoriale und komparative Bewertungen in ökonomischen Entscheidungen N2 - Utility is perhaps the most central concept in modern economic theorizing. However, the behaviorist reduction to Revealed Preference not only removed the psychological content of utility but experimental investigations also exposed numerous anomalies in this theory. This program of research focused on the psychological processes by which utility judgments are generated. For this purpose, the standard assumption of a homogeneous concept is substituted by the Utilitarian Duality Hypothesis. In particular, judgments concerning categorical utility (uCat) infer an object's category based on its attributes which may subsequently allow the transfer of evaluative information like feelings or attitudes. In contrast, comparative utility (uCom) depends on the distance to a reference value on a specific dimension of comparison. Importantly, dimensions of comparison are manifold and context dependent. In a series of experiments, we show that the resulting Dual Utility Model is able to explain several known anomalies in a parsimonious fashion. Moreover, we identify central factors determining the relative weight assigned to both utility components. Finally, we discuss the implications of the Utilitarian Duality for both, the experimental practice in economics as well as the consequences for economic theorizing. In sum, we propose that the Dual Utility Model can serve as an integrative framework for both the rational model and its anomalies. N2 - Der Nutzen ist wohl eines der meist beachteten Konzepte der ökonomischen Theorie. Allerdings entfernte die behavioristische Reduktion auf offenbarte Präferenzen nicht nur den psychologischen Inhalt des Nutzens, sondern zeigte darüber hinaus in experimentellen Untersuchungen auch zahlreiche Anomalien der Theorie auf. Das vorliegende Forschungsprogramm stellt die psychologischen Prozesse in den Vordergrund, mittels derer Nutzen beurteilt wird. Zu diesem Zweck wird die verbreitete Annahme eines homogenen Konzepts durch die Zwei-Nutzen-Hypothese ersetzt. Im Besonderen bestimmen Urteile über den kategorialen Nutzen (uCat) anhand der Attribute eines Objekts zunächst dessen Kategorie, wodurch daraufhin bewertende Informationen, wie z.B. Gefühle oder Einstellungen, auf das Objekt übertragen werden können. Demgegenüber bestimmt sich der komparative Nutzen (uCom) über die Abweichung von einem Referenzwert in einer bestimmten Vergleichsdimension, welche generell zahlreich und kontextabhängig sein können. In einer Serie von Experimenten wird gezeigt, dass das resultierende Zwei-Nutzen-Modell eine Reihe von bekannten Anomalien in einer sparsamen Weise erklären kann. Darüber hinaus werden zentrale Faktoren identifiziert, welche die relative Gewichtung beider Nutzenkomponenten bestimmen. Schließlich werden die Implikationen der Zwei-Nutzen-Hypothese für die experimentelle Praxis und die ökonomische Theorie diskutiert. Zusammenfassend wird ausgeführt, dass das entwickelte Zwei-Nutzen-Modell als integrativer Rahmen für sowohl das rationale Modell als auch für seine Anomalien dienen kann. KW - Nutzen KW - Psychologie KW - Ultimatum Game KW - transaction utility KW - preference construction KW - utility KW - revealed preference KW - Wert KW - Preisvergleich KW - Nutzenvergleich Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-120141 ER - TY - THES A1 - Züfle, Marwin Otto T1 - Proactive Critical Event Prediction based on Monitoring Data with Focus on Technical Systems T1 - Proaktive Vorhersage kritischer Ereignisse auf der Grundlage von Beobachtungsdaten mit Schwerpunkt auf technischen Systemen N2 - The importance of proactive and timely prediction of critical events is steadily increasing, whether in the manufacturing industry or in private life. In the past, machines in the manufacturing industry were often maintained based on a regular schedule or threshold violations, which is no longer competitive as it causes unnecessary costs and downtime. In contrast, the predictions of critical events in everyday life are often much more concealed and hardly noticeable to the private individual, unless the critical event occurs. For instance, our electricity provider has to ensure that we, as end users, are always supplied with sufficient electricity, or our favorite streaming service has to guarantee that we can watch our favorite series without interruptions. For this purpose, they have to constantly analyze what the current situation is, how it will develop in the near future, and how they have to react in order to cope with future conditions without causing power outages or video stalling. In order to analyze the performance of a system, monitoring mechanisms are often integrated to observe characteristics that describe the workload and the state of the system and its environment. Reactive systems typically employ thresholds, utility functions, or models to determine the current state of the system. However, such reactive systems cannot proactively estimate future events, but only as they occur. In the case of critical events, reactive determination of the current system state is futile, whereas a proactive system could have predicted this event in advance and enabled timely countermeasures. To achieve proactivity, the system requires estimates of future system states. Given the gap between design time and runtime, it is typically not possible to use expert knowledge to a priori model all situations a system might encounter at runtime. Therefore, prediction methods must be integrated into the system. Depending on the available monitoring data and the complexity of the prediction task, either time series forecasting in combination with thresholding or more sophisticated machine and deep learning models have to be trained. Although numerous forecasting methods have been proposed in the literature, these methods have their advantages and disadvantages depending on the characteristics of the time series under consideration. Therefore, expert knowledge is required to decide which forecasting method to choose. However, since the time series observed at runtime cannot be known at design time, such expert knowledge cannot be implemented in the system. In addition to selecting an appropriate forecasting method, several time series preprocessing steps are required to achieve satisfactory forecasting accuracy. In the literature, this preprocessing is often done manually, which is not practical for autonomous computing systems, such as Self-Aware Computing Systems. Several approaches have also been presented in the literature for predicting critical events based on multivariate monitoring data using machine and deep learning. However, these approaches are typically highly domain-specific, such as financial failures, bearing failures, or product failures. Therefore, they require in-depth expert knowledge. For this reason, these approaches cannot be fully automated and are not transferable to other use cases. Thus, the literature lacks generalizable end-to-end workflows for modeling, detecting, and predicting failures that require only little expert knowledge. To overcome these shortcomings, this thesis presents a system model for meta-self-aware prediction of critical events based on the LRA-M loop of Self-Aware Computing Systems. Building upon this system model, this thesis provides six further contributions to critical event prediction. While the first two contributions address critical event prediction based on univariate data via time series forecasting, the three subsequent contributions address critical event prediction for multivariate monitoring data using machine and deep learning algorithms. Finally, the last contribution addresses the update procedure of the system model. Specifically, the seven main contributions of this thesis can be summarized as follows: First, we present a system model for meta self-aware prediction of critical events. To handle both univariate and multivariate monitoring data, it offers univariate time series forecasting for use cases where a single observed variable is representative of the state of the system, and machine learning algorithms combined with various preprocessing techniques for use cases where a large number of variables are observed to characterize the system’s state. However, the two different modeling alternatives are not disjoint, as univariate time series forecasts can also be included to estimate future monitoring data as additional input to the machine learning models. Finally, a feedback loop is incorporated to monitor the achieved prediction quality and trigger model updates. We propose a novel hybrid time series forecasting method for univariate, seasonal time series, called Telescope. To this end, Telescope automatically preprocesses the time series, performs a kind of divide-and-conquer technique to split the time series into multiple components, and derives additional categorical information. It then forecasts the components and categorical information separately using a specific state-of-the-art method for each component. Finally, Telescope recombines the individual predictions. As Telescope performs both preprocessing and forecasting automatically, it represents a complete end-to-end approach to univariate seasonal time series forecasting. Experimental results show that Telescope achieves enhanced forecast accuracy, more reliable forecasts, and a substantial speedup. Furthermore, we apply Telescope to the scenario of predicting critical events for virtual machine auto-scaling. Here, results show that Telescope considerably reduces the average response time and significantly reduces the number of service level objective violations. For the automatic selection of a suitable forecasting method, we introduce two frameworks for recommending forecasting methods. The first framework extracts various time series characteristics to learn the relationship between them and forecast accuracy. In contrast, the other framework divides the historical observations into internal training and validation parts to estimate the most appropriate forecasting method. Moreover, this framework also includes time series preprocessing steps. Comparisons between the proposed forecasting method recommendation frameworks and the individual state-of-the-art forecasting methods and the state-of-the-art forecasting method recommendation approach show that the proposed frameworks considerably improve the forecast accuracy. With regard to multivariate monitoring data, we first present an end-to-end workflow to detect critical events in technical systems in the form of anomalous machine states. The end-to-end design includes raw data processing, phase segmentation, data resampling, feature extraction, and machine tool anomaly detection. In addition, the workflow does not rely on profound domain knowledge or specific monitoring variables, but merely assumes standard machine monitoring data. We evaluate the end-to-end workflow using data from a real CNC machine. The results indicate that conventional frequency analysis does not detect the critical machine conditions well, while our workflow detects the critical events very well with an F1-score of almost 91%. To predict critical events rather than merely detecting them, we compare different modeling alternatives for critical event prediction in the use case of time-to-failure prediction of hard disk drives. Given that failure records are typically significantly less frequent than instances representing the normal state, we employ different oversampling strategies. Next, we compare the prediction quality of binary class modeling with downscaled multi-class modeling. Furthermore, we integrate univariate time series forecasting into the feature generation process to estimate future monitoring data. Finally, we model the time-to-failure using not only classification models but also regression models. The results suggest that multi-class modeling provides the overall best prediction quality with respect to practical requirements. In addition, we prove that forecasting the features of the prediction model significantly improves the critical event prediction quality. We propose an end-to-end workflow for predicting critical events of industrial machines. Again, this approach does not rely on expert knowledge except for the definition of monitoring data, and therefore represents a generalizable workflow for predicting critical events of industrial machines. The workflow includes feature extraction, feature handling, target class mapping, and model learning with integrated hyperparameter tuning via a grid-search technique. Drawing on the result of the previous contribution, the workflow models the time-to-failure prediction in terms of multiple classes, where we compare different labeling strategies for multi-class classification. The evaluation using real-world production data of an industrial press demonstrates that the workflow is capable of predicting six different time-to-failure windows with a macro F1-score of 90%. When scaling the time-to-failure classes down to a binary prediction of critical events, the F1-score increases to above 98%. Finally, we present four update triggers to assess when critical event prediction models should be re-trained during on-line application. Such re-training is required, for instance, due to concept drift. The update triggers introduced in this thesis take into account the elapsed time since the last update, the prediction quality achieved on the current test data, and the prediction quality achieved on the preceding test data. We compare the different update strategies with each other and with the static baseline model. The results demonstrate the necessity of model updates during on-line application and suggest that the update triggers that consider both the prediction quality of the current and preceding test data achieve the best trade-off between prediction quality and number of updates required. We are convinced that the contributions of this thesis constitute significant impulses for the academic research community as well as for practitioners. First of all, to the best of our knowledge, we are the first to propose a fully automated, end-to-end, hybrid, component-based forecasting method for seasonal time series that also includes time series preprocessing. Due to the combination of reliably high forecast accuracy and reliably low time-to-result, it offers many new opportunities in applications requiring accurate forecasts within a fixed time period in order to take timely countermeasures. In addition, the promising results of the forecasting method recommendation systems provide new opportunities to enhance forecasting performance for all types of time series, not just seasonal ones. Furthermore, we are the first to expose the deficiencies of the prior state-of-the-art forecasting method recommendation system. Concerning the contributions to critical event prediction based on multivariate monitoring data, we have already collaborated closely with industrial partners, which supports the practical relevance of the contributions of this thesis. The automated end-to-end design of the proposed workflows that do not demand profound domain or expert knowledge represents a milestone in bridging the gap between academic theory and industrial application. Finally, the workflow for predicting critical events in industrial machines is currently being operationalized in a real production system, underscoring the practical impact of this thesis. N2 - Die Bedeutung einer proaktiven und rechtzeitigen Vorhersage von kritischen Ereignissen nimmt immer weiter zu, sei es in der Fertigungsindustrie oder im Privatleben. In der Vergangenheit wurden Maschinen in der Fertigungsindustrie oft auf der Grundlage eines regelmäßigen Zeitplans oder aufgrund von Grenzwertverletzungen gewartet, was heutzutage nicht mehr wettbewerbsfähig ist, da es unnötige Kosten und Ausfallzeiten verursacht. Im Gegensatz dazu sind die Vorhersagen von kritischen Ereignissen im Alltag oft wesentlich versteckter und für die Privatperson kaum spürbar, es sei denn das kritische Ereignis tritt ein. So muss zum Beispiel unser Stromanbieter dafür sorgen, dass wir als Endverbraucher immer ausreichend mit Strom versorgt werden, oder unser Streaming-Dienst muss garantieren, dass wir unsere Lieblingsserie jederzeit ohne Unterbrechungen anschauen können. Hierzu müssen diese ständig analysieren wie der aktuelle Zustand ist, wie er sich in naher Zukunft entwickeln wird und wie sie reagieren müssen, um die zukünftigen Bedingungen zu bewältigen, ohne dass es zu Stromausfällen oder Videoabbrüchen kommt. Zur Analyse der Leistung eines Systems werden häufig Überwachungsmechanismen integriert, um Merkmale zu beobachten, die die Arbeitslast und den Zustand des Systems und seiner Umgebung abbilden. Reaktive Systeme verwenden typischerweise Schwellenwerte, Nutzenfunktionen oder Modelle, um den aktuellen Zustand des Systems zu bestimmen. Allerdings können solche reaktiven Systeme zukünftige Ereignisse nicht proaktiv abschätzen, sondern lediglich sobald diese eintreten. Bei kritischen Ereignissen ist die reaktive Bestimmung des aktuellen Systemzustands jedoch zwecklos, während ein proaktives System dieses Ereignis im Voraus hätte vorhersagen und rechtzeitig Gegenmaßnahmen einleiten können. Um Proaktivität zu erreichen, benötigt das System Abschätzungen über zukünftige Systemzustände. Angesichts der Kluft zwischen Entwurfszeit und Laufzeit ist es typischerweise nicht möglich Expertenwissen zu verwenden, um alle Situationen zu modellieren, auf die ein System zur Laufzeit stoßen könnte. Daher müssen Vorhersagemethoden in das System integriert werden. Abhängig von den verfügbaren Überwachungsdaten und der Komplexität der Vorhersageaufgabe müssen entweder Zeitreihenprognosen in Kombination mit Schwellenwerten oder ausgefeiltere Modelle des „Machine Learning“ und „Deep Learning“ trainiert werden. Obwohl in der Literatur schon zahlreiche Zeitreihenprognosemethoden vorgeschlagen wurden, haben alle diese Methoden in Abhängigkeit der Eigenschaften der betrachteten Zeitreihen ihre Vor- und Nachteile. Daher ist Expertenwissen erforderlich, um zu entscheiden, welche Zeitreihenprognosemethode gewählt werden sollte. Da jedoch die zur Laufzeit beobachteten Zeitreihen zur Entwurfszeit nicht bekannt sein können, lässt sich ein solches Expertenwissen nicht im System integrieren. Zusätzlich zur Auswahl einer geeigneten Zeitreihenprognosemethode sind mehrere Zeitreihenvorverarbeitungsschritte erforderlich, um eine zufriedenstellende Prognosegenauigkeit zu erreichen. In der Literatur wird diese Vorverarbeitung oft manuell durchgeführt, was für autonome Computersysteme, wie z. B. „Self-Aware Computing Systems“, nicht praktikabel ist. Hinsichtlich der Vorhersage kritischer Ereignisse auf der Grundlage multivariater Überwachungsdaten wurden in der Literatur auch bereits mehrere Ansätze unter Verwendung von „Machine Learning“ und „Deep Learning“ vorgestellt. Diese Ansätze sind jedoch typischerweise sehr domänenspezifisch, wie z. B. für finanzielle Zusammenbrüche, Lagerschäden oder Produktfehler. Aus diesem Grund erfordern sie umfassendes Expertenwissen. Durch den spezifischen Zuschnitt auf die jeweilige Domäne können diese Ansätze nicht vollständig automatisiert werden und sind nicht auf andere Anwendungsfälle übertragbar. Somit fehlt es in der Literatur an verallgemeinerbaren Ende-zu-Ende Prozessen zur Modellierung, Erkennung und Vorhersage von Ausfällen, die lediglich wenig Expertenwissen erfordern. Um diese Unzulänglichkeiten zu überwinden, wird in dieser Arbeit ein Systemmodell zur meta-selbstbewussten Vorhersage kritischer Ereignisse vorgestellt, das auf der LRA-M-Schleife von „Self-Aware Computing Systems“ basiert. Aufbauend auf diesem Systemmodell liefert diese Arbeit sechs weitere Beiträge zur Vorhersage kritischer Ereignisse. Während sich die ersten beiden Beiträge mit der Vorhersage kritischer Ereignisse auf der Basis univariater Daten mittels Zeitreihenprognose befassen, adressieren die drei folgenden Beiträge die Vorhersage kritischer Ereignisse für multivariate Überwachungsdaten unter Verwendung von „Machine Learning“ und „Deep Learning“ Algorithmen. Der letzte Beitrag schließlich behandelt das Aktualisierungsverfahren des Systemmodells. Im Einzelnen lassen sich die sieben Hauptbeiträge dieser Arbeit wie folgt zusammenfassen: Zunächst stellen wir ein Systemmodell für die meta-selbstbewusste Vorhersage von kritischen Ereignissen vor. Um sowohl univariate als auch multivariate Überwachungsdaten verarbeiten zu können, bietet es univariate Zeitreihenprognosen für Anwendungsfälle, in denen eine einzelne Beobachtungsgröße repräsentativ für den Zustand des Systems ist, sowie „Machine Learning“ und „Deep Learning“ Algorithmen in Kombination mit verschiedenen Vorverarbeitungstechniken für Anwendungsfälle, in denen eine große Anzahl von Variablen beobachtet wird, um den Zustand des Systems zu charakterisieren. Die beiden unterschiedlichen Modellierungsalternativen sind jedoch nicht disjunkt, da auch univariate Zeitreihenprognosen einbezogen werden können, um zukünftige Überwachungsdaten als zusätzliche Eingabe für die „Machine Learning“ und „Deep Learning“ Modelle zu schätzen. Schließlich ist eine Rückkopplungsschleife eingebaut, die die erreichte Vorhersagequalität überwacht und gegebenenfalls Modellaktualisierungen auslöst. Wir präsentieren eine neuartige, hybride Zeitreihenvorhersagemethode für univariate, saisonale Zeitreihen, die wir Telescope nennen. Telescope verarbeitet die Zeitreihe automatisch vor, führt eine Art „Divide-and-Conquer“ Technik durch, welche die Zeitreihe in mehrere Komponenten unterteilt, und leitet zusätzliche kategoriale Informationen ab. Anschließend prognostiziert es die Komponenten und kategorialen Informationen getrennt voneinander mit einer spezifischen Methode für jede Komponente. Abschließend setzt Telescope die einzelnen Vorhersagen wieder zusammen. Da Telescope alle Vorverarbeitungsschritte und Vorhersagen automatisch durchführt, stellt es einen vollständigen Ende-zu-Ende Ansatz für univariate, saisonale Zeitreihenvorhersagen dar. Experimentelle Ergebnisse zeigen, dass Telescope eine verbesserte Vorhersagegenauigkeit, zuverlässigere Vorhersagen und eine erhebliche Beschleunigung erreicht. Darüber hinaus wenden wir Telescope für die Vorhersage kritischer Ereignisse bei der automatischen Skalierung von virtuellen Maschinen an. Die Ergebnisse belegen, dass Telescope die durchschnittliche Antwortzeit erheblich reduziert und die Anzahl der Verletzungen der Service Level Zielvorgaben signifikant verringert. Für die automatische Auswahl einer geeigneten Zeitreihenprognosemethode führen wir zwei Empfehlungssysteme ein. Das erste System extrahiert verschiedene Zeitreihencharakteristika, um die Beziehung zwischen ihnen und der Prognosegenauigkeit zu erlernen. Im Gegensatz dazu unterteilt das zweite System die historischen Beobachtungen in interne Trainings- und Validierungsteile, um die am besten geeignete Zeitreihenprognosemethode zu schätzen. Außerdem beinhaltet letzteres System auch Zeitreihenvorverarbeitungsschritte. Vergleiche zwischen den vorgeschlagenen Empfehlungssystemen für Zeitreihenprognosemethoden und den einzelnen Prognosemethoden sowie dem Ansatz zur Empfehlung von Zeitreihenprognosemethoden nach dem Stand der Technik ergeben, dass die vorgeschlagenen Systeme die Prognosegenauigkeit erheblich verbessern. Im Hinblick auf multivariate Überwachungsdaten stellen wir zunächst einen Ende-zu-Ende Prozess vor, mit dem kritische Ereignisse in technischen Systemen in Form von anomalen Maschinenzuständen erkannt werden können. Der Ende-zu-Ende Entwurf umfasst die Rohdatenverarbeitung, die Phasensegmentierung, das Datenresampling, die Merkmalsextraktion und die Maschinenanomalieerkennung. Darüber hinaus stützt sich der Prozess explizit nicht auf tiefgreifendes Domänenwissen oder spezifische Überwachungsgrößen, sondern setzt lediglich gängige Maschinenüberwachungsdaten voraus. Wir evaluieren den Ende-zu-Ende Prozess anhand von Daten einer realen CNC-Maschine. Die Ergebnisse zeigen, dass die konventionelle Frequenzanalyse die kritischen Maschinenzustände nicht gut erkennt, während unser Prozess die kritischen Ereignisse mit einem F1-Wert von fast 91% sehr gut identifiziert. Um kritische Ereignisse vorherzusagen, anstatt sie nur reaktiv zu erkennen, vergleichen wir verschiedene Modellierungsalternativen für die Vorhersage kritischer Ereignisse im Anwendungsfall der Vorhersage der Zeit bis zum nächsten Fehler von Festplattenlaufwerken. Da Fehlerdatensätze typischerweise wesentlich seltener sind als Instanzen, die den Normalzustand repräsentieren, setzen wir verschiedene Strategien zum Erzeugen künstlicher Fehlerinstanzen ein. Im nächsten Schritt vergleichen wir die Vorhersagequalität der binären Klassenmodellierung mit der herunterskalierten Mehrklassenmodellierung. Des Weiteren integrieren wir die univariate Zeitreihenprognose in den Merkmalsgenerierungsprozess, um so die zukünftigen Überwachungsdaten zu schätzen. Schließlich modellieren wir die Zeit bis zum nächsten Fehler nicht nur mithilfe von Klassifikationsmodellen, sondern auch mit Regressionsmodellen. Die Ergebnisse legen nahe, dass die Mehrklassenmodellierung die insgesamt beste Vorhersagequalität hinsichtlich praktischer Anforderungen liefert. Außerdem belegen wir, dass die Prognose der Merkmale des Vorhersagemodells mittels univariater Zeitreihenprognose die Qualität der Vorhersage kritischer Ereignisse signifikant verbessert. Wir stellen einen Ende-zu-Ende Prozess für die Vorhersage kritischer Ereignisse von Industriemaschinen vor. Auch dieser Ansatz verlässt sich nicht auf Expertenwissen, mit Ausnahme der Definition von Überwachungsdaten, und stellt daher einen verallgemeinerbaren Prozess für die Vorhersage kritischer Ereignisse von Industriemaschinen dar. Der Prozess umfasst Merkmalsextraktion, Merkmalsverarbeitung, Zielklassenzuordnung und Modelllernen mit integrierter Hyperparameter-Abstimmung mittels einer Gittersuchtechnik. Ausgehend von den Ergebnissen des vorherigen Beitrags modelliert der Prozess die Vorhersage der Zeit bis zum nächsten Fehler in Form mehrerer Klassen, wobei wir verschiedene Beschriftungsstrategien für die Mehrklassenklassifizierung vergleichen. Die Evaluierung anhand realer Produktionsdaten einer großen Industriepresse demonstriert, dass der Prozess in der Lage ist, sechs verschiedene Zeitfenster für bevorstehende Fehler mit einem Makro F1-Wert von 90% vorherzusagen. Wenn man die Klassen der Zeit bis zum nächsten Fehler auf eine binäre Vorhersage von kritischen Ereignissen herunterskaliert, steigt der F1-Wert sogar auf über 98%. Schließlich stellen wir vier Aktualisierungsauslöser vor, um zu bestimmen, wann Modelle zur Vorhersage kritischer Ereignisse während der Online-Anwendung neu trainiert werden sollten. Ein solches Neutraining ist bspw. aufgrund von Konzeptdrift erforderlich. Die in dieser Arbeit vorgestellten Aktualisierungsauslöser berücksichtigen die Zeit, die seit der letzten Aktualisierung verstrichen ist, die auf den aktuellen Testdaten erreichte Vorhersagequalität und die auf den vorangegangenen Testdaten erreichte Vorhersagequalität. Wir vergleichen die verschiedenen Aktualisierungsstrategien miteinander und mit dem statischen Ausgangsmodell. Die Ergebnisse veranschaulichen die Notwendigkeit von Modellaktualisierungen während der Online-Anwendung und legen nahe, dass die Aktualisierungsauslöser, die sowohl die Vorhersagequalität der aktuellen als auch der vorangegangenen Testdaten berücksichtigen, den besten Kompromiss zwischen Vorhersagequalität und Anzahl der erforderlichen Aktualisierungen erzielen. Wir sind der festen Überzeugung, dass die Beiträge dieser Arbeit sowohl für die akademische Forschungsgemeinschaft als auch für die praktische Anwendung wichtige Impulse darstellen. Zuallererst sind wir unseres Wissens nach die ersten, die eine vollautomatische, hybride, komponentenbasierte, Ende-zu-Ende Prognosemethode für saisonale Zeitreihen vorschlagen, die auch die Zeitreihenvorverarbeitung beinhaltet. Durch die Verbindung einer zuverlässig hohen Vorhersagegenauigkeit mit einer zuverlässig niedrigen Zeit bis zum Ergebnis eröffnet diese viele neue Möglichkeiten für Anwendungen, die genaue Vorhersagen innerhalb eines festen Zeitraums erfordern, um rechtzeitig Gegenmaßnahmen ergreifen zu können. Darüber hinaus bieten die vielversprechenden Ergebnisse der Empfehlungssysteme für Zeitreihenprognosemethoden neue Ansätze zur Verbesserung der Vorhersageleistung für alle Arten von Zeitreihen, nicht nur für saisonale Zeitreihen. Ferner sind wir die ersten, die die Schwachstellen des bisherigen Stands der Technik bei der Empfehlung von Zeitreihenprognosemethoden aufgedeckt haben. Hinsichtlich der Beiträge zur Vorhersage kritischer Ereignisse mittels multivariater Überwachungsdaten haben wir bereits eng mit Industriepartnern zusammengearbeitet,wodurch die hohe praktische Relevanz der Beiträge dieser Arbeit verdeutlicht wird. Der automatisierte Ende-zu-Ende Entwurf der vorgeschlagenen Prozesse, die kein tiefes Domänen- oder Expertenwissen erfordern, stellt einen Meilenstein in der Überbrückung der Kluft zwischen akademischer Theorie und industrieller Anwendung dar. Diese Tatsache wird insbesondere dadurch untermauert, dass der Prozess zur Vorhersage kritischer Ereignisse in Industriemaschinen derzeit bereits in einem realen Produktionssystem operationalisiert wird. KW - Prognose KW - Automation KW - Zeitreihe KW - Forecasting KW - Zeitreihenvorhersage KW - Failure Prediction KW - Fehlervorhersage KW - End-to-End Automation KW - Ende-zu-Ende Automatisierung Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-255757 ER - TY - THES A1 - Zwettler, Fabian Ulrich T1 - Expansionsmikroskopie kombiniert mit hochauflösender Fluoreszenzmikroskopie T1 - Expansion Microscopy combined with Super-Resolution Fluorescence Microscopy N2 - Fluorescence microscopy is a form of light microscopy that has developed during the 20th century and is nowadays a standard tool in Molecular and Cell biology for studying the structure and function of biological molecules. High-resolution fluorescence microscopy techniques, such as dSTORM (direct Stochastic Optical Reconstruction Microscopy) allow the visualization of cellular structures at the nanometre scale (10−9 m). This has already made it possible to decipher the composition and function of various biopolymers, such as proteins, lipids and nucleic acids, up to the three-dimensional (3D) structure of entire organelles. In practice, however, it has been shown that these imaging methods and their further developments still face great challenges in order to achieve an effective resolution below ∼ 10 nm. This is mainly due to the nature of labelling biomolecules. For the detection of molecular structures, immunostaining is often performed as a standard method. Antibodies to which fluorescent molecules are coupled, recognize and bind specifcally and with high affnity to the molecular section of the target structure, also called epitope or antigen. The fluorescent molecules serve as reporter molecules which are imaged with the use of a fluorescence microscope. However, the size of these labels with a length of about 10-15 nm in the case of immunoglobulin G (IgG) antibodies, cause a detection of the fluorescent molecules shifted to the real position of the studied antigen. In dense regions where epitopes are located close to each other, steric hindrance between antibodies can also occur and leads to an insuffcient label density. Together with the shifted detection of fluorescent molecules, these factors can limit the achievable resolution of a microscopy technique. Expansion microscopy (ExM) is a recently developed technique that achieves a resolution improvement by physical expansion of an investigated object. Therefore, biological samples such as cultured cells, tissue sections, whole organs or isolated organelles are chemically anchored into a swellable polymer. By absorbing water, this so-called superabsorber increases its own volume and pulls the covalently bound biomolecules isotropically apart. Routinely, this method achieves a magnifcation of the sample by about four times its volume. But protocol variants have already been developed that result in higher expansion factors of up to 50-fold. Since the ExM technique includes in the frst instance only the sample treatment for anchoring and magnifcation of the sample, it can be combined with various standard methods of fluorescence microscopy. In theory, the resolution of the used imaging technique improves linearly with the expansion factor of the ExM treated sample. However, an insuffcient label density and the size of the antibodies can here again impair the effective achievable resolution. The combination of ExM with high-resolution fluorescence microscopy methods represents a promising strategy to increase the resolution of light microscopy. In this thesis, I will present several ExM variants I developed which show the combination of ExM with confocal microscopy, SIM (Structured Illumination Microscopy), STED (STimulated Emission Depletion) and dSTORM. I optimized existing ExM protocols and developed different expansion strategies, which allow the combination with the respective imaging technique. Thereby, I gained new structural insights of isolated centrioles from the green algae Chlamydomonas reinhardtii by combining ExM with STED and confocal microscopy. In another project, I combined 3D-SIM imaging with ExM and investigated the molecular structure of the so-called synaptonemal complex. This structure is formed during meiosis in eukaryotic cells and contributes to the exchange of genetic material between homologous chromosomes. Especially in combination with dSTORM, the ExM method showed its high potential to overcome the limitations of modern fluorescence microscopy techniques. In this project, I expanded microtubules in mammalian cells, a polymer of the cytoskeleton as well as isolated centrioles from C. reinhardtii. By labelling after expansion of the samples, I was able to signifcantly reduce the linkage error of the label and achieve an improved label density. In future, these advantages together with the single molecule sensitivity and high resolution obtained by the dSTORM method could pave the way for achieving molecular resolution in fluorescence microscopy N2 - Die Fluoreszenzmikroskopie ist eine Form der Lichtmikroskopie, die sich im Laufe des 20. Jahrhunderts entwickelt hat und heutzutage standardmäßig in der Molekular-und Zellbiologie zur Erforschung von Aufbau und Funktion biologischer Moleküle eingesetzt wird. Hochauflösende Verfahren der Fluoreszenzmikroskopie, wie die dSTORM (direct Stochastic Optical Reconstruction Microscopy) Technik, ermöglichen die Visualisierung zellulärer Strukturen im Nanometer-Größenbereich (10−9 m). Dadurch konnte bereits die Zusammensetzung und Funktion unterschiedlicher Biopolymere, wie die von Proteinen, Lipiden und Nukleinsäuren, bis hin zum dreidimensionalen (3D) Aufbau ganzer Organellen entschlüsselt werden. In der Praxis zeigt sich jedoch, dass diese Bildgebungsverfahren und ihre Weiterentwicklungen immer noch vor großen Herausforderungen stehen, bevor eine effektive Auflösung von unter ∼10 nm erreicht werden kann. Die größte Hürde stellt die Art und Weise der Markierung von Biomolekülen dar. Bei dieser wird zum Nachweis molekularer Strukturen häufig die sogenannte Immunfärbung als Standardmethode eingesetzt. Antikörper, welche mit Fluoreszenzmolekülen gekoppelt werden, erkennen und binden hierbei spezifisch und mit hoher Affinität den Molekülabschnitt der Zielstruktur, auch Epitop oder Antigen genannt. Die Fluoreszenzmoleküle dienen als Reportermoleküle, welche mit Hilfe eines Fluoreszenzmikroskops abgebildet werden. Die Größe der Antikörper, mit einer Länge von etwa 10-15 nm im Falle von Immunglobulin G (IgG) Antikörpern, bewirkt jedoch eine Detektion der fluoreszierenden Moleküle verschoben zur eigentlichen Lage des untersuchten Antigens. In Regionen mit räumlich dicht nebeneinander liegenden Epitopen kann es zusätzlich zur sterischen Hinderung zwischen den Antikörpern kommen. Dies führt zu einer unzureichenden Markierungsdichte und stellt - zusammen mit der verschobenen Detektion der Fluoreszenzmoleküle - eine Limitierung der zu erreichenden Auflösung dar. Die Expansionsmikroskopie (ExM) ist ein neu entwickeltes Verfahren, welches eine Auflösungsverbesserung durch die physikalische Expansion eines untersuchten Objekts erreicht. Hierbei werden biologische Proben, wie beispielsweise kultivierte Zellen, Gewebeschnitte, ganze Organe oder isolierte Organellen, chemisch in ein quellbares Polymer verankert. Durch Absorption von Wasser vergrößert dieser sogenannte Superabsorber sein eigenes Volumen und zieht während der räumlichen Expansion die kovalent gebundenen Biomoleküle isotrop auseinander. Standardmäßig wird durch dieses Verfahren eine Vergrößerung der Proben um etwa das vierfache Volumen erreicht, wobei bereits Protokollvarianten entwickelt wurden, die eine bis zu 50-fache Expansion erzielt haben. Da die ExM-Technik zunächst nur die Probenbehandlung zur Verankerung und Vergrößerung der Probe selbst beinhaltet, kann sie mit unterschiedlichen Standardmethoden der Fluoreszenzmikroskopie kombiniert werden. Dadurch verbessert sich die Auflösung des verwendeten Bildgebungsverfahrens theoretisch linear um den Faktor der Volumenvergrößerung der ExM behandelten Probe. Eine unzureichende Markierungsdichte und die Größe der verwendeten Antikörper können auch hier die effektiv erreichbare Auflösung beeinträchtigen. Die Kombination der ExM mit hochauflösenden Verfahren der Fluoreszenzmikroskopie stellt eine vielversprechende Strategie zur Erhöhung der bisher erreichbaren Auflösung in der Lichtmikroskopie dar. In dieser Arbeit werde ich mehrere von mir entwickelte ExM Varianten vorstellen, welche die Kombination von ExM mit konfokaler Mikroskopie, SIM (Structured Illumination Microscopy), STED (STimulated Emission Depletion) und dSTORM zeigen. Um die Verbindung mit dem jeweiligen Bildgebungsverfahren zu ermöglichen, optimierte ich bestehende ExM-Protokolle und entwickelte unterschiedliche Expansionsstrategien. Dadurch konnte ich neue strukturelle Erkenntnisse von isolierten Zentriolen aus der Grünalge Chlamydomonas reinhardtii durch die Verbindung von ExM mit STED und konfokaler Mikroskopie gewinnen. In einem weiteren Projekt kombinierte ich 3D-SIM mit ExM und untersuchte den molekularen Aufbau des sogenannten synaptonemalen Komplexes. Diese Struktur bildet sich in eukaryotischen Zellen während der Reifeteilung (Meiose) aus und trägt zum Austausch des genetischen Materials zwischen homologen Chromosomen bei. Vor allem in Verbindung mit dSTORM zeigte sich das hohe Potential der ExM-Methode, die bisherigen Limitierungen moderner Techniken der Fluoreszenzmikroskopie zu überwinden. In diesem Projekt expandierte ich Mikrotubuli in Säugetierzellen, ein Polymer des Zytoskeletts, sowie isolierte Zentriolen aus C. reinhardtii. Dadurch, dass die Markierung erst nach dem Expandieren der Proben erfolgte, gelang es, den Abstandsfehler der Markierung deutlich zu verringern und eine verbesserte Markierungsdichte zu erreichen. Diese Vorteile könnten in Verbindung mit der Einzelmolekülsensititvität und hohen Auflösung der dSTORM Methode Wegbereiter zur Erreichung einer molekularen Auflösung sein KW - Fluoreszenzmikroskopie KW - Expansionsmikroskopie KW - Einzelmolekül-Lokalisationsmikroskopie KW - Zentriolen KW - Synaptonemaler Komplex Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-212362 ER - TY - THES A1 - Zusan, Andreas T1 - The Effect of Morphology on the Photocurrent Generation in Organic Solar Cells T1 - Der Einfluss der Morphologie auf die Generierung von Photostrom in organischen Solarzellen N2 - Organic solar cells have great potential to become a low-cost and clean alternative to conventional photovoltaic technologies based on the inorganic bulk material silicon. As a highly promising concept in the field of organic photovoltaics, bulk heterojunction (BHJ) solar cells consist of a mixture of an electron donating and an electron withdrawing component. Their degree of intermixing crucially affects the generation of photocurrent. In this work, the effect of an altered blend morphology on polaron pair dissociation, charge carrier transport, and nongeminate recombination is analyzed by the charge extraction techniques time delayed collection field (TDCF) and open circuit corrected transient charge extraction (OTRACE). Different comparative studies cover a broad range of material systems, including polymer and small-molecule donors in combination with different fullerene acceptors. The field dependence of polaron pair dissociation is analyzed in blends based on the polymer pBTTT-C16, allowing a systematic tuning of the blend morphology by varying the acceptor type and fraction. The effect of both excess photon energy and intercalated phases are minor compared to the influence of excess fullerene, which reduces the field dependence of photogeneration. The study demonstrates that the presence of neat fullerene domains is the major driving force for efficient polaron pair dissociation that is linked to the delocalization of charge carriers. Furthermore, the influence of the processing additive diiodooctane (DIO) is analyzed using the photovoltaic blends PBDTTT-C:PC71BM and PTB7:PC71BM. The study reveals amulti-tiered alteration of the blend morphology of PBDTTT-C based blends upon a systematic increase of the amount of DIO. Domains on the hundred nanometers length scale in the DIO-free blend are identified as neat fullerene agglomerates embedded in an intermixed matrix. With the addition of the additive, 0.6% and 1% DIO already substantially reduces the size of these domains until reaching the optimum 3% DIO mixture, where a 7.1% power conversion efficiency is obtained. It is brought into connection with the formation of interpenetrating polymer and fullerene phases. Similar to PBDTTT-C, the morphology of DIO-free PTB7:PC71BM blends is characterized by large fullerene domains being decreased in size upon the addition of 3% DIO. OTRACE measurements reveal a reduced Langevin-type, super-second order recombination in both blends. It is demonstrated that the deviation from bimolecular recombination kinetics cannot be fully attributed to the carrier density dependence of the mobility but is rather related to trapping in segregated PC71BM domains. Finally, with regard to small-molecule donors, a higher yield of photogeneration and balanced transport properties are identified as the dominant factors enhancing the efficiency of vacuum deposited MD376:C60 relative to its solution processed counterpart MD376:PC61BM. The finding is explained by a higher degree of dimerization of the merocyanine dye MD376 and a stronger donor-acceptor interaction at the interface in the case of the vacuum deposited blend. N2 - Organische Solarzellen sind dank der Möglichkeit einer preisgünstigen und umweltfreundlichen Herstellung eine erfolgversprechende Alternative zu konventionellen Photovoltaiktechnologien, bei denen heutzutage hauptsächlich Silizium zum Einsatz kommt. Ein aussichtsreiches Konzept ist dabei die Heterogemisch (bulk heterojunction , BHJ)-Solarzelle. Deren aktive Schicht besteht aus einer Elektron-gebenden und einer Elektron-entziehenden Komponente, wobei die Generierung von Photostrom entscheidend von der Durchmischung beider Materialien abhängt. Dieser Einfluss der Morphologie auf die Trennung von Polaronpaaren, den Transport von freien Ladungsträgern und deren nichtgeminale Rekombination wird durch die Verwendung der Ladungsextraktionsmethoden time delayed collection field (TDCF) sowie open circuit corrected transient charge extraction (OTRACE) in dieser Arbeit im Detail untersucht. Die vorgestellten Studien umfassen mit Polymeren und kleinen Molekülen als Donatoren sowie verschiedenen Fulleren-Akzeptoren unterschiedlichste Materialsysteme. Der erste Teil der Arbeit befasst sich mit der feldabhängigen Trennung von Polaronpaaren in Solarzellen, die unter Verwendung des Polymers pBTTT-C16 hergestellt werden. Das Materialsystem erlaubt eine systematische Anpassung der Morphologie durch Art und Anteil des Akzeptors. Die Untersuchungen zeigen, dass sowohl Überschussenergie als auch interkalierte Phasen lediglich eine geringe Auswirkung auf die Photogenerierung haben, diese jedoch stark von der Fullerenmenge im Gemisch beeinflusst wird. Das Ergebnis verdeutlicht, dass reine Fullerendomänen die treibende Kraft für eine effiziente Trennung von Polaronpaaren sind, was mit der Delokalisierung von Ladungsträgern verknüpft wird. Im zweiten Teil wird der Einfluss des Additivs Diiodooktan (DIO) auf das Materialsystem PBDTTT-C:PC71BM untersucht. Die Studie zeigt eine mehrstufige Änderung der Morphologie bei einer schrittweisen Erhöhung der verwendeten DIO Menge. Wird das Heterogemisch PBDTTT-C:PC71BM ohne DIO hergestellt, ist dessen Nanostruktur durch große Agglomerate geprägt, die als reine Fullerendomänen identifiziert werden. Bereits die Verwendung von 0.6% und 1% DIO führt zu einer deutlichen Verkleinerung dieser Domänen, wobei erst die maximale Effizienz der mit 3% DIO hergestellten Solarzelle mit der Ausbildung von vernetzten Polymer- und Fullerenphasen in Verbindung gebracht wird. Vergleichbar zu PBDTTT-C weist auch PTB7:PC71BM große Fullerendomänen und deren bessere Dispersion durch die Verwendung von 3% DIO auf. In beiden Fällen zeigt OTRACE eine reduzierte Langevin-artige Rekombination sowie die Abweichung von einem bimolekularen Verhalten. Da diese erhöhte Rekombinationsordnung nicht mit der Ladungsträgerdichtenabhängigkeit der Mobilität erklärt werden kann, wird sie dem Einfangen von Ladungsträgern in Fullerendomänen zugeordnet. Im letzten Teil wird gezeigt, dass eine ergiebigere Photogenerierung sowie ausgeglichene Transporteigenschaften eine erhöhte Bauteileffizienz von aufgedampften MD376:C60 Solarzellen im Vergleich zum flüssigprozessierten Pendant MD376:PC61BM bedingen. Die Beobachtung wird mit einer verbesserten Dimerisation des Merocyanins MD376 und einer stärkeren Donator-Akzeptor-Wechselwirkung an der Grenzfläche erklärt. KW - Organische Solarzelle KW - Photostrom KW - Ladungsträgergenerierung KW - geminale Rekombination KW - nichtgeminale Rekombination KW - Elektronentransport KW - Photovoltaik KW - Rekombination Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-117852 ER - TY - THES A1 - Zude, Ingmar T1 - Characterization of virulence-associated traits of Escherichia coli bovine mastitis isolates T1 - Charakterisierung Virulenz-assozierter Eigenschaften von Escherichia coli Isolaten boviner Mastitis N2 - Bacterial mastitis is caused by invasion of the udder, bacterial multiplication and induction of inflammatory responses in the bovine mammary gland. Disease severity and the cause of disease are influenced by environmental factors, the cow’s immune response as well as bacterial traits. Escherichia coli (E. coli) is one of the main causes of acute bovine mastitis, but although pathogenic E. coli strains can be classified into different pathotypes, E. coli causing mastitis cannot unambiguously be distinguished from commensal E. coli nor has a common set of virulence factors been described for mastitis isolates. This project focussed on the characterization of virulence- associated traits of E. coli mastitis isolates in comprehensive analyses under conditions either mimicking initial pathogenesis or conditions that E. coli mastitis isolates should encounter while entering the udder. Virulence-associated traits as well as fitness traits of selected bovine mastitis or faecal E. coli strains were identified and analyzed in comparative phenotypic assays. Raw milk whey was introduced to test bacterial fitness in native mammary secretion known to confer antimicrobial effects. Accordingly, E. coli isolates from bovine faeces represented a heterogeneous group of which some isolates showed reduced ability to survive in milk whey whereas others phenotypically resembled mastitis isolates that represented a homogeneous group in that they showed similar survival and growth characteristics in milk whey. In contrast, mastitis isolates did not exhibit such a uniform phenotype when challenged with iron shortage, lactose as sole carbon source and lingual antimicrobial peptide (LAP) as a main defensin of milk. Reduced bacterial fitness could be related to LAP suggesting that bacterial adaptation to an intramammary lifestyle requires resistance to host defensins present in mammary secretions, at least LAP. E. coli strain 1303 and ECC-1470 lack particular virulence genes associated to mastitis isolates. To find out whether differences in gene expression may contribute to the ability of E. coli variants to cause mastitis, the transcriptome of E. coli model mastitis isolates 1303 and ECC-1470 were analyzed to identify candidate genes involved in bacterium-host interaction, fitness or even pathogenicity during bovine mastitis. DNA microarray analysis was employed to assess the transcriptional response of E. coli 1303 and ECC-1470 upon cocultivation with MAC-T immortalized bovine mammary gland epithelial cells to identify candidate genes involved in bacterium-host interaction. Additionally, the cell adhesion and invasion ability of E. coli strain 1303 and ECC-1470 was investigated. The transcriptonal response to the presence of host cells rather suggested competition for nutrients and oxygen between E. coli and MAC-T cells than marked signs of adhesion and invasion. Accordingly, mostly fitness traits that may also contribute to efficient colonization of the E. coli primary habitat, the gut, have been utilized by the mastitis isolates under these conditions. In this study, RNA-Seq was employed to assess the bacterial transcriptional response to milk whey. According to our transcriptome data, the lack of positively deregulated and also of true virulence-associated determinants in both of the mastitis isolates indicated that E. coli might have adapted by other means to the udder (or at least mammary secretion) as an inflammatory site. We identified traits that promote bacterial growth and survival in milk whey. The ability to utilize citrate promotes fitness and survival of E. coli that are thriving in mammary secretions. According to our results, lactoferrin has only weak impact on E. coli in mammary secretions. At the same time bacterial determinants involved in iron assimilation were negatively regulated, suggesting that, at least during the first hours, iron assimilation is not a challenge to E. coli colonizing the mammary gland. It has been hypothesized that cellular iron stores cause temporary independency to extracellular accessible iron. According to our transcriptome data, this hypothesis was supported and places iron uptake systems beyond the speculative importance that has been suggested before, at least during early phases of infection. It has also been shown that the ability to resist extracytoplasmic stress, by oxidative conditions as well as host defensins, is of substantial importance for bacterial survival in mammary secretions. In summary, the presented thesis addresses important aspects of host-pathogen interaction and bacterial conversion to hostile conditions during colonization of the mastitis inflammatory site, the mammary gland. N2 - Bei der bakteriellen Mastitis handelt es sich um eine Infektion der bovinen Milchdrüse, ausgelöst durch Eintritt und Wachstum der Bakterien im Euter der Kuh. Krankheitsverlauf und Ursache werden beeinflusst durch Umweltfaktoren, das Immunsystem des Wirtes und die Eigenschaften des bakteriellen Erregers. Die Spezies Escherichia coli (E. coli) ist einer der häufigsten Erreger der akuten bovinen Mastitis. Generell können pathogene E. coli -Stämme entsprechend ihres Infektionsortes in verschiedene Pathotypen klassifiziert werden, die durch eine individuelle Kombination verschiedener Virulenzfaktoren gekennzeichnet sind. Eine eindeutige Unterscheidung von E. coli –Mastitiserregern und kommensalen E. coli -Stämmen ist bisher nicht beschrieben. Diese Studie befasst sich mit der Charakterisierung virulenz-assozierter Eigenschaften von E. coli –Isolaten der bovinen Mastitis. Dazu wurden Untersuchungen unter Bedingungen durchgeführt, die denen während der Anfangsphase der Mastitis entsprechen. Die Virulenz und Fitness-assoziierten Eigenschaften ausgewählter E. coli Mastitis- und Fäkalisolate wurden in vergleichenden phenotypischen Assays identifiziert und analysiert. Zur Untersuchung der bakteriellen Fitness in Milchdrüsensekreten wurde native Molke mit antimikrobiellen Eigenschaften von Rohmilch genutzt. Dabei stellte sich heraus dass E. coli Fäkalisolate eine heterogene Gruppe bilden. Innerhalb dieser Gruppe wiesen einige Isolate eine verminderte Überlebensrate auf. Andere Fäkalisolate zeigten eine höhere Überlebensrate, ähnlich der Überlebensrate von Mastitiserregern. Im Gegensatz zum ihrem grundsätzlich guten Überleben in Molke zeigten Mastitisisolate keine einheitlichen phänotypischen Merkmale bei Wachstum mit 1) Lactose als einziger Kohlenstoffquelle, 2) Eisenlimitierung, oder 3) unter Einfluss von lingualem antimikrobiellem Peptid (LAP), einem bedeutenden Defensin der Wirtsantwort im Euter. Die verminderte Fähigkeit in Milchdrüsensekreten zu überleben korrelierte mit der konzentrationsabhängigen Überlebensfähigkeit in Gegenwart von LAP. Dies lässt vermuten dass eine Anpassung der Bakterien an die Lebensbedingungen in der bovinen Milchdrüse der Resistenz gegenüber Defensinen (u.a. LAP) bedarf. Den Mastitis-isolaten E. coli 1303 und ECC 1470 fehlen diverse Virulenzgene die bereits mit Mastitis assoziiert werden konnten. Um zu bestimmen ob Unterschiede in der Genexpression beider E. coli Isolate dazu beitragen Mastitis auszulösen, wurden Transkriptomanalysen durchgeführt. Dabei sollten vor allem Kandidatengene bestimmt werden, die an der Wirt-Pathogen-Interaktion beteiligt sind oder zur bakteriellen Fitness oder Virulenz der Erreger beitragen. Auf der Basis von DNA Microarrays wurde die Genexpression von E. coli 1303 und ECC 1470 in Gegenwart von immortalisierten Zellen des bovinen Milchdrüsenepithels (MAC-T) bestimmt. Zusätzlich wurde die Fähigkeit zur Zelladhäsion und Internalisierung beider Isolate untersucht. Die bakterielle Transkriptionsantwort in Gegenwart der Wirtszellen ergab, dass Erreger und Wirtszellen eher um den Bedarf an Nährstoffen und Sauerstoff konkurrierten, anstatt deutliche Anzeichen der Zelladhäsion oder Invasion zu zeigen. Beide Isolate nutzten vornehmlich Fitnesseigenschaften, die auch bei der Besiedlung des Darms als dem primären Habitat von E. coli verwendet werden. In dieser Studie wurde außerdem die Genexpression von E. coli 1303 und ECC 1470 in Reaktion auf Molke aus Rohmilch mittels Gesamt-Transkriptom-Sequenzierung (RNA Seq) untersucht. Die Transkriptomanalyse ergab keine wirklich deregulierten virulenz-assozierten Gene in einer der beiden E. coli Mastitis Isolate. Ferner konnten Eigenschaften identifiziert werden, die zum Wachstum und Überleben in nativer Molke beitragen. Die Fähigkeit, Citrat zu verwerten, begünstigt das erfolgreiche Überleben in Milchdrüsensekten und stellt einen wichtigen Fitnessfaktor dar. Unsere Transkriptomdaten bestätigen dass Lactoferrin nur geringen Einfluss auf das Wachstum, von E. coli in Milchdrüsensekreten, hat. Die Expression bakterieller Determinanten, die an der Aufnahme von Eisen beteiligt sind, wurde herunterreguliert. Dies lässt darauf schließen dass Eisenaufnahme in den ersten Stunden der Kolonisierung durch die Erreger keine essentielle Fitnesseigenschaft darstellt. Vermutlich reicht die intrazelluläre Menge an Eisen aus, um eine zeitweise Unabhängigkeit von extrazellular verfügbarem Eisen zu ermöglichen. Diese These konnte durch unsere Transkriptomdaten gestützt werden und stellt eine wichtige Entdeckung in Bezug auf die Verfügbarkeit von Eisen während der Kolonisierung der Milchdrüse dar. Unsere Daten zeigen, dass die Resistenz gegenüber extrazellulärem Stress durch oxidative Bedingungen und Defensine des Wirtes von großer Bedeutung für das bakterielle Überleben in Milchdrüsensekreten ist. Die vorliegende Thesis befasst sich mit wichtigen Aspekten der Wirt-Pathogen-Interaktion und der Anpassung an die antimikrobiellen Bedingungen während der Kolonisierung der Milchdrüse als Ort der Infektion. KW - Escherichia coli KW - mastitis KW - infection KW - virulence KW - transcriptome analysis KW - Kuh KW - Brustdrüsenentzündung KW - Virulenz Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-100934 ER - TY - THES A1 - Zube, Christina T1 - Neuronal representation and processing of chemosensory communication signals in the ant brain N2 - Ants heavily rely on olfaction for communication and orientation and ant societies are characterized by caste- and sex-specific division of labor. Olfaction plays a key role in mediating caste-specific behaviours. I investigated whether caste- and sex-specific differences in odor driven behavior are reflected in specific differences and/or adaptations in the ant olfactory system. In particular, I asked the question whether in the carpenter ant, Camponotus floridanus, the olfactory pathway exhibits structural and/or functional adaptations to processing of pheromonal and general odors. To analyze neuroanatomical specializations, the central olfactory pathway in the brain of large (major) workers, small (minor) workers, virgin queens, and males of the carpenter ant C. floridanus was investigated using fluorescent tracing, immunocytochemistry, confocal microscopy and 3D-analyzes. For physiological analyzes of processing of pheromonal and non-pheromonal odors in the first odor processing neuropil , the antennal lobe (AL), calcium imaging of olfactory projection neurons (PNs) was applied. Although different in total glomerular volumes, the numbers of olfactory glomeruli in the ALs were similar across the female worker caste and in virgin queens. Here the AL contains up to ~460 olfactory glomeruli organized in 7 distinct clusters innervated via 7 antennal sensory tracts. The AL is divided into two hemispheres regarding innervations of glomeruli by PNs with axons leaving via a dual output pathway. This pathway consists of the medial (m) and lateral (l) antenno-cerebral tract (ACT) and connects the AL with the higher integration areas in the mushroom bodies (MB) and the lateral horn (LH). M- and l-ACT PNs differ in their target areas in the MB calyx and the LH. Three additional ACTs (mediolateral - ml) project to the lateral protocerebrum only. Males had ~45% fewer glomeruli compared to females and one of the seven sensory tracts was absent. Despite a substantially smaller number of glomeruli, males possess a dual PN output pathway to the MBs. In contrast to females, however, only a small number of glomeruli were innervated by projection neurons of the m-ACT. Whereas all glomeruli in males were densely innervated by serotonergic processes, glomeruli innervated by sensory tract six lacked serotonergic innervations in the female castes. It appears that differences in general glomerular organization are subtle among the female castes, but sex-specific differences in the number, connectivity and neuromodulatory innervations of glomeruli are substantial and likely to promote differences in olfactory behavior. Calcium imaging experiments to monitor pheromonal and non-pheromonal processing in the ant AL revealed that odor responses were reproducible and comparable across individuals. Calcium responses to both odor groups were very sensitive (10-11 dilution), and patterns from both groups were partly overlapping indicating that processing of both odor classes is not spatially segregated within the AL. Intensity response patterns to the pheromone components tested (trail pheromone: nerolic acid; alarm pheromone: n-undecane), in most cases, remained invariant over a wide range of intensities (7-8 log units), whereas patterns in response to general odors (heptanal, octanol) varied across intensities. Durations of calcium responses to stimulation with the trail pheromone component nerolic acid increased with increasing odor concentration indicating that odor quality is maintained by a stable pattern (concentration invariance) and intensity is mainly encoded in the response durations of calcium activities. For n-undecane and both general odors increasing response dynamics were only monitored in very few cases. In summary, this is the first detailed structure-function analyses within the ant’s central olfactory system. The results contribute to a better understanding of important aspects of odor processing and olfactory adaptations in an insect’s central olfactory system. Furthermore, this study serves as an excellent basis for future anatomical and/or physiological experiments. N2 - Für Ameisen spielt die olfaktorische Kommunikation und Orientierung eine zentrale Rolle hinsichtlich der Organisation des Ameisenstaates. Ob sich kasten- und geschlechtsspezifische Verhaltensunterschiede auf neuronaler Ebene und besonders im olfaktorischen System der Ameise widerspiegeln ist die zentrale Frage meiner Arbeit. Im Speziellen stellte ich die Frage, ob sich in der olfaktorischen Bahn der Rossameise Camponotus floridanus strukturelle oder funktionelle Anpassungen an die Verarbeitung von Pheromonen und generellen Düften aufzeigen lassen. Zur Analyse hinsichtlich neuroanatomischer Spezialisierungen wurde die olfaktorische Bahn im Gehirn von großen und kleinen Arbeiterinnen, Jungköniginnen und Männchen der Rossameise C. floridanus mittels Fluoreszenzmassenfärbungen, Immunzytochemie, konfokaler Laserscanningmikroskopie und 3D-Auswertung untersucht. Um die Verarbeitung von Pheromonen und generellen Düften im primären olfaktorischen Neuropil, dem Antennallobus (AL), auf physiologischer Ebene zu charakterisieren wurden olfaktorische Projektionsneurone mittels Calcium Imaging untersucht. Obwohl sich das glomeruläre Gesamtvolumen der ALs zwischen Arbeiterinnenkasten und Jungköniginnen unterscheidet, lag die Gesamtzahl der Glomeruli im AL in einem ähnlichen Bereich. Der AL besteht in allen drei weiblichen Kasten aus bis zu 460 Glomeruli, die in sieben Clustern angeordnet sind und von sieben sensorischen Eingangstrakten innerviert werden. Der AL unterteilt sich in zwei Hemispheren, deren entsprechende Glomeruli von Projektionsneuronen innverviert werden, die vom AL über die Nervenbahn des “dual output pathway” in höhere Hirnregionen projizieren. Diese Nervenbahn besteht aus dem medialen (m) und lateralen (l) Antennocerebraltrakt (ACT) und verbindet den AL mit höheren Integrationszentren wie den Pilzkörpern (MB) und dem lateralen Horn (LH). M- und l-ACT unterscheiden sich in ihren Zielregionen im MB Calyx und dem LH. Drei weitere ACTs (mediolateral – ml) projizieren ausschließlich ins laterale Protocerebrum. Männchen besitzen ca. 45% weniger Glomeruli im Vergleich zur Weibchenkaste. Ihnen fehlt weiterhin einer der sieben sensorischen Eingangstrakte vollständig. Trotz der wesentlich geringeren Anzahl an Glomeruli, besitzen auch Männchen den “dual output pathway”. Im Gegensatz zu den Weibchen ist allerdings nur eine geringe Anzahl an Glomeruli durch m-ACT Projektionsneurone innerviert. Ein weiterer Unterschied im AL von Männchen und Weibchen findet sich in den Glomeruli des sensorische Trakts Nummer sechs, die bei Weibchen keinerlei serotonerge Innervierung aufweisen während beim Männchen der gesamte AL dichte serotonerge Verzweigungen besitzt. Es zeigt sich somit, dass die kastenspezifischen Unterschiede in der allgmeinen glomerulären Organisation des AL innerhalb der Weibchenkaste nur sehr fein sind. Im Gegensatz dazu sind die geschlechtsspezifischen Unterschiede in Anzahl, Konnektivität und neuromodulatorischer Innervierung von Glomeruli zwischen Weibchen- und Männchen wesentlich ausgeprägter was Unterschiede in olfaktorisch geprägten Verhaltensweisen begünstigen könnte. Die Calcium Imaging Experimente zur Untersuchung der Verarbeitung von Pheromonen und generellen Düften im AL der Ameise zeigten, dass Duftantworten reproduzierbar und zwischen Individuen vergleichbar waren. Die Sensitivität des Calcium Signals lag für beide Duftgruppen in einem sehr niedrigen Bereich (Verdünnung 10-11). Die Antortmuster beider Duftgruppen überlappten zum Teil, was die Annahme zuläßt, dass die Verarbeitung von Pheromonen und generellen Düften keiner räumlichen Trennung innerhalb des AL unterliegt. Die Intensität der Antwortmuster auf die Pheromonkomponenten (Spurpheromon: Nerolsäure; Alarmpheromon: n-Undecan) blieben in den meisten Fällen über einen weiten Konzentrationsbereich konstant (7-8 log Einheiten). Die Dauer der Calciumantwort nach Stimulation mit Nerolsäure verlängerte sich mit steigender Duftkonzentration. Dies läßt für das Spurpheromon den Schluß zu, dass die Duftqualität in einem konstanten Duftmuster (Konzentrationsinvarianz) repräsentiert und die Duftintensität über die Dauer des Calciumsignals abgebildet wird. Da die Antwortmuster auf generelle Düfte (Heptanal, Octanol) dagegen sehr viel stärker innerhalb des getesteten Konzentrationsbereichs varrieren ließ sich für n-Undecan und die beiden generellen Düfte eine solche Dynamik nur in einigen wenigen Fällen beobachtet. Zusammenfassend ist diese Studie die erste strukturelle und funktionelle Studie des olfaktorischen Systems der Ameise. Die Ergebnisse tragen zu einem besseren Verständnis der neuronalen Adaptationen und Mechanismen hinsichtlich Duftverarbeitung im zentralen Nervensystem von Insekten bei. Außerdem liefert diese Studie eine wichtige Grundlage für zukünftige neuroanatomische und –physiologische Untersuchungen auf dem Gebiet der Neurobiologie der Insekten. KW - Gehirn KW - Neuroethologie KW - Neuroanatomie KW - Geruchswahrnehmung KW - Neuronale Plastizität KW - Insekten KW - Antennallobus KW - Glomeruli KW - olfaktorische Bahn KW - Camponotus floridanus KW - Dufverarbeitung KW - antennal lobe KW - glomeruli KW - olfactory pathway KW - Campontous floridanus KW - odor processing Y1 - 2008 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-30383 ER - TY - THES A1 - Zott, Maximilian T1 - Extreme Value Theory in Higher Dimensions - Max-Stable Processes and Multivariate Records T1 - Höherdimensionale Extremwerttheorie - Max-Stabile Prozesse und Multivariate Rekorde N2 - Die Extremwerttheorie behandelt die stochastische Modellierung seltener und extremer Ereignisse. Während fundamentale Theorien in der klassischen Stochastik, wie etwa die Gesetze der großen Zahlen oder der zentrale Grenzwertsatz das asymptotische Verhalten der Summe von Zufallsvariablen untersucht, liegt in der Extremwerttheorie der Fokus auf dem Maximum oder dem Minimum einer Menge von Beobachtungen. Die Grenzverteilung des normierten Stichprobenmaximums unter einer Folge von unabhängigen und identisch verteilten Zufallsvariablen kann durch sogenannte max-stabile Verteilungen charakterisiert werden. In dieser Dissertation werden verschiedene Aspekte der Theorie der max-stabilen Zufallsvektoren und stochastischen Prozesse behandelt. Insbesondere wird der Begriff der 'Differenzierbarkeit in Verteilung' eines max-stabilen Prozesses eingeführt und untersucht. Ferner werden 'verallgemeinerte max-lineare Modelle' eingeführt, um einen bekannten max-stabilen Zufallsvektor durch einen max-stabilen Prozess zu interpolieren. Darüber hinaus wird der Zusammenhang von extremwerttheoretischen Methoden mit der Theorie der multivariaten Rekorde hergestellt. Insbesondere werden sogenannte 'vollständige' und 'einfache' Rekorde eingeführt, und deren asymptotisches Verhalten untersucht. N2 - Extreme value theory is concerned with the stochastic modeling of rare and extreme events. While fundamental theories of classical stochastics - such as the laws of small numbers or the central limit theorem - are used to investigate the asymptotic behavior of the sum of random variables, extreme value theory focuses on the maximum or minimum of a set of observations. The limit distribution of the normalized sample maximum among a sequence of independent and identically distributed random variables can be characterized by means of so-called max-stable distributions. This dissertation concerns with different aspects of the theory of max-stable random vectors and stochastic processes. In particular, the concept of 'differentiability in distribution' of a max-stable process is introduced and investigated. Moreover, 'generalized max-linear models' are introduced in order to interpolate a known max-stable random vector by a max-stable process. Further, the connection between extreme value theory and multivariate records is established. In particular, so-called 'complete' and 'simple' records are introduced as well as it is examined their asymptotic behavior. KW - Stochastischer Prozess KW - Extremwertstatistik KW - max-stable process KW - max-linear model KW - Wahrscheinlichkeitsrechnung KW - Rekord Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-136614 ER - TY - THES A1 - Zoran, Tamara T1 - Multilevel analysis of the human immune response to \(Aspergillus\) \(fumigatus\) infection: Characteristic molecular signatures and individual risk factors T1 - Analysen der humanen Immunantwort auf eine Infektion mit \(Aspergillus\) \(fumigatus\): Charakteristische molekulare Signaturen und individuelle Risikofaktoren N2 - Although the field of fungal infections advanced tremendously, diagnosis of invasive pulmonary aspergillosis (IPA) in immunocompromised patients continues to be a challenge. Since IPA is a multifactorial disease, investigation from different aspects may provide new insights, helpful for improving IPA diagnosis. This work aimed to characterize the human immune response to Aspergillus fumigatus in a multilevel manner to identify characteristic molecular candidates and risk factors indicating IPA, which may in the future support already established diagnostic assays. We combined in vitro studies using myeloid cells infected with A. fumigatus and longitudinal case-control studies investigating patients post allogeneic stem cell transplantation (alloSCT) suffering from IPA and their match controls. Characteristic miRNA and mRNA signatures indicating A. fumigatus-infected monocyte-derived dendritic cells (moDCs) demonstrated the potential to differentiate between A. fumigatus and Escherichia coli infection. Transcriptome and protein profiling of alloSCT patients suffering from IPA and their matched controls revealed a distinctive IPA signature consisting of MMP1 induction and LGAL2 repression in combination with elevated IL-8 and caspase-3 levels. Both, in vitro and case-control studies, suggested cytokines, matrix-metallopeptidases and galectins are important in the immune response to A. fumigatus. Identified IPA characteristic molecular candidates are involved in numerous processes, thus a combination of these in a distinctive signature may increase the specificity. Finally, low monocyte counts, severe GvHD of the gut (grade ≥ 2) and etanercept administration were significantly associated with IPA diagnosis post alloSCT. Etanercept in monocyte-derived macrophages (MDM) infected with A. fumigatus downregulates genes involved in the NF-κB and TNF-α pathway and affects the secretion of CXCL10. Taken together, identified characteristic molecular signatures and risk factors indicating IPA may in the future in combination with established fungal biomarkers overcome current diagnostic challenges and help to establish tailored antifungal therapy. Therefore, further multicentre studies are encouraged to evaluate reported findings. N2 - Obwohl im Bereich der Erforschung invasiver Pilzinfektionen aktuell enorme Fortschritte erzielt wurden, stellt die Diagnose der Invasiven Pulmonalen Aspergillose (IPA) bei immunsupprimierten Patienten weiterhin eine grosse Herausforderung dar. Da es sich bei der IPA um eine multifaktorielle Erkrankung handelt, können Untersuchungen unter verschiedenen Fragestellungen neue Erkenntnisse liefern, die zur Verbesserung der IPA Diagnose beitragen. In dieser Arbeit wurde die humane Immunantwort auf Aspergillus fumigatus auf mehreren Ebenen untersucht, um charakteristische molekulare Kandidaten und Risikofaktoren zu identifizieren, die auf eine IPA hinweisen um so in Zukunft bereits etablierte diagnostische Tests unterstützen zu können. Wir kombinierten in vitro Studien mit A. fumigatus infizierten, myeloischen Zellen mit longitudinalen Case-Control-Studien, in denen an IPA erkrankte Patienten und ihre passenden Kontrollpatienten nach allogener Stammzelltransplantation (alloSZT) untersucht wurden. Charakteristische miRNA und mRNA Signaturen von A. fumigatus-infizierten Monozyten-abgeleiteten dendritischen Zellen (moDCs) zeigten das Potenzial, zwischen A. fumigatus und Escherichia coli Infektionen zu unterscheiden. Transkriptom- und Protein- Analysen von alloSZT Patienten, die an einer IPA erkrankten, und den passenden Kontrollpatienten ergaben charakteristische IPA Signaturen, bestehend aus einer MMP1 Induktion und einer LGALS2 Repression, in Kombination mit erhöhten IL-8 und Caspase-3 Konzentrationen. Sowohl die in vitro Daten als auch die Fall-Kontroll- Studien zeigten, dass Zytokine, Matrix-Metallopeptidasen und Galectine eine wichtige Rolle bei der Immunantwort auf A. fumigatus spielen. Die in IPA identifizierten charakteristischen molekularen Kandidaten sind an mehreren Prozessen beteiligt, so dass eine Kombination dieser molekularen Kandidaten die Spezifität mittels charakteristischer Signatur erhöhen könnte. Schließlich waren niedrige Monozytenzahlen, eine schwere GvHD des Darms (Grad ≥ 2) und die Anwendung von Etanercept signifikant mit einer IPA Diagnose nach alloSZT assoziiert. Etanercept in Makrophagen, die mit A. fumigatus ko-kultiviert wurden, reguliert Gene herunter, die am NF-κB- und TNF-α-Signalweg beteiligt sind, und beeinflusst die Sekretion von CXCL10. Zusammenfassend lässt sich festhalten, dass die identifizierten charakteristischen molekularen Signaturen und Risikofaktoren, die auf eine IPA hinweisen, in Zukunft in Kombination mit etablierten Pilz-Biomarkern die derzeitigen diagnostischen Limitationen überwinden könnten und dazu beitragen könnten, eine patientenindividuelle antimykotische Therapie zu etablieren. Es werden jedoch weitere multizentrische Studien notwendig sein, um diese Ergebnisse umfassend zu bewerten. KW - Aspergillus fumigatus KW - Immunantwort KW - Risikofaktoren KW - invasive pulmonary aspergillosis KW - immune response KW - risk factors KW - transcriptome profiling Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-298512 ER - TY - THES A1 - Zinner, Thomas T1 - Performance Modeling of QoE-Aware Multipath Video Transmission in the Future Internet T1 - Leistungsmodellierung einer Mehrpfad Video Übertragung im zukünftigen Internet unter Berücksichtigung der QoE N2 - Internet applications are becoming more and more flexible to support diverge user demands and network conditions. This is reflected by technical concepts, which provide new adaptation mechanisms to allow fine grained adjustment of the application quality and the corresponding bandwidth requirements. For the case of video streaming, the scalable video codec H.264/SVC allows the flexible adaptation of frame rate, video resolution and image quality with respect to the available network resources. In order to guarantee a good user-perceived quality (Quality of Experience, QoE) it is necessary to adjust and optimize the video quality accurately. But not only have the applications of the current Internet changed. Within network and transport, new technologies evolved during the last years providing a more flexible and efficient usage of data transport and network resources. One of the most promising technologies is Network Virtualization (NV) which is seen as an enabler to overcome the ossification of the Internet stack. It provides means to simultaneously operate multiple logical networks which allow for example application-specific addressing, naming and routing, or their individual resource management. New transport mechanisms like multipath transmission on the network and transport layer aim at an efficient usage of available transport resources. However, the simultaneous transmission of data via heterogeneous transport paths and communication technologies inevitably introduces packet reordering. Additional mechanisms and buffers are required to restore the correct packet order and thus to prevent a disturbance of the data transport. A proper buffer dimensioning as well as the classification of the impact of varying path characteristics like bandwidth and delay require appropriate evaluation methods. Additionally, for a path selection mechanism real time evaluation mechanisms are needed. A better application-network interaction and the corresponding exchange of information enable an efficient adaptation of the application to the network conditions and vice versa. This PhD thesis analyzes a video streaming architecture utilizing multipath transmission and scalable video coding and develops the following optimization possibilities and results: Analysis and dimensioning methods for multipath transmission, quantification of the adaptation possibilities to the current network conditions with respect to the QoE for H.264/SVC, and evaluation and optimization of a future video streaming architecture, which allows a better interaction of application and network. N2 - Die Applikationen im Internet passen sich immer besser an unterschiedliche Anforderungen der Nutzer und variierende Netzwerkbedingungen an. Neue Mechanismen ermöglichen die zielgerichtete Anpassung der Anwendungsqualität und damit der benötigten Bandbreite. Im Falle von Videostreaming ermöglicht der skalierbare Videocodec H.264/SVC, die flexible Veränderung der Bildwiederholungsrate, der Auflösung des Videos und der Bildqualität an die vorhandenen Ressourcen im Netzwerk. Um eine gute vom Nutzer erfahrene Dienstgüte (Quality of Experience, QoE) zu garantieren, muss die Videoqualität richtig angepasst und optimiert werden. Aber nicht nur die Anwendungen des heutigen Internets haben sich verändert. Gerade in den letzten Jahren entstanden neue Netzwerk- und Transporttechnologien, welche eine flexiblere und effizientere Nutzung der Kommunikationsnetze erlauben. Eine dieser Techniken ist die Virtualisierung von Netzwerken. Sie erlaubt es auf einem gemeinsamen physikalischen Netz verschiedene logische Netze zu betreiben, die zum Beispiel Anwendungs-abhängige Adressierung unterstützen, eigene Namensgebung erlauben oder ein individuelles Ressourcen Management ermöglichen. Neuartige Transportmechanismen wie Mehrpfadübertragung auf Netzwerk- und Transportebene des ISO/OSI Stacks streben eine effiziente Ausnutzung der zur Verfügung stehenden Übertragungsmöglichkeiten an. Doch die simultane Übertragung von Daten über heterogene Kommunikationspfade und –technologien führt unausweichlich zu einer Veränderung der Reihenfolge, in der die Pakete ankommen. Es werden zusätzliche Mechanismen und Puffer benötigt, um die ursprüngliche Paketreihenfolge wieder herzustellen und so einen störenden Einfluss auf den Datentransport zu verhindern. Die richtige Dimensionierung dieser Puffer sowie die Klassifizierung des Einflusses von variierenden Pfadparametern wie Bandbreite und Verzögerungen setzen passende Evaluierungsmethoden voraus. Darüber hinaus werden für die Auswahl von geeigneten Pfaden aus einer Menge vorhandener Pfade echtzeitfähige Bewertungsmechanismen benötigt. Eine bessere Interaktion zwischen Applikationen und Netzwerk und der damit verbundene Informationsaustausch ermöglicht die effiziente Anpassung der Applikationsqualität an das Netzwerk und umgekehrt. Diese Doktorarbeit analysiert eine auf Mehrpfadübertragung und skalierbarer Videokodierung basierende Videostreaming Architektur und erarbeitet die folgenden Optimierungsmöglichkeiten und Auswertungen: Analyse- und Dimensionierungsmethoden für Mehrpfadübertragung, Quantifizierung der Anpassungsmöglichkeiten von SVC an das Netzwerk unter Berücksichtigung der QoE und Evaluierung und Optimierung einer zukünftigen Videostreaming Architektur, welche eine stärkere Interaktion zwischen Applikation und Netzwerk ermöglicht. T3 - Würzburger Beiträge zur Leistungsbewertung Verteilter Systeme - 03/12 KW - Videoübertragung KW - H.264 SVC KW - Modellierung KW - Quality-of-Experience KW - Mehrpfadübertragung KW - Multipath Transmission KW - Video Streaming KW - H.264/SVC KW - QoE KW - Performance Modeling Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-72324 ER - TY - THES A1 - Zink, Johannes T1 - Algorithms for Drawing Graphs and Polylines with Straight-Line Segments T1 - Algorithmen zum Zeichnen von Graphen und Polygonzügen mittels Strecken N2 - Graphs provide a key means to model relationships between entities. They consist of vertices representing the entities, and edges representing relationships between pairs of entities. To make people conceive the structure of a graph, it is almost inevitable to visualize the graph. We call such a visualization a graph drawing. Moreover, we have a straight-line graph drawing if each vertex is represented as a point (or a small geometric object, e.g., a rectangle) and each edge is represented as a line segment between its two vertices. A polyline is a very simple straight-line graph drawing, where the vertices form a sequence according to which the vertices are connected by edges. An example of a polyline in practice is a GPS trajectory. The underlying road network, in turn, can be modeled as a graph. This book addresses problems that arise when working with straight-line graph drawings and polylines. In particular, we study algorithms for recognizing certain graphs representable with line segments, for generating straight-line graph drawings, and for abstracting polylines. In the first part, we first examine, how and in which time we can decide whether a given graph is a stick graph, that is, whether its vertices can be represented as vertical and horizontal line segments on a diagonal line, which intersect if and only if there is an edge between them. We then consider the visual complexity of graphs. Specifically, we investigate, for certain classes of graphs, how many line segments are necessary for any straight-line graph drawing, and whether three (or more) different slopes of the line segments are sufficient to draw all edges. Last, we study the question, how to assign (ordered) colors to the vertices of a graph with both directed and undirected edges such that no neighboring vertices get the same color and colors are ascending along directed edges. Here, the special property of the considered graph is that the vertices can be represented as intervals that overlap if and only if there is an edge between them. The latter problem is motivated by an application in automated drawing of cable plans with vertical and horizontal line segments, which we cover in the second part. We describe an algorithm that gets the abstract description of a cable plan as input, and generates a drawing that takes into account the special properties of these cable plans, like plugs and groups of wires. We then experimentally evaluate the quality of the resulting drawings. In the third part, we study the problem of abstracting (or simplifying) a single polyline and a bundle of polylines. In this problem, the objective is to remove as many vertices as possible from the given polyline(s) while keeping each resulting polyline sufficiently similar to its original course (according to a given similarity measure). N2 - Graphen stellen ein wichtiges Mittel dar, um Beziehungen zwischen Objekten zu modellieren. Sie bestehen aus Knoten, die die Objekte repräsentieren, und Kanten, die Beziehungen zwischen Paaren von Objekten abbilden. Um Menschen die Struktur eines Graphen zu vermitteln, ist es nahezu unumgänglich den Graphen zu visualisieren. Eine solche Visualisierung nennen wir Graphzeichnung. Eine Graphzeichnung ist geradlinig, wenn jeder Knoten als ein Punkt (oder ein kleines geometrisches Objekt, z. B. ein Rechteck) und jede Kante als eine Strecke zwischen ihren beiden Knoten dargestellt ist. Eine sehr einfache geradlinige Graphzeichnung, bei der alle Knoten eine Folge bilden, entlang der die Knoten durch Kanten verbunden sind, nennen wir Polylinie. Ein Beispiel für eine Polylinie in der Praxis ist eine GPS-Trajektorie. Das zugrundeliegende Straßennetzwerk wiederum kann als Graph repräsentiert werden. In diesem Buch befassen wir uns mit Fragen, die sich bei der Arbeit mit geradlinigen Graphzeichnungen und Polylinien stellen. Insbesondere untersuchen wir Algorithmen zum Erkennen von bestimmten mit Strecken darstellbaren Graphen, zum Generieren von geradlinigen Graphzeichnungen und zum Abstrahieren von Polylinien. Im ersten Teil schauen wir uns zunächst an, wie und in welcher Zeit wir entscheiden können, ob ein gegebener Graph ein Stickgraph ist, das heißt, ob sich seine Knoten als vertikale und horizontale Strecken auf einer diagonalen Geraden darstellen lassen, die sich genau dann schneiden, wenn zwischen ihnen eine Kante liegt. Anschließend betrachten wir die visuelle Komplexität von Graphen. Konkret untersuchen wir für bestimmte Graphklassen, wie viele Strecken für jede geradlinige Graphzeichnung notwendig sind, und, ob drei (oder mehr) verschiedene Streckensteigungen ausreichend sind, um alle Kanten zu zeichnen. Zuletzt beschäftigen wir uns mit der Frage, wie wir den Knoten eines Graphen mit gerichteten und ungerichteten Kanten (geordnete) Farben zuweisen können, sodass keine benachbarten Knoten dieselbe Farbe haben und Farben entlang gerichteter Kanten aufsteigend sind. Hierbei ist die spezielle Eigenschaft der betrachteten Graphen, dass sich die Knoten als Intervalle darstellen lassen, die sich genau dann überschneiden, wenn eine Kanten zwischen ihnen verläuft. Das letztgenannte Problem ist motiviert von einer Anwendung beim automatisierten Zeichnen von Kabelplänen mit vertikalen und horizontalen Streckenverläufen, womit wir uns im zweiten Teil befassen. Wir beschreiben einen Algorithmus, welcher die abstrakte Beschreibung eines Kabelplans entgegennimmt und daraus eine Zeichnung generiert, welche die speziellen Eigenschaften dieser Kabelpläne, wie Stecker und Gruppen von zusammengehörigen Drähten, berücksichtigt. Anschließend evaluieren wir die Qualität der so erzeugten Zeichnungen experimentell. Im dritten Teil befassen wir uns mit dem Abstrahieren bzw. Vereinfachen einer einzelnen Polylinie und eines Bündels von Polylinien. Bei diesem Problem sollen aus einer oder mehreren gegebenen Polylinie(n) so viele Knoten wie möglich entfernt werden, wobei jede resultierende Polylinie ihrem ursprünglichen Verlauf (nach einem gegeben Maß) hinreichend ähnlich bleiben muss. KW - Graphenzeichnen KW - Algorithmische Geometrie KW - Algorithmus KW - Algorithmik KW - Polygonzüge KW - graph drawing KW - complexity KW - algorithms KW - straight-line segments KW - polylines KW - graphs KW - Strecken KW - Graphen Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-354756 ER - TY - THES A1 - Zimmermann, Henriette T1 - Antigenic variation and stumpy development in \(Trypanosoma\) \(brucei\) T1 - Antigene Variation und Stumpy Entwicklung in \(Trypanosoma\) \(brucei\) N2 - The eukaryotic parasite Trypanosoma brucei has evolved sophisticated strategies to persist within its mammalian host. Trypanosomes evade the hosts' immune system by antigenic variation of their surface coat, consisting of variant surface glycoproteins (VSGs). Out of a repertoire of thousands of VSG genes, only one is expressed at any given time from one of the 15 telomeric expression sites (ES). The VSG is stochastically exchanged either by a transcriptional switch of the active ES (in situ switch) or by a recombinational exchange of the VSG within the active ES. However, for infections to persist, the parasite burden has to be limited. The slender (sl) bloodstream form secretes the stumpy induction factor (SIF), which accumulates with rising parasitemia. SIF induces the irreversible developmental transition from the proliferative sl to the cell cycle-arrested but fly-infective stumpy (st) stage once a concentration threshold is reached. Thus, antigenic variation and st development ensure persistent infections and transmissibility. A previous study in monomorphic cells indicated that the attenuation of the active ES could be relevant for the development of trypanosomes. The present thesis investigated this hypothesis using the inducible overexpression of an ectopic VSG in pleomorphic trypanosomes, which possess full developmental competence. These studies revealed a surprising phenotypic plasticity: while the endogenous VSG was always down-regulated upon induction, the ESactivity determined whether the VSG overexpressors arrested in growth or kept proliferating. Full ES-attenuation induced the differentiation of bona fide st parasites independent of the cell density and thus represents the sole natural SIF-independent differentiation trigger to date. A milder decrease of the ES-activity did not induce phenotypic changes, but appeared to prime the parasites for SIF-induced differentiation. These results demonstrate that antigenic variation and development are linked and indicated that the ES and the VSG are independently regulated. Therefore, I investigated in the second part of my thesis how ES-attenuation and VSG-silencing can be mediated. Integration of reporters with a functional or defective VSG 3'UTR into different genomic loci showed that the maintenance of the active state of the ES depends on a conserved motif within the VSG 3'UTR. In situ switching was only triggered when the telomere-proximal motif was partially deleted, suggesting that it serves as a DNA-binding motif for a telomere-associated protein. The VSG levels seem to be additionally regulated in trans based on the VSG 3'UTR independent of the genomic context, which was reinforced by the regulation of a constitutively expressed reporter with VSG 3' UTR upon ectopic VSG overexpression. N2 - Der eukaryotische Parasit Trypanosoma brucei hat komplexe Strategien entwickelt, um in seinem Säugetierwirt zu überleben. Die Grundlage der Immunevasion ist die antigene Variation des Oberflächenmantels, der aus dem variablen Oberflächenglykoprotein (VSG) besteht. Von mehreren tausend VSG-Genen wird zu jedem Zeitpunkt nur ein einziges aus einer der 15 telomerischen Expressionsstellen (ES) exprimiert. Das VSG kann entweder durch einen transkriptionellen Wechsel der aktiven ES (in situ Wechsel) oder durch einen rekombinatorischen Wechsel des VSG-Gens innerhalb der aktiven ES stochastisch ausgetauscht werden. Damit jedoch eine langanhaltende Infektion des Wirts möglich wird, muss gleichzeitig der Parasitenbefall begrenzt werden. Mit ansteigender Parasitämie akkumuliert der 'stumpy induction factor' (SIF), welcher von der 'slender' (sl) Blutstromform sekretiert wird. Sobald ein Schwellenwert in der SIF-Konzentration erreicht ist, wird die irreversible Differenzierung der proliferativen sl in die zellzyklusarretierte 'stumpy'(st) Form eingeleitet, welche infektiös für den Fliegenvektor ist. Somit stellen antigene Variation und st- Differenzierung das Persistieren der Infektion und die Übertragung des Parasiten sicher. Eine frühere Arbeit mit monomorphen Zellen deutete darauf hin, dass die Attenuierung der aktiven ES eine Rolle für die Differenzierung der Trypanosomen spielen könnte. Diese Hypothese wurde in der vorliegenden Dissertation untersucht, indem in pleomorphen Zellen mit vollständiger Entwicklungskompetenz ein ektopisches VSG induzierbar überexprimiert wurde. Diese Studien offenbarten eine erstaunliche phänotypische Plastizität: während das endogene VSG nach Induktion runter reguliert wurde, arretierten die VSG-Überexpressoren in Abhängigkeit von der ES-Aktivität entweder im Wachstum oder teilten sich weiter. Die vollständige ES-Attenuierung löste die Differenzierung zu echten st Zellen unabhängig von der Zelldichte aus und ist somit der bisher einzige natürliche SIF-unabhängige Differenzierungsauslöser. Eine mildere Abnahme der ES-Aktivität verursachte keinen Phänotyp, scheint aber die Zellen auf die SIF-induzierte Differenzierung vorzubereiten. Diese Ergebnisse zeigen, dass antigene Variation und Differenzierung verbunden sind und deuteten an, dass die ES und das VSG unabhängig voneinander reguliert werden. Daher habe ich im zweiten Teil meiner Dissertation untersucht, wie ES-Attenuierung und VSG-Stilllegung vermittelt werden können. Die Integration eines Reporters mit funktioneller oder defekter VSG 3'UTR an verschiedenen Orten im Genom zeigte, dass die Aufrechterhaltung der ES-Aktivität von einem konservierten Motiv in der VSG 3'UTR abhängig ist. Ein in situ Wechsel wurde nur ausgelöst, wenn Teile des Telomer-proximalen Motiv deletiert wurden, was nahelegt, dass das Motiv auf DNA-Ebene von einem Telomerbindeprotein erkannt wird. Die VSG-Level scheinen unabhängig vom genomischen Kontext zusätzlich in trans basierend auf der VSG 3'UTR reguliert zu werden, was durch die Regulation eines konstitutiv exprimierten Reporters mit VSG 3'UTR nach VSG-Überexpression bekräftigt wurde. KW - Trypanosoma brucei KW - Genexpression KW - Entwicklung KW - Parasit KW - VSG KW - antigenic variation KW - monoallelic expression KW - stumpy development KW - differentiation Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-146902 ER - TY - THES A1 - Zimmermann [née Papp], Lena T1 - Platelets as modulators of blood-brain barrier disruption and inflammation in the pathophysiology of ischemic stroke T1 - Thrombozyten als Modulatoren der Blut-Hirn-Schrankenstörung und Inflammation in der Pathophysiologie des ischämischen Schlaganfalls N2 - Ischemia-reperfusion injury (I/R injury) is a common complication in ischemic stroke (IS) treatment, which is characterized by a paradoxical perpetuation of tissue damage despite the successful re-establishment of vascular perfusion. This phenomenon is known to be facilitated by the detrimental interplay of platelets and inflammatory cells at the vascular interface. However, the spatio-temporal and molecular mechanisms underlying these cellular interactions and their contribution to infarct progression are still incompletely understood. Therefore, this study intended to clarify the temporal mechanisms of infarct growth after cerebral vessel recanalization. The data presented here could show that infarct progression is driven by early blood-brain-barrier perturbation and is independent of secondary thrombus formation. Since previous studies unravelled the secretion of platelet granules as a molecular mechanism of how platelets contribute to I/R injury, special emphasis was placed on the role of platelet granule secretion in the process of barrier dysfunction. By combining an in vitro approach with a murine IS model, it could be shown that platelet α-granules exerted endothelial-damaging properties, whereas their absence (NBEAL2-deficiency) translated into improved microvascular integrity. Hence, targeting platelet α-granules might serve as a novel treatment option to reduce vascular integrity loss and diminish infarct growth despite recanalization. Recent evidence revealed that pathomechanisms underlying I/R injury are already instrumental during large vessel occlusion. This indicates that penumbral tissue loss under occlusion and I/R injury during reperfusion share an intertwined relationship. In accordance with this notion, human observational data disclosed the presence of a neutrophil dominated immune response and local platelet activation and secretion, by the detection of the main components of platelet α-granules, within the secluded vasculature of IS patients. These initial observations of immune cells and platelets could be further expanded within this thesis by flow cytometric analysis of local ischemic blood samples. Phenotyping of immune cells disclosed a yet unknown shift in the lymphocyte population towards CD4+ T cells and additionally corroborated the concept of an immediate intravascular immune response that is dominated by granulocytes. Furthermore, this thesis provides first-time evidence for the increased appearance of platelet-leukocyte-aggregates within the secluded human vasculature. Thus, interfering with immune cells and/or platelets already under occlusion might serve as a potential strategy to diminish infarct expansion and ameliorate clinical outcome after IS. N2 - Eine häufig auftretende Komplikation in der Behandlung des ischämischen Schlaganfalls ist der Ischämie/Reperfusion Schaden (I/R Schaden), welcher trotz der erfolgreichen Wiederherstellung der zerebralen Durchblutung durch ein paradoxes Fortschreiten des entstandenen Gewebeschadens charakterisiert ist. Dieses Phänomen wird durch das schädigende Zusammenspiel von Thrombozyten und inflammatorischen Zellen am vaskulären Endothel verursacht. Allerdings sind die räumlich-temporalen und molekularen Mechanismen dieser zellulären Interaktionen und deren Beteiligung am Infarktwachstum noch nicht vollständig verstanden. Daraus folgend, beabsichtigte diese Arbeit eben diese temporalen Mechanismen des fortschreitenden Infarktwachstums nach der zerebralen Gefäßwiedereröffnung aufzuklären. Die hier vorgestellten Daten implizieren, dass das anhaltende Fortschreiten des Gewebeschadens durch die Schädigung der Bluthirnschranke verursacht wird und somit unabhängig vom Auftreten sekundär gebildeter Thromben ist. In vorangegangenen Studien konnte die Freisetzung von thrombozytären Granula als molekularer Mechanismus, mit welchem Thrombozyten zum I/R Schaden beitragen, aufgedeckt werden. Basierend auf diesen Studien wurde in dieser Arbeit ein besonderes Augenmerk auf die Sekretion thrombozytärer Granula im Zusammenhang mit der Beeinträchtigung der endothelialen Barriere gelegt. Durch die Kombination eines in vitro Ansatzes mit einem murinen Model des ischämischen Schlaganfalls konnte gezeigt werden, dass α-Granula endothelialen Schaden verursachen, wohingegen deren Absenz (NBEAL2 Defizienz) zu einer verbesserten mikrovaskulären Integrität führte. Aufgrund dessen könnte das Adressieren der α-Granula als eine neuartige Therapieoption zum Erhalt der vaskulären Integrität und zur Verminderung des Infarktwachstums trotz Rekanalisation genutzt werden. Neuste Erkenntnisse enthüllten, dass die dem I/R Schaden zu Grunde liegenden Pathomechanismen bereits während des Verschlusses eines großen hirnversorgenden Gefäßes zu beobachten sind. Dies deutet darauf hin, dass der Verlust von penumbralem Gewebe unter Okklusion und I/R Schädigung während der Reperfusion im engen Zusammenhang stehen. Im Einklang hiermit konnten humane Daten eine Neutrophilen-dominierte Immunantwort und lokale Thrombozyten Aktivierung und deren Sekretion, anhand der Detektion der α-Granula Hauptkomponenten, im verschlossenen Gefäßsystem von ischämischen Schlaganfall Patienten nachweisen. Diese anfänglichen Beobachtungen konnten im Rahmen dieser Arbeit anhand durchflusszytometrischer Untersuchungen von lokal abgenommenen ischämischen Blutproben erweitert werden. Die Phänotypisierung von Immunzellen enthüllte eine bisher unbekannte Verschiebung der Lymphozyten Population hin zu CD4+ T-Zellen und bekräftigte zusätzlich das Konzept einer unmittelbaren intravaskulären Immunantwort, welche durch Granulozyten dominiert wird. Darüber hinaus konnte in dieser Thesis das erste Mal das erhöhte Auftreten von Thrombozyten-Leukozyten-Aggregaten in dem verschlossenen humanen Gefäßsystem nachgewiesen werden. Demzufolge könnte eine Beeinflussung von Immunzellen und/oder Thrombozyten bereits unter Okklusion als potentiell vielversprechende Strategie genutzt werden, um die Ausweitung des Infarktes einzuschränken und klinische Endpunkte nach einem ischämischen Schlaganfall zu verbessern. KW - Schlaganfall KW - Thrombozyt KW - Entzündung KW - Thrombo-inflammation KW - Ischemic stroke KW - Platelets KW - Inflamamtion KW - Immune cells KW - Vascular system Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-302850 ER - TY - THES A1 - Zilker, Markus T1 - The stability of finished pharmaceutical products and drug substances beyond their labeled expiry dates T1 - Die Stabilität von Fertigarzneimitteln und Wirkstoffen nach Ablauf des Verfalldatums N2 - Upon approval of a drug, the stability of the API and the FPP has to be studied intensively because it determines the shelf-life. If a drug is found to be stable, the expiry date is arbitrary set to five years at the maximum, if a drug tends to undergo degradation, the expiry date is set shorter. The drug product must comply with predefined specifications in accordance with the ICH guidelines Q6A and Q6B during its entire market life. The content of the active substance is required to be within a specification of 95–105% of its labeled claim until expiry corresponding to the ICH guideline Q1A(R2). However, there is little or scattered literature information addressing the stability of drug products beyond their expiry dates. The objective of this thesis was to study and assess the long-term stability of a collection involving numerous pure drug substances and ampoules manufactured in the 20th century. The content and the impurity profile were examined by means of appropriate analytical methods, mainly using liquid chromatography. The results were compared to data being available in the literature. Assessing the stability regarding the dosage form and the affiliation of the drug class was conducted. The experimental studies comprise the examination of 50 drug substances manufactured 20–30 years ago and 14 long expired ampoules which were older than 40 years in the time of analysis, exceeding many times the maximum shelf life of five years. For investigation of the solid drug substances, pharmacopoeial methods were applied as far as possible. Indeed, results of the study showed that 44 tested substances still complied with the specification of the Ph. Eur. with regard to the content and impurity profile, even after more than two decades of storage. For analysis of the injection solutions, HPLC-UV and HPLC-ESI/MS techniques were applied, commonly based on liquid chromatography methods of the Ph. Eur. for determination of related substances. Each method was further validated for its application to ensure accurate API quantification corresponding to ICH Q2(R1). Quite a few ampoules were identified to show surprisingly high stability. In spite of their age of 53–72 years, APIs such as caffeine, etilefrine, synephrine, metamizole sodium, furosemide, and sodium salicylate complied with the specified content that is valid nowadays, respectively. Nevertheless, typical degradation reaction, e.g. hydrolysis, oxidation, or isomerization, was observed in all remaining ampoules. Various degrees of hydrolysis were revealed for scopolamine, procaine, and adenosine triphosphate, the contents were decreased to 71%, 70%, and 15% of the declared concentrations, respectively. In the epinephrine and dipyridamole ampoules, oxidative degradation has been occurred, finding respective API contents of more or less 70%. For dihydroergotamine, excessive decomposition by epimerization was observed, resulting in an API content of 21% and degradation by isomerization was found in lobeline, still containing 64% of the labeled claim. In conclusion, supported by the data of the present studies and the literature, defining and authorizing a longer shelf-life may be applicable to numerous pharmaceuticals which should be considered by pharmaceutical manufacturers and regulatory authorities, if justified based on stability studies. A general extension of the shelf-lives of drug products and the abolishment or extension of the maximum shelf-life limit of five years would prevent disposing of still potent medications and save a lot of money to the entire health care system. N2 - Bei der Zulassung eines Arzneimittels muss die Stabilität sowohl des Wirkstoffes als auch des Fertigarzneimittels umfassend untersucht werden, da dies für die Festlegung der Haltbarkeit wesentlich ist. Wenn sich herausstellt, dass ein Arzneimittel stabil ist, wird das Verfallsdatum auf höchstens fünf Jahre festgelegt. Neigt ein Arzneimittel zum Abbau, so wird ein kürzeres Verfallsdatum gewählt. Das Arzneimittel muss innerhalb der Haltbarkeitsfrist definierten Spezifikationen entsprechen, welche in den ICH-Richtlinien Q6A und Q6B festgelegt sind. Dabei muss insbesondere der Wirkstoff-Gehalt des Arzneimittels gemäß der ICH-Richtlinie Q1A(R2) innerhalb der Spezifikation von 95–105 % der deklarierten Konzentration liegen. In der Literatur gibt es jedoch wenige Informationen darüber, wie stabil Arzneimittel lange nach Ablauf des Verfallsdatums sind. Das Ziel dieser Arbeit war es, die Stabilität zahlreicher Feststoffe und Ampullen, die aus einer Altarzneimittel-Sammlung stammten und während des 20. Jahrhunderts hergestellt wurden, zu untersuchen und zu bewerten. Der Gehalt und das Verunreinigungsprofil wurden mittels geeigneter instrumenteller Analyseverfahren bestimmt, wobei hauptsächlich flüssigchromatographische Methoden zur Anwendung kamen. Die Untersuchungsergebnisse wurden mit Literaturdaten verglichen und es wurde eine Beurteilung der Stabilität in Abhängigkeit von der Darreichungsform und der Zugehörigkeit zu einer Arzneistoffklasse vorgenommen. Die experimentellen Studien umfassten die Untersuchung von 50 Feststoffen, die vor 20 bis 30 Jahren hergestellt worden waren, und 14 Alt-Ampullen, die ein Alter von mindestens 40 Jahre aufwiesen und damit die maximale Haltbarkeit von fünf Jahren um ein Vielfaches überschritten hatten. Zur Untersuchung der Feststoffe wurden meist Arzneibuchmethoden verwendet. Die Ergebnisse zeigten, dass 44 geprüfte Substanzen auch nach mehr als zwei Jahrzehnten hinsichtlich ihres Gehalts und Verunreinigungsprofils den jeweiligen Spezifikationen des Europäischen Arzneibuchs entsprachen. Zur Analyse der Alt Ampullen wurden HPLC-UV- und HPLC-ESI/MS-Techniken eingesetzt. Diese basierten häufig auf Arzneibuch-Methoden zur Prüfung auf verwandte Substanzen. Für die Gehaltsbestimmungen wurden entsprechend der ICH-Richtlinie Q2(R1) die erforderlichen Parameter validiert. Einige Ampullen zeigten eine überraschend hohe Stabilität des Wirkstoffs, trotz ihres Alters von 53 bis 72 Jahren. Dabei entsprachen die Wirkstoffe Koffein, Etilefrin, Synephrin, Metamizol Natrium, Furosemid und Natriumsalicylat dem heute gültigen Spezifikationsbereich von 95–105 %. Nichtsdestoweniger wurden bei einigen Ampullen typische Abbaureaktionen wie Hydrolyse, Oxidation oder Isomerisierung festgestellt. Die Hydrolyse der Arzneistoffe Scopolamin, Procain und Adenosintriphosphat führte zu verringerten Gehalten von 71 %, 70 % bzw. 15 % der jeweiligen gekennzeichneten Wirkstoffkonzentration. Die Epinephrin- und Dipyridamol-Injektionslösungen waren von oxidativem Abbau betroffen. Der Wirkstoffgehalt dieser Ampullen lag jeweils bei ca. 70 %. In der Dihydroergotamin Ampulle trat eine massive Epimerisierung auf, wobei ein Gehalt von 21 % bestimmt wurde. Aufgrund der Isomerisierung des Arzneistoffes Lobelin reduzierte sich der Wirkstoffgehalt auf 64 %. Als Schlussfolgerung der experimentellen Studien und der verfügbaren Daten aus der Literatur sollten die pharmazeutischen Unternehmer und die Aufsichtsbehörden erwägen, die Haltbarkeitsdauer für zahlreiche Arzneimittel zu verlängern, wenn dies basierend auf Stabilitätsuntersuchungen gerechtfertigt ist. Eine generelle Ausweitung der Verwendbarkeit von Arzneimitteln sowie die Abschaffung oder Erweiterung der maximalen Haltbarkeitsdauer von fünf Jahren würde die Entsorgung noch wirksamer Medikamente verhindern und dem Gesundheitssystem viel Geld einsparen. KW - Stabilität KW - Fertigarzneimittel KW - Wirkstoff KW - Chromatographie KW - Chemical stability KW - Shelf-life KW - Expiry date Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-180695 ER - TY - THES A1 - Zieschang, Fabian T1 - Energy and Electron Transfer Studies of Triarylamine-based Dendrimers and Cascades T1 - Energie- und Elektron-Transfer Studien von triarylamin-basierten Dendrimeren und Kaskaden N2 - In this work the synthesis of dendritic macromolecules and small redox cascades was reported and studies of their energy and electron transfer properties discussed. The chromophores in the dendrimers and the redox cascades are linked via triazoles, which were built up by CuAAC. Thereby, a synthetic concept based on building blocks was implemented, which allowed the exchange of all basic components. Resulting structures include dendrimers composed exclusively of TAAs (G1–G3), dendrimers with an incorporated spirobifluorene core (spiro-G1 and spiro-G2) and the donor-acceptor dendrimer D-A-G1, in which the terminal groups are exchanged by NDIs. Furthermore, a series of model compounds was synthesised in order to achieve a better understanding of the photophysical processes in the dendrimers. A modification of the synthetic concept for dendrimers enabled the synthesis of a series of donor-acceptor triads (T-Me, T-Cl and T-CN) consisting of two TAA donors and one NDI acceptor unit. The intermediate TAA chromophore ensured a downhill redox gradient from the NDI to the terminal TAA, which was proved by cyclic voltammetry measurements. The redox potential of the intermediate TAA was adjusted by different redox determining substituents in the “free” p-position of the TAA. Additionally, two dyads (Da and Db) were synthesised which differ in the junction of the triazole to the TAA or the NDI, respectively. In these cascades a nodal-plane along the N-N-axes in the NDI and a large twist angle between the NDI and the N-aryl substituent guaranteed a small electronic coupling. The photophysical investigations of the dendrimers focused on the homo-energy transfer properties in the TAA dendrimers G1–G3. Steady-state emission spectroscopy revealed that the emission takes place from a charge transfer state. The polar excited state resulted in a strong Stokes shift of the emission, which in turn led to a small spectral overlap integral between the absorption of the acceptor and the emission of the donor in the solvent relaxed state. According to the Förster theory, the overlap integral strongly determines the energy transfer rate. Fluorescence up-conversion measurements showed a strong and rapid initial fluorescence anisotropy decay and a much slower decrease on the longer time scale. The experiment revealed a fast energy transfer in the first 2 ps followed by a much slower energy hopping. Time resolved emission spectra (TRES) of the model compound M indicated a solvent relaxation on the same time scale as the fast energy transfer. The Förster estimation of energy transfer rates in G1 explains fast energy transfer in the vibrotionally relaxed state before solvent relaxation starts. Thereby, the emission spectrum of G1 in cyclohexane served as the time zero spectrum. Thus, solvent relaxation and fast energy transfer compete in the first two ps after excitation and it is crucial to discriminate between energy transfer in the Franck-Condon and in the solvent relaxed state. Furthermore, this finding demonstrates that fast energy transfer occurs even in charge transfer systems where a large Stokes shift prevents an effective spectral overlap integral if there is a sufficient overlap integral in before solvent relaxation. Energy transfer upon excitation was also observed in the spiro dendrimers spiro-G1 and spiro-G2 and identified by steady-state emission anisotropy measurements. It was assumed that the energy in spiro-G1 is completely distributed over the entire molecule while the energy in spiro-G2 is probably distributed over only one individual branch. This finding was based on a more polarised emission of spiro-G2 compared to spiro-G1. This issue has to be ascertained by e.g. time resolved emission anisotropy measurements in further energy transfer studies. Concerning the electron transfer properties of TAA-triazole systems the radical cations of G1–G2, spiro-G1 and spiro-G2 and of the model compound M were investigated by steady-state absorption spectroscopy. Experiments showed that the triazole bridge exhibits small electronic communication between the adjacent chromophores but still possesses sufficient electronic coupling to allow an effective electron transfer from one chromophore to the other. Due to the high density of chromophores, their D-A-D structure and their superficial centrosymmetry, the presented dendrimers are prospective candidates for two-photon absorption applications. The dyads, triads and the donor-acceptor dendrimer D-A-G1 were investigated regarding their photoinduced electron transfer properties and the effects that dominate charge separation and charge recombination in these systems. The steady-state absorption spectra of all cascades elucidated a superposition of the absorption characteristics of the individual subunits and spectra indicated that the chromophores do not interact in the electronic ground state. Time resolved transient absorption spectroscopy of the cascades was performed in the fs- and ns-time regime in MeCN and toluene as solvent. Measurements revealed that upon with 28200 cm-1 (355) nm and 26300 cm-1 (380 nm), respectively, an electron is transferred from the TAA towards the NDI unit yielding a CS state. In the triads at first a CS1 state is populated, in which the NDI is reduced and the intermediate TAA1 is oxidised. Subsequently, an additional electron transfer from the terminal TAA2 to TAA1 led to the fully CS2 state. Fully CS states of the dyads and triads exhibit lifetimes in the ns-time regime. In contrast for Db in MeCN, a lifetime of 43 ps was observed for the CS state together with the population of a 3NDI state. The signals of the other CS states decay biexponentially, which is a result of the presence of the 1CS and the 3CS states. While magnetic field dependent measurements of Db did not show an effect due to the large singlet-triplet splitting, T-CN exhibited a strong magnetic field dependence which is an evidence for the 1CS/3CS assignment. Further analysis of the singlet-triplet dynamics are required and are currently in progress. Charge recombination occurred in the Marcus inverted region for compounds solved in toluene and in the Marcus normal region for MeCN as solvent. However, a significant inverted region effect was observed only for Db. Triads are probably characterised by charge recombination rates in the inverted and in the normal region near to the vertex of the Marcus parabola. Hence the inverted region effect is not pronounced and the rate charge recombination rates are all in the same magnitude. However, compared to the charge recombination rate of Db the enlarged spatial distance between the terminal TAA and the NDI in the fully CS2 states in the triads resulted in reduced charge recombination rates by ca. one order of magnitude. More important than a small charge recombination rate is an overall lifetime of the CS states and this lifetime can significantly be enhanced by the population of the 3CS state. The reported results reveal that a larger singlet-triplet splitting in the dyads led to a CS state lifetime in the us time regime while a lifetime in the ns-time regime was observed in cases of the triads. Moreover, the singlet-triplet splitting was found to be solvent dependent in the triads, which is a promising starting point for further investigations concerning singlet-triplet splitting. The donor-acceptor dendrimer D-A-G1 showed similar characteristics to the dyads. The generation of a CS state is assumed due to a clear NDI radical anion band in the transient absorption spectrum. Noteworthy, the typical transient absorption band of the TAA radical cation is absent for D A-G1 in toluene. Bixon-Jortner analysis yielded a similar electronic coupling in D-A-G1 compared to the dyads. However, the charge recombination rate is smaller than of Db due to a more energetic CS state, which in the inverted region slows down charge recombination. In combination a singlet-triplet splitting similar to the dyads prolongs the CS state lifetime up to 14 us in diluted solution. Both effects result in an even better performance of D-A-G1 concerning energy conversion. D A-G1 is therefore a promising key structure for further studies on light harvesting applications. In a prospective study a second generation donor-acceptor dendrimer D-A-G2 might be an attractive structure accessible by “click reaction” of 13 and 8. D-A-G2 is expected to exhibit a downhill oriented gradient of CS states as assumed from the CV studies on G1–G3. N2 - Im Rahmen dieser Arbeit wurde die Synthese sowohl von dendritischen Makromolekülen als auch von kleineren Donor-Akzeptor-Systemen realisiert. Des Weiteren wurden diese Verbindungen bezüglich ihrer Energie- und Elektron-Transfer-Eigenschaften untersucht. In allen untersuchten Systemen wurden die eingebauten Chromophore durch Triazole miteinander verknüpft. Dabei sind die Triazole das Ergebnis einer Kupfer(I)-katalysierten 1,3-dipolaren Cycloaddition zwischen einem terminalen Alkin und einem Azid. Für die Darstellung der vorgestellten Verbindungen wurde ein synthetisches Konzept auf der Basis von molekularen Bausteinen entwickelt, das den Austausch aller elementaren Komponenten ermöglicht. Die so erhaltenen Systeme bestehen aus Dendrimeren, die auschließlich aus Triarylaminen (TAA) aufgebaut sind (G1-G3), Dendrimeren mit einem Spirobifluoren-Gerüst als Kern (spiro-G1 und spiro-G2) und dem Donor-Akzeptor Dendrimer (D-A-G1), in dem Naphthalindiimid-Akzeptoren (NDI) als Endgruppen fungieren. Zusätzlich wurde eine Reihe von Modellverbindung verwirklicht, um mit ihrer Hilfe ein besseres Verständnis der photophysikalischen Prozesse in den Dendrimeren zu erlangen. Durch eine Modifikation des synthetischen Baukastensystems, welches den Zugang zu den Dendrimeren ermöglichte, wurde außerdem die Darstellung einer Reihe von Donor-Akzeptor-Triaden (T-Me, T-Cl und T-CN) verwirklicht. Diese Triaden bestehen dabei aus zwei TAA-Donoren und einem NDI-Akzeptor. Mit Hilfe der Cyclovoltammetrie konnte ein abwärtsgerichteter Redoxgradient vom NDI zum endständigen TAA in den Triaden bestätigt werden. Realisiert wurde dieser Redoxgradient, indem das Redoxpotential des mittleren TAAs durch geeignete Substitutenten in der „freien” p-Position des TAAs gezielt beeinflusst wurde. Des Weiteren wurden zwei Dyaden (Da und Db) synthetisiert, die sich nur in der Verknüpfung des TAAs bzw. des NDIs an das Triazol unterscheiden. In all diesen Kaskaden sorgen sowohl eine Knotenebene entlang der N-N-Achse des NDIs als auch ein großer Verdrillungswinkel zwischen dem NDI Kerngerüst und dem N-Arylsubstituenten für eine kleine elektronische Kopplung. Bei den Untersuchungen der photophysikalischen Eigenschaften der Dendrimere lag der Schwerpunkt auf der Untersuchung der TAA-Dendrimere G1-G3 bezüglich ihrer Homo-Energie-Transfer-Eigenschaften. Die Beobachtung eines starken Stokes Shifts in der Fluoreszenz dieser Makromoleküle ist das Ergbnis einer Emission aus einem polaren Ladungs-Transfer-Zustand und einer großen Reorganisationsenergie l. Dadurch gibt es im Lösungsmittel-relaxierten Zustand nur ein kleines Überlapp-Integral zwischen der Absorption des Akzeptors und der Emission des Donors. Gerade dieses Überlapp-Integral bestimmt gemäß der Förster-Theorie maßgeblich die Geschwindigkeitskontante des Energie-Transfers. In Untersuchungen auf der Basis der Fluoreszenz-Aufkonversion wurde eine starke und schnelle Abnahme der Anfangsfluoreszenzanisotropie beobachtet, gefolgt von einem deutlich langsameren Abfall auf der längeren Zeitskala. Demnach kommt es zunächst zu einem schnellen Energie-Transfer in den ersten 2 ps nach der Anregung und anschließend zu einem langsameren Energie-Hüpfen. Zeitaufgelöster Emissionsspektren (TRES) der Modellverbindung M haben gezwigt, dass die Lösungsmittel-Relaxation auf derselben Zeitskala wie der schnelle Energie-Transfer stattfindet. Nach einer Abschätzung der Geschwindigkeitskonstanten für den Energie-Transfer in G1 auf Grundlage der Förster-Theorie findet der schnelle Energie-Transfer im Schwingungs-relaxierten Zustand statt, noch bevor die Lösungsmittel-Relaxation beginnt. Für diese Abschätzung wurde ein Fluorezenzspektrum von G1 in Cyclohexan als Spektrum zum Zeitnullpunkt verwendet. Der Analyse zur Folge konkurrieren in den ersten 2 ps nach der Anregung sowohl die Lösungsmittel-Relaxation als auch der schnelle Energie-Transfer-Prozess miteinander. Daher ist es unerlässlich zwischen dem Energie-Transfer im Franck-Condon- und im Lösungsmittel-relaxierten Zustand zu unterscheiden. Außerdem konnte gezeigt werden, dass ein schneller Energie-Transfer auch in Ladungs-Transfer-Systemen möglich ist, in denen ein großer Stokes Shift einen effektiven spektralen Überlapp verhindert, wenn ein ausreichend großer spektraler Überlapp vor der Lösungsmittel-Relaxation vorliegt. Auch in den Spiro-Dendrimeren spiro-G1 und spiro-G2 konnte ein Energie-Transfer nach der Anregung mit Hilfe von stationären Emissions-Anisotropie-Experimenten beobachtet werden. Dabei wurde angenommen, dass die Anregungsenergie in spiro-G1 über das gesammte Molekül verteilt ist. Eine stärker polarisierte Fluoreszenz in spiro-G2 im Vergleich zu spiro-G1 legt den Schluss nahe, dass die Energie in spiro-G2 wahrscheinlich nur über einen einzelnen Ast verteilt ist. Um dieser Fragestellung nachzugehen sind allerdings weiter Untersuchungen der Energie-Transfer-Prozesse durch z.B. zeitaufgelöste Emissions-Anisotropie-Messungen notwendig. Zudem wurden stationäre Absorptionsspektroskopie-Messungen an den Radikal-Kationen von G1-G2, spiro-G1 und spiro-G2 und M durchgeführt, um die Elektron-Transfer-Eigenschaften von TAA-Triazol-Systemen zu untersuchen. Laut dieser Messungen erlaubt die Verwendung von Triazolen als Brückeneinheit in den Verbindungen in denen Elektron-Transfer-Prozesse untersucht wurden nur eine geringe elektronische Kommunikation zwischen den verknüpften Redox-Zentren. Allerdings ist die elektronische Kopplung genügend groß, um einen effektiven Elektronen-Transfer zwischen den Zentren zu ermöglichen. Sowohl die Dyaden (Da und Db) und Triaden (T-Me, T-Cl und T-CN) als auch das Donor-Akzeptor Dendrimer D-A-G1 wurden in Bezug auf ihre Eigenschaften in photoinduzierten Elektron-Transfer-Prozessen untersucht, insbesondere die Faktoren, die die Prozesse von Ladungsseparation und Ladungsrekombination beeinflussen. Der stationären Absorptionspektroskopie zur Foelge stellen die Absorptionsspekten der Kaskaden eine Superposition der Absorptionsspektren der einzelnen Chromophore dar. Demnach wechselwirken die einzelnen Chromophore in den Kaskaden im elektronischen Grundzustand nicht miteinander. Des Weiteren wurden für die Kaskaden zeitaufgelöste ns- und fs-transiente Absorptionsspektroskopie-Messungen in Toluol und MeCN als Lösungsmittel durchgeführt. Diese Messungen zeigten, dass der Anregung bei einer Energie von 28200 cm-1 (355 nm) beziehungsweise 26300 cm-1 (380 nm) ein Elektron-Transfer vom TAA zum NDI folgt und ein ladungsgetrennter (CS) Zustand gebildet wird. Dabei wird in den Triaden zunächst ein ladungsgetrennter (CS1) Zustand populiert, in dem das NDI reduziert und das mittlere TAA oxidiert vorliegt. Nachfolgend wird duch einen zusätzlichen Elektronen-Transfer vom endständigen TAA zum mittleren TAA der CS2-Zustand generiert. Die energetisch niedrigsten CS-Zustände sowohl der Triaden als auch der Dyaden weisen Lebenzeiten auf der ns-Zeitskala auf. Im Gegensatz dazu besitzt der CS-Zustand von Db in MeCN nur eine Lebenszeit von etwa 43 ps auf. Zudem konnte hier die Bildung eines 3NDI-Zustands beobachtet werden. Alle anderen CS Zustände zeigen einen biexpontiellen Abfall, als Folge der Ausbildung sowohl eines 1CS- als auch eines 3CS-Zustands. In magnetfeld-abhängigen Messungen wurde für Db kein nennenswerter Effekt beobacht, was auf eine große Singulett-Triplett-Aufspaltung in den Dyaden zurückzuführen ist. Die Triaden besitzen eine deutlich kleinere Singulett-Triplett-Aufspaltung. Daher zeigte T-CN eine starke Abhängigkeit vom angelegten Magnetfeld, was zudem ein Beleg für die 1CS/3CS Zuordung darstellt. An dieser Stelle sind weitere Analysen der Singlet-Triplett-Dynamiken notwendig, die gegenwärtig durchgeführt werden. Die Ladungsrekombination findet für alle Systeme in Toluol in der Marcus invertierten Region und in MeCN in der Marcus normalen Region statt. Allerdings konnte nur für Db ein ausgeprägter invertierte Region-Effekt beobachtet werden. In den Triaden sind die Geschwindigkeitskonstanten für die Ladungsrekombination in der normalen und in der invertierten Region wahrscheinlich nah am Scheitelpunkt der Marcus Parabel. Somit ist der invertierte Region-Effekt bei ihnen nur sehr gering ausgeprägt und die Geschwindigkeitskonstanten für die Ladungsrekombination befinden sich in derselben Größenordnung. Im Vergleich mit den Geschwindigkeitskonstanten für die Ladungsrekombination von Db führt die größere räumliche Distanz der beiden Ladungen im CS2-Zustand in den Triaden zu verringerten Geschwindigkeitskonstanten für die Ladungsrekombination von ca. einer Größenordnung. Allerdings ist die Gesamtlebensdauer der CS-Zustände wichtiger als eine kleine Geschwindigkeitskonstante für die Ladungsrekombination. Gerade diese Lebensdauer kann maßgeblich durch die Population des 3CS-Zustandes verlängert werden. Die vorgestellten Ergebnisse zeigen, dass die größere Singulett-Triplett-Aufspaltung in den Dyaden zu einer Lebensdauer des CS-Zustands von mehreren us führt, während sich die Lebensdauern der CS-Zustände in den Triaden im ns-Zeitbereich befinden. Des Weiteren konnte eine Lösungsmittelabhängigkeit der Singulett-Triplett-Aufspaltung in den Triaden beobachtet werden. Dies stellt einen vielversprechenden Ansatzpunkt für weitere Studien bezüglich der Singulett-Triplett-Aufspaltung dar. Das Donor-Akzeptor-Dendrimer D-A-G1 zeigt ähnliche Eigenschaften wie die beiden Dyaden (Da und Db). Durch das deutliche Auftreten einer NDI-Radikal-Anion-Bande im transienten Absorptionsspektrum kann auch nach der Anregung von D-A-G1 die Bildung eines CS-Zustandes angenommen werden. Bemerkenswerterweise wurde die transiente Absorptionsbande des TAA-Radikal-Kation für D A G1 in Toluol nicht beobachtet. Eine Bixon-Jortner-Analyse lieferte eine elektronische Kopplung für D-A-G1, die der für die Dyaden (Da und Db) vergleichbar ist. Durch einen energetisch höherliegenden CS-Zustand in D-A-G1, der die Ladungsrekombination in der invertierten Region verlangsamt, ist die Geschwindigkeitskonstante für die Ladungsrekombination bei D-A-G1 kleiner als bei Db. In Kombination mit einer Singulett-Triplett-Aufspaltung vergleichbar mit der, der Dyaden, führt dies zu einer verlängerten Lebensdauer des CS-Zustands bis zu 14 us in verdünnter Lösung. Beide Charakteristiken führen zu verbesserten Eigenschaften von D A-G1 hinsichtlich einer möglichen Verwendung als System für die Energieumwandlung von Sonnenlicht. Daher stellt D-A-G1 eine vielversprechende Leitstruktur für weitere Untersuchungen bezüglich Lichtsammelsysteme dar. In einer zukünftigen Studie könnte das Donor-Akzteptor-Dendrimer zweiter Generation D-A-G2 von Interesse sein. Synthetisch wäre es über eine “Click-Reaktion” zwischen 13 und 8 realisierbar. Den cyclovoltammetrischen Untersuchungen von G1-G3 zur Folge, sollte in D-A-G2 ein abwährtsgerichteter Gradient an CS Zuständen vorliegen. KW - Sternpolymere KW - Triarylamine KW - Dendrimers KW - Energy Transfer KW - Electron Transfer KW - Transient Absorption KW - Fluorescence Upconversion KW - Dendrimere KW - Energie-Transfer KW - Elektron-Transfer KW - Transiente Absorption KW - Fluoreszenz Aufkonversion KW - Donorgruppe KW - Akzeptorgruppe KW - Elektronentransfer KW - Cascades KW - Kaskaden Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-101866 ER - TY - THES A1 - Ziegler, Christiane T1 - Epigenetic Mechanisms in the Pathogenesis and Therapy of Anxiety Disorders T1 - Epigenetische Mechanismen in der Pathogenese und Therapie von Angsterkrankungen N2 - Anxiety disorders (AD) are common, disabling mental disorders, which constitute the most prevalent mental health condition conveying a high individual and socioeconomic burden. Social anxiety disorder (SAD), i.e. fear in social situations particularly when subjectively scrutinized by others, is the second most common anxiety disorder with a life time prevalence of 10%. Panic disorder (PD) has a life time prevalence of 2-5% and is characterized by recurrent and abrupt surges of intense fear and anticipatory anxiety, i.e. panic attacks, occurring suddenly and unexpected without an apparent cue. In recent years, psychiatric research increasingly focused on epigenetic mechanisms such as DNA methylation as a possible solution for the problem of the so-called “hidden heritability”, which conceptualizes the fact that the genetic risk variants identified so far only explain a small part of the estimated heritability of mental disorders. In the first part of this thesis, oxytocin receptor (OXTR) gene methylation was investigated regarding its role in the pathogenesis of social anxiety disorder. In summary, OXTR methylation patterns were implicated in different phenotypes of social anxiety disorder on a categorical, neuropsychological, neuroendocrinological as well as on a neural network level. The results point towards a multilevel role of OXTR gene hypomethylation particularly at one CpG site (CpG3, Chr3: 8 809 437) within the protein coding region of the gene in SAD. The second part of the thesis investigated monoamine oxidase A (MAOA) gene methylation regarding its role in the pathogenesis of panic disorder as well as – applying a psychotherapy-epigenetic approach – its dynamic regulation during the course of cognitive behavioural therapy (CBT) in PD patients. First, MAOA hypomethylation was shown to be associated with panic disorder as well as with panic disorder severity. Second, in patients responding to treatment MAOA hypomethylation was shown to be reversible up to the level of methylation in healthy controls after the course of CBT. This increase in MAOA methylation along with successful psychotherapeutic treatment was furthermore shown to be associated with symptom improvement regarding agoraphobic avoidance in an independent replication sample of non-medicated patients with PD. Taken together, in the future the presently identified epigenetic patterns might contribute to establishing targeted preventive interventions and personalized treatment options for social anxiety disorder or panic disorder, respectively. N2 - Angsterkrankungen sind die häufigsten psychischen Erkrankungen, welche in hohem Maße den Alltag der Betroffenen beeinträchtigen und eine große sozioökonomische Belastung darstellen. Eine der häufigsten Formen von Angsterkrankungen bildet die soziale Phobie, d.h. die Angst vor sozialen Situationen, in denen man im Mittelpunkt der Aufmerksamkeit steht, mit einer Lebenszeit-Prävalenz von circa 10%. Die Panikstörung, charakterisiert durch das wiederholte und unerwartete Auftreten von Panikattacken, ist eine weitere Form der Angsterkrankungen mit einer Lebenszeit-Prävalenz von circa 2-5%. Epigenetische Mechanismen, wie zum Beispiel die DNA Methylierung, rücken in den letzten Jahren immer weiter in den Fokus der psychiatrischen Forschung. Hier werden sie als eine mögliche Lösung für das Problem der „hidden heritability“ (versteckte Heritabilität) angesehen. Im ersten Teil dieser Arbeit wurde die DNA Methylierung des Oxytozinrezeptorgens (OXTR) hinsichtlich ihrer Rolle in der Pathogenese der sozialen Phobie untersucht. Hierbei konnte eine verringerte Methylierung des Gens, speziell an einem CpG-Dinukleotid (CpG3, Chr3: 8 809 437) innerhalb der protein-kodierenden Genregion, auf verschiedenen Ebenen mit der Erkrankung an sozialer Phobie, dimensionalen Maßen der Erkrankungsschwere sowie der Stressverarbeitung auf neuro-endokrinologischer und neuronaler Ebene in Verbindung gebracht werden. Der zweite Teil dieser Arbeit beschäftigt sich mit der Rolle von DNA Methylierungsmustern des Monoaminooxidase A (MAOA) Gens in der Pathogenese und der Therapie der Panikstörung. Zum einen konnte gezeigt werden, dass eine verringerte MAOA Methylierung mit dem Auftreten von Panikstörung sowie mit einer erhöhten Symptomschwere assoziiert ist. Zum anderen zeigten Patienten, welche auf eine kognitive Verhaltenstherapie (KVT) ansprachen, eine signifikante Erhöhung der MAOA Methylierung nach der Therapie, welche zusätzlich in einer unabhängigen Stichprobe mit einer Verringerung der Symptomschwere assoziiert war. Diese Veränderung zeigte sich jedoch nicht in Patienten, welche nicht auf die KVT ansprachen. Zusammenfassend können beide im Rahmen dieser Arbeit untersuchten epigenetischen Muster und deren Rolle in der Pathogenese der sozialen Phobie sowie der Panikstörung zur Etablierung personalisierter Therapiemöglichkeiten wie auch targetierter präventiver Interventionen beitragen. KW - Angst KW - Psychische Störung KW - DNA-Methylierung KW - Panikstörung KW - Soziale Phobie KW - Angsterkrankungen KW - Epigenetische Mechanismen KW - Epigenetik KW - Methylierung KW - DNS KW - Angsterkrankungen Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-146815 ER - TY - THES A1 - Ziegenhals, Thomas T1 - The role of the miR-26 family in neurogenesis T1 - Die Rolle der miR-26 Familie in der Neurogenese N2 - For the differentiation of a embryonic stem cells (ESCs) to neuronal cells (NCs) a complex and coordinated gene regulation program is needed. One important control element for neuronal differentiation is the repressor element 1 silencing transcription factor (REST) complex, which represses neuronal gene expression in non-neuronal cells. Crucial effector proteins of the REST complex are small phosphatases such as the CTDSPs (C-terminal domain small phosphatases) that regulate polymerase II activity by dephosphorylating the C-terminal domain of the polymerase, thereby repressing target genes. The stepwise inactivation of REST, including the CTDSPs, leads to the induction of a neuron-specific gene program, which ultimately induces the formation of neurons. The spatio-temporal control of REST and its effector components is therefore a crucial step for neurogenesis. In zebrafish it was shown that the REST-associated CTDSP2 is negatively regulated by the micro RNA (miR) -26b. Interestingly, the miR-26b is encoded in an intron of the primary transcript of CTDSP2. This gives the fundament of an intrinsic regulatory negative feedback loop, which is essential for the proceeding of neurogenesis. This feedback loop is active during neurogenesis, but inactive in non-neuronal cells. The reason for this is that the maturation of the precursor miR (pre-miR) to the mature miR-26 is arrested in non neuronal cells, but not in neurons. As only mature miRs are actively repressing genes, the regulation of miR-26 processing is an essential step in neurogenesis. In this study, the molecular basis of miR-26 processing regulation in the context of neurogenesis was addressed. The mature miR is processed from two larger precursors: First the primary transcript is cleaved by the enzyme DROSHA in the nucleus to form the pre-miR. The pre-miR is exported from the nucleus and processed further through the enzyme DICER to yield the mature miR. The mature miR can regulate gene expression in association with the RNA-induced silencing complex (RISC). Multiple different scenarios in which miR processing was regulated were proposed and experimentally tested. Microinjection studies using Xenopus leavis oocytes showed that slowdown or blockage of the nucleo-cytoplasmic transport are not the reason for delayed pre-miR-26 processing. Moreover, in vitro and in vivo miR-processing assays showed that maturation is most likely regulated through a in trans acting factor, which blocks processing in non neuronal cells. Through RNA affinity chromatographic assays using zebrafish and murine lysates I was able to isolate and identify proteins that interact specifically with pre-miR-26 and could by this influence its biogenesis. Potential candidates are FMRP/FXR1/2, ZNF346 and Eral1, whose functional characterisation in the context of miR-biogenesis could now be addressed. The second part of my thesis was executed in close colaboration with the laboratory of Prof. Albrecht Müller. The principal question was addressed how miR-26 influences neuronal gene expression and which genes are primarily affected. This research question could be addressed by using a cell culture model system, which mimics ex vivo the differentiation of ESCs to NCs via neuronal progenitor. For the functional analysis of miR-26 knock out cell lines were generated by the CRISPR/Cas9 technology. miR-26 deficient ESC keep their pluripotent state and are able to develop NPC, but show major impairment in differentiating to NCs. Through RNA deep sequencing the miR-26 induced transcriptome differences could be analysed. On the level of mRNAs it could be shown, that the expression of neuronal gene is downregulated in miR-26 deficient NCs. Interestingly, the deletion of miR-26 leads to selectively decreased levels of miRs, which on one hand regulate the REST complex and on the other hand are under transcriptional control by REST themself. This data and the discovery that induction of miR-26 leads to enrichment of other REST regulating miRs indicates that miR-26 initiates neurogenesis through stepwise inactivation of the REST complex. N2 - Für die Differenzierung von embryonalen Stammzellen (ESCs) zu Neuronen (NCs) bedarf es eines komplexen Genregulationsprogramms, welches sowohl zeitlich als auch räumlich reguliert werden muss. Ein wichtiger Faktor während der neuronalen Differenzierung ist der sogenannte „repressor element 1 silencing transcription factor“ (REST)-Komplex, welcher die Expression neuronaler Gene in nicht neuralen Zellen unterdrückt. Wichtige Effektorproteine im REST-Komplex sind kleine Phosphatasen (sog. CTDSPs), welche durch die Dephosphorylierung der C-terminalen Domäne der RNA-Polymerase II deren Aktivität an Zielgenen reprimiert. Die schrittweise Inaktivierung von REST, einschließlich der CTDSPs, führt hingegen zur Einleitung des neuronalen Genprogramms und damit zur Entwicklung von neuronalen Zellen. Die zeitliche Regulierung des REST-Komplexes und seiner assoziierten Effektor-Komponenten ist daher auf molekularer Ebene das entscheidende Ereignis in der Neurogenese. Studien in Zebrafisch haben gezeigt, dass die REST-assoziierte Phosphatase CTDSP2 von der micro-RNA (miR) -26b negativ reguliert wird, was zu einer reduzierten REST Aktivität führt. Interessanterweise liegt diese miR in einem Intron von CTDSP2, also dem Gen, welches sie selbst repremiert. Diese Konstellation stellt die Basis für eine intrinsische negative Rückkopplungsschleife dar und ist essentiell für das Voranschreiten der Neurogenese. Diese Schleife ist aktiv während der Neurogenese, jedoch inaktiv in neuronalen Stammzellen. Der Grund hierfür ist, dass die Reifung der miR-26b auf der Stufe der Prozessierung des miR-Vorläufers (pre-miR) zur reifen miR in Stammzellen, nicht aber in Neuronen, angehalten ist. Da nur reife miR funktionell aktiv sein können, ist die Regulation der miR-26 Reifung ein essentieller Schritt im Rahmen der Neurogenese. In dieser Dissertation sollte der Frage nach der molekularen Basis der regulierten Prozessierung der miR-26 im Rahmen der Neurogenese nachgegangen werden. Die Prozessierung von miR erfolgt über zwei Intermediate: Zunächst wird aus dem primären Transkript im Zellkern die pre-miR durch das Enzym DROSHA gebildet. Diese wird dann aus dem Kern exportiert und durch das Enzym DICER zur reifen miR weiterverarbeitet, die im Kontext des „RNA-Induced Silencing Complex“ (RISC) die post-transkriptionale Genexpression reguliert. Mirkoinjektionsstudien an Xenopus leavis Oocyten zeigten, dass eine Verlangsamung bzw. Blockade des nukleo-zytoplasmatischen Transports nicht Ursache für die verzögerte Prozessierung der pre-miR-26 sein kann. Stattdessen haben in vitro und in vivo Prozessierungsexperimente gezeigt, dass die Reifung der miR-26 sehr wahrscheinlich durch einen in trans agierenden Faktor gesteuert wird, der die Prozessierung in nicht-neuronalen Zellen blockiert. Durch RNA affinitätschromatographische Versuche gelang es, Proteine aus Maus- und Zebrafischlysaten zu isolieren und diese zu identifizieren, die spezifisch mit der pre-miR-26b interagieren und deren Biogenese beeinflussen könnten. Vielversprechende Kandidaten sind die Proteine FMRP/FXR1/2, ZNF346 und Eral1, deren funktionelle Charakterisierung im Kontext der miR-Biogenese nun möglich ist. In einer Kooperation mit der Arbeitsgruppe von Prof. Albrecht Müller wurde im zweiten Teil der Arbeit der prinzipiellen Frage nachgegangen, wie die miR-26 die neuronale Genexpression steuert und welche Gene hiervon primär betroffen sind. Diese Untersuchungen wurden durch die Etablierung eines Zellkultur-Protokolls ermöglicht, welches ex vivo die Differenzierung von ESC über neuronal Vorläufer Zellen (NPC) zu NCs erlaubte und so eine systematische Analyse dieses Prozess erlaubte. Für die Funktionsanalyse von miR-26 wurden über die CRISPR/Cas9 Technologie Zelllinien hergestellt, welche keine miR-26 mehr im Genom haben. miR-26 defiziente ESCs behalten ihren pluripotenten Status und ließen sich zu NPCs entwickeln. Die Weiterentwicklung von NPCs zu NCs war hingegen massiv eingeschränkt. Durch RNA Hochdurchsatzsequenzierung gelang es die miR-26 induzierten Genexpressionsunterschiede geanu zu identifizieren. Auf der Ebene der mRNA konnte gezeigt werden, dass die Expression von neuronalen Genen in miR-26 defizienten NCs herunterreguliert ist und dass unter diesen Bedingungen offensichtlich kein anderer Differenzierungsweg eingeschlagen werden konnte. Interessanterweise führte die Deletion von miR-26 zu einer selektiven Verminderung von miRs, die einerseits den REST Komplex regulieren, andererseits aber auch unter dessen transkriptionaler Kontrolle stehen. Diese Daten und die Entdeckung, dass die Induktion von miR-26 zur Anreicherung anderer REST regulierender miRs führt, lässt vermuten, dass miR-26 die Neurogenese durch die schrittweise Inaktivierung des REST Komplexe initiiert. KW - miRNS KW - Neurogenese KW - miR-26 KW - REST-Complex KW - miRNA Biogenesis KW - microrna KW - neurogenesis Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-156395 ER - TY - THES A1 - Zidorn, Wilfried T1 - Alliances and R&D activites in the Biotechnology Industry T1 - Allianzen und F&E Aktivitäten in der Biotechnologieindustrie N2 - This dissertation is divided into three studies by addressing the following constitutive research questions in the context of the biotechnology industry: (1) How do different types of inter-firm alliances influence a firm’s R&D activity? (2) How does an increasing number and diversity of alliances in a firm’s alliance portfolio affect its R&D activity? (3) What is the optimal balance between exploration and exploitation? (1) To answer these research questions the first main chapter analyzes the impact of different types of alliances on the R&D activities of successful firms in the biotechnology industry. Following the use of a new approach to measuring changes in research activities, the results show that alliances are used to specialize in a certain research field, rather than to enter a completely new market. This effect becomes smaller when the equity involvement of the partners in the alliance project increases. (2) The second main chapter analyzes the impact on innovation output of having heterogeneous partners in a biotechnology firm’s alliance portfolio. Previous literature has stressed that investment in the heterogeneity of partners in an alliance portfolio is more important than merely engaging in multiple collaborative agreements. The analysis of a unique panel dataset of 20 biotechnology firms and their 8,602 alliances suggests that engaging in many alliances generally has a positive influence on a firm’s innovation output. Furthermore, maintaining diverse alliance portfolios has an inverted U-shaped influence on a firm’s innovation output, as managerial costs and complexity levels become too high. (3) And the third main chapter investigates whether there is an optimal balance to be found between explorative and exploitative innovation strategies. Previous literature states that firms that are ambidextrous (i.e., able to focus on exploration and exploitation simultaneously) tend to be more successful. Using a unique panel dataset of 20 leading biotechnology firms and separating their explorative and exploitative research, the chapter suggests that firms seeking to increase their innovation output should avoid imbalances between their explorative and exploitative innovation strategies. Furthermore, an inverted U-shaped relationship between a firm’s relative research attention on exploration and its innovation output is found. This dissertation concludes with the results of the dissertation, combines the findings, gives managerial implications and proposes areas for potential further research. N2 - In einer sich ständig verändernden Welt, die dominiert wird durch dynamisches Wachstum und Technologietransfer, spielt die Forschung und Entwicklung (F&E) eines Unternehmens eine zentrale Rolle. Der einfache Zugang zu Informationen, insbesondere für Unternehmen in technologiegetriebenen Industrien, kann über Erfolg und Misserfolg entscheiden und dadurch signifikante Wettbewerbsvorteile generieren. Da Wissen zu jeder Zeit und an verschiedenen Orten auf dieser Welt generiert wird, ist es für ein einzelnes Unternehmen unmöglich auf dieses breite Spektrum an Information durch eigenständige F&E zuzugreifen. Um diesen Zugang zu erweitern, kooperieren Unternehmen, insbesondere im Hochtechnologiebereich, entlang ihrer Wertschöpfungskette mit nationalen und internationalen Unternehmen aus wettbewerbsnahen und –fremden Industrien sowie staatlichen und privaten Forschungseinrichtungen. Diese Allianzen helfen Unternehmen den wechselnden Umwelteinflüssen, gekennzeichnet durch radikale und inkrementelle Innovationen, dem Kampf um Marktanteile und Änderungen der regulatorischen Rahmenbedingungen entgegenzutreten und ermöglichen dadurch schnell und flexibel auf diese exogenen Einflüsse zu reagieren. Ziel dieser Dissertation ist es, die F&E Prozesse von Unternehmen in der Biotechnologieindustrie darzustellen und dabei zu analysieren, inwiefern Unternehmen verschiedene Arten von Allianzen nutzen, um diese Prozesse zu optimieren. Nach Beschreibung der Forschungsrelevanz und der damit verbundenen Analyse von Studien zu F&E, Wissensgenerierung, Allianzen und der Biotechnologieindustrie folgen drei empirische Hauptteile. Der erste Teil beschreibt, inwiefern Unternehmen verschiedene Typen von Allianzen nutzen können, um sich auf bestimmte Technologiebereiche zu spezialisieren. Die Ergebnisse zeigen, dass Biotechnologieunternehmen, die oft und gezielt mit anderen Unternehmen kooperieren, einen spezialisierteren Technologiefokus haben, als Unternehmen, die von diesem strategischen Instrument nur selten Gebrauch machen. Der zweite Teil geht auf den Einfluss von Allianzportfolios auf F&E Prozesse innerhalb eines Biotechnologieunternehmens ein. Damit Unternehmen nicht wiederholt auf redundantes Wissen stoßen, müssen diese mit heterogenen Partnern kooperieren. Um die F&E Erträge zu maximieren, ist es dabei essentiell, dass Unternehmen den Überblick zum einen über die Anzahl der Allianzen und zum anderen über deren Diversität behalten. Die Ergebnisse zeigen, dass Unternehmen zwar von beiden Kooperationsstrategien einzeln betrachtet profitieren, allerdings in Kombination schnell an einen Punkt gelangen, ab welchem negative F&E Erträge eintreten. Der dritte Teil beschäftigt sich mit der explorativen und exploitativen Wissensgenerierung innerhalb Biotechnologieunternehmen. Exploration bezieht sich hierbei auf experimentelle Forschung und der Schaffung von neuem Wissen, wohingegen Exploitation die Erweiterung und Verbesserung von bereits bestehendem Wissen beschreibt. Vorhergegangene Studien beschreiben, dass Unternehmen am meisten von einer effektiven Verbindung der beiden Forschungsstrategien profitieren, ermitteln allerdings nicht, bei welcher Gewichtung ein Unternehmen den höchsten technologischen Nutzen hat. Ziel dieses Teils ist es, diesen Extrempunkt für Unternehmen der Biotechnologie zu ermitteln. Die Ergebnisse zeigen, dass Biotechnologieunternehmen am meisten von einem Gleichgewicht zwischen Exploration und Exploitation profitieren, dabei allerdings minimal mehr Ressourcen der experimentellen Forschungen zusprechen. Dieses Optimum müsste sich jedoch verschieben, sobald sich Rahmenbedingungen wie Wettbewerb, Industriedynamik oder regulatorische Vorgaben ändern. Daher zeigt diese Dissertation, dass Unternehmenskooperation eine entscheidende Rolle bei der Entwicklung sowie dem Überleben von Biotechnologieunternehmen spielt und eine Balance zwischen Exploration und Exploitation zu einem großen Teil die nachhaltige Wettbewerbsfähigkeit von Biotechnologieunternehmen bestimmen kann. KW - Biotechnologische Industrie KW - Forschung und Entwicklung KW - Unternehmenskooperation KW - Biotechnologie KW - Alliances KW - Innovation KW - Biotechnology Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-75483 ER -