TY - THES A1 - Üreyen, Soner T1 - Multivariate Time Series for the Analysis of Land Surface Dynamics - Evaluating Trends and Drivers of Land Surface Variables for the Indo-Gangetic River Basins T1 - Multivariate Zeitreihen zur Analyse von Landoberflächendynamiken - Auswertung von Trends und Treibern von Landoberflächenvariablen für Flusseinzugsgebiete der Indus-Ganges Ebene N2 - The investigation of the Earth system and interplays between its components is of utmost importance to enhance the understanding of the impacts of global climate change on the Earth's land surface. In this context, Earth observation (EO) provides valuable long-term records covering an abundance of land surface variables and, thus, allowing for large-scale analyses to quantify and analyze land surface dynamics across various Earth system components. In view of this, the geographical entity of river basins was identified as particularly suitable for multivariate time series analyses of the land surface, as they naturally cover diverse spheres of the Earth. Many remote sensing missions with different characteristics are available to monitor and characterize the land surface. Yet, only a few spaceborne remote sensing missions enable the generation of spatio-temporally consistent time series with equidistant observations over large areas, such as the MODIS instrument. In order to summarize available remote sensing-based analyses of land surface dynamics in large river basins, a detailed literature review of 287 studies was performed and several research gaps were identified. In this regard, it was found that studies rarely analyzed an entire river basin, but rather focused on study areas at subbasin or regional scale. In addition, it was found that transboundary river basins remained understudied and that studies largely focused on selected riparian countries. Moreover, the analysis of environmental change was generally conducted using a single EO-based land surface variable, whereas a joint exploration of multivariate land surface variables across spheres was found to be rarely performed. To address these research gaps, a methodological framework enabling (1) the preprocessing and harmonization of multi-source time series as well as (2) the statistical analysis of a multivariate feature space was required. For development and testing of a methodological framework that is transferable in space and time, the transboundary river basins Indus, Ganges, Brahmaputra, and Meghna (IGBM) in South Asia were selected as study area, having a size equivalent to around eight times the size of Germany. These basins largely depend on water resources from monsoon rainfall and High Mountain Asia which holds the largest ice mass outside the polar regions. In total, over 1.1 billion people live in this region and in parts largely depend on these water resources which are indispensable for the world's largest connected irrigated croplands and further domestic needs as well. With highly heterogeneous geographical settings, these river basins allow for a detailed analysis of the interplays between multiple spheres, including the anthroposphere, biosphere, cryosphere, hydrosphere, lithosphere, and atmosphere. In this thesis, land surface dynamics over the last two decades (December 2002 - November 2020) were analyzed using EO time series on vegetation condition, surface water area, and snow cover area being based on MODIS imagery, the DLR Global WaterPack and JRC Global Surface Water Layer, as well as the DLR Global SnowPack, respectively. These data were evaluated in combination with further climatic, hydrological, and anthropogenic variables to estimate their influence on the three EO land surface variables. The preprocessing and harmonization of the time series was conducted using the implemented framework. The resulting harmonized feature space was used to quantify and analyze land surface dynamics by means of several statistical time series analysis techniques which were integrated into the framework. In detail, these methods involved (1) the calculation of trends using the Mann-Kendall test in association with the Theil-Sen slope estimator, (2) the estimation of changes in phenological metrics using the Timesat tool, (3) the evaluation of driving variables using the causal discovery approach Peter and Clark Momentary Conditional Independence (PCMCI), and (4) additional correlation tests to analyze the human influence on vegetation condition and surface water area. These analyses were performed at annual and seasonal temporal scale and for diverse spatial units, including grids, river basins and subbasins, land cover and land use classes, as well as elevation-dependent zones. The trend analyses of vegetation condition mostly revealed significant positive trends. Irrigated and rainfed croplands were found to contribute most to these trends. The trend magnitudes were particularly high in arid and semi-arid regions. Considering surface water area, significant positive trends were obtained at annual scale. At grid scale, regional and seasonal clusters with significant negative trends were found as well. Trends for snow cover area mostly remained stable at annual scale, but significant negative trends were observed in parts of the river basins during distinct seasons. Negative trends were also found for the elevation-dependent zones, particularly at high altitudes. Also, retreats in the seasonal duration of snow cover area were found in parts of the river basins. Furthermore, for the first time, the application of the causal discovery algorithm on a multivariate feature space at seasonal temporal scale revealed direct and indirect links between EO land surface variables and respective drivers. In general, vegetation was constrained by water availability, surface water area was largely influenced by river discharge and indirectly by precipitation, and snow cover area was largely controlled by precipitation and temperature with spatial and temporal variations. Additional analyses pointed towards positive human influences on increasing trends in vegetation greenness. The investigation of trends and interplays across spheres provided new and valuable insights into the past state and the evolution of the land surface as well as on relevant climatic and hydrological driving variables. Besides the investigated river basins in South Asia, these findings are of great value also for other river basins and geographical regions. N2 - Die Untersuchung von Erdsystemkomponenten und deren Wechselwirkungen ist von großer Relevanz, um das Prozessverständnis sowie die Auswirkungen des globalen Klimawandels auf die Landoberfläche zu verbessern. In diesem Zusammenhang liefert die Erdbeobachtung (EO) wertvolle Langzeitaufnahmen zu einer Vielzahl an Landoberflächenvariablen. Diese können als Indikator für die Erdsystemkomponenten genutzt werden und sind essenziell für großflächige Analysen. Flusseinzugsgebiete sind besonders geeignet um Landoberflächendynamiken mit multivariaten Zeitreihen zu analysieren, da diese verschiedene Sphären des Erdsystems umfassen. Zur Charakterisierung der Landoberfläche stehen zahlreiche EO-Missionen mit unterschiedlichen Eigenschaften zur Verfügung. Nur einige wenige Missionen gewährleisten jedoch die Erstellung von räumlich und zeitlich konsistenten Zeitreihen mit äquidistanten Beobachtungen über großräumige Untersuchungsgebiete, wie z.B. die MODIS Sensoren. Um bisherige EO-Analysen zu Landoberflächendynamiken in großen Flusseinzugsgebieten zu untersuchen, wurde eine Literaturrecherche durchgeführt, wobei mehrere Forschungslücken identifiziert wurden. Studien untersuchten nur selten ein ganzes Einzugsgebiet, sondern konzentrierten sich lediglich auf Teilgebietsgebiete oder regionale Untersuchungsgebiete. Darüber hinaus wurden transnationale Einzugsgebiete nur unzureichend analysiert, wobei sich die Studien größtenteils auf ausgewählte Anrainerstaaten beschränkten. Auch wurde die Analyse von Umweltveränderungen meistens anhand einer einzigen EO-Landoberflächenvariable durchgeführt, während eine synergetische Untersuchung von sphärenübergreifenden Landoberflächenvariablen kaum unternommen wurde. Um diese Forschungslücken zu adressieren, ist ein methodischer Ansatz notwendig, der (1) die Vorverarbeitung und Harmonisierung von Zeitreihen aus mehreren Quellen und (2) die statistische Analyse eines multivariaten Merkmalsraums ermöglicht. Für die Entwicklung und Anwendung eines methodischen Frameworks, das raum-zeitlich übertragbar ist, wurden die transnationalen Einzugsgebiete Indus, Ganges, Brahmaputra und Meghna (IGBM) in Südasien, deren Größe etwa der achtfachen Fläche von Deutschland entspricht, ausgewählt. Diese Einzugsgebiete hängen weitgehend von den Wasserressourcen des Monsunregens und des Hochgebirges Asiens ab. Insgesamt leben über 1,1 Milliarden Menschen in dieser Region und sind zum Teil in hohem Maße von diesen Wasserressourcen abhängig, die auch für die größten zusammenhängenden bewässerten Anbauflächen der Welt und auch für weitere inländische Bedarfe unerlässlich sind. Aufgrund ihrer sehr heterogenen geographischen Gegebenheiten ermöglichen diese Einzugsgebiete eine detaillierte sphärenübergreifende Analyse der Wechselwirkungen, einschließlich der Anthroposphäre, Biosphäre, Kryosphäre, Hydrosphäre, Lithosphäre und Atmosphäre. In dieser Dissertation wurden Landoberflächendynamiken der letzten zwei Jahrzehnte anhand von EO-Zeitreihen zum Vegetationszustand, zu Oberflächengewässern und zur Schneebedeckung analysiert. Diese basieren auf MODIS-Aufnahmen, dem DLR Global WaterPack und dem JRC Global Surface Water Layer sowie dem DLR Global SnowPack. Diese Zeitreihen wurden in Kombination mit weiteren klimatischen, hydrologischen und anthropogenen Variablen ausgewertet. Die Harmonisierung des multivariaten Merkmalsraumes ermöglichte die Analyse von Landoberflächendynamiken unter Nutzung von statistischen Methoden. Diese Methoden umfassen (1) die Berechnung von Trends mittels des Mann-Kendall und des Theil-Sen Tests, (2) die Berechnung von phänologischen Metriken anhand des Timesat-Tools, (3) die Bewertung von treibenden Variablen unter Nutzung des PCMCI Algorithmus und (4) zusätzliche Korrelationstests zur Analyse des menschlichen Einflusses auf den Vegetationszustand und die Wasseroberfläche. Diese Analysen wurden auf jährlichen und saisonalen Zeitskalen und für verschiedene räumliche Einheiten durchgeführt. Für den Vegetationszustand wurden weitgehend signifikant positive Trends ermittelt. Analysen haben gezeigt, dass landwirtschaftliche Nutzflächen am meisten zu diesen Trends beitragen haben. Besonders hoch waren die Trends in ariden Regionen. Bei Oberflächengewässern wurden auf jährlicher Ebene signifikant positive Trends festgestellt. Auf Pixelebene wurden jedoch sowohl regional als auch saisonal Cluster mit signifikant negativen Trends identifiziert. Die Trends für die Schneebedeckung blieben auf jährlicher Ebene weitgehend stabil, jedoch wurden in Teilen der Einzugsgebiete zu bestimmten Jahreszeiten signifikant negative Trends beobachtet. Die negativen Trends wurden auch für höhenabhängige Zonen festgestellt, insbesondere in hohen Lagen. Außerdem wurden in Teilen der Einzugsgebiete Rückgänge bei der saisonalen Dauer der Schneebedeckung ermittelt. Darüber hinaus ergab die Untersuchung des multivariaten Merkmalsraums auf kausale Zusammenhänge auf saisonaler Ebene erstmals Aufschluss über direkte und indirekte Relationen zwischen EO-Landoberflächenvariablen und den entsprechenden Einflussfaktoren. Zusammengefasst wurde die Vegetation durch die Wasserverfügbarkeit, die Oberflächengewässer durch den Abfluss und indirekt durch den Niederschlag sowie die Schneebedeckung durch Niederschlag und Temperatur mit räumlichen und saisonalen Unterschieden kontrolliert. Zusätzliche Analysen wiesen auf einen positiven Zusammenhang zwischen dem menschlichen Einfluss und den zunehmenden Trends in der Vegetationsfläche hin. Diese sphärenübergreifenden Untersuchungen zu Trends und Wechselwirkungen liefern neue und wertvolle Einblicke in den vergangenen Zustand von Landoberflächendynamiken sowie in die relevanten klimatischen und hydrologischen Einflussfaktoren. Neben den untersuchten Einzugsgebieten in Südasien sind diese Erkenntnisse auch für weitere Einzugsgebiete und geographische Regionen von großer Bedeutung. KW - Multivariate Analyse KW - Zeitreihe KW - Fernerkundung KW - Geographie KW - Multivariate Time Series KW - River Basins KW - Earth Observation KW - Remote Sensing Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-291941 ER - TY - THES A1 - Ünzelmann, Maximilian T1 - Interplay of Inversion Symmetry Breaking and Spin-Orbit Coupling – From the Rashba Effect to Weyl Semimetals T1 - Zusammenspiel aus Inversionssymmetriebruch und Spin-Bahn-Kopplung – Vom Rashba-Effekt zu Weyl-Halbmetallen N2 - Breaking inversion symmetry in crystalline solids enables the formation of spin-polarized electronic states by spin-orbit coupling without the need for magnetism. A variety of interesting physical phenomena related to this effect have been intensively investigated in recent years, including the Rashba effect, topological insulators and Weyl semimetals. In this work, the interplay of inversion symmetry breaking and spin-orbit coupling and, in particular their general influence on the character of electronic states, i.e., on the spin and orbital degrees of freedom, is investigated experimentally. Two different types of suitable model systems are studied: two-dimensional surface states for which the Rashba effect arises from the inherently broken inversion symmetry at the surface, and a Weyl semimetal, for which inversion symmetry is broken in the three-dimensional crystal structure. Angle-resolved photoelectron spectroscopy provides momentum-resolved access to the spin polarization and the orbital composition of electronic states by means of photoelectron spin detection and dichroism with polarized light. The experimental results shown in this work are also complemented and supported by ab-initio density functional theory calculations and simple model considerations. Altogether, it is shown that the breaking of inversion symmetry has a decisive influence on the Bloch wave function, namely, the formation of an orbital angular momentum. This mechanism is, in turn, of fundamental importance both for the physics of the surface Rashba effect and the topology of the Weyl semimetal TaAs. N2 - Wird die Inversionssymmetrie kristalliner Festkörper gebrochen, ermöglicht dies die Ausbildung von spinpolarisierten elektronischen Zuständen durch Spin-Bahn-Kopplung ohne die Notwendigkeit von Magnetismus. In den vergangenen Jahren wurde eine Vielzahl interessanter physikalischer Phänomene diskutiert, die mit diesem Effekt zusammenhängen, darunter der Rashba-Effekt, topologische Isolatoren sowie Weyl-Halbmetalle. In dieser Arbeit wird das Zusammenspiel von Inversionssymetriebruch und Spin-Bahn-Kopplung sowie insbesondere deren Einfluss auf die Eigenschaften der elektronischen Zustände, also auf die Spin- und Orbital-Freiheitsgrade, experimentell untersucht. Zwei verschiedene Arten geeigneter Modellsysteme werden dazu betrachtet: zweidimensionale Oberflächenzustände, in denen der Rashba-Effekt aufgrund der an der Oberfläche inhärent gebrochenen Inverisonssymetrie auftritt, und ein Weyl-Halbmetall, dessen dreidimensionale Kristallstruktur kein Inversionszentrum besitzt. Winkelaufgelöste Photoelektronenspektroskopie bietet einen impulsaufgelösten Zugang zur Spinpolarisation sowie zur orbitalen Zusammensetzung der elektronischen Zustände mittels Photoelektronenspindetektion und Dichroismus mit polarisiertem Licht. Die in dieser Arbeit gezeigten experimentellen Ergebnisse werden außerdem durch ab-initio Dichtefunktionaltheorierechnungen sowie einfachen Modellbetrachtungen ergänzt und untermauert. Insgesamt zeigt sich, dass das Brechen von Inversionssymmetrie einen entscheidenden Einfluss auf die Bloch-Wellenfunktion hat, nämlich die Ausbildung eines orbitalen Bahndrehimpulses. Dieser Mechanismus ist wiederum von grundlegender Bedeutung sowohl für die Physik des Oberflächen- Rashba-Effekts als auch für die Topologie desWeyl-Halbmetalls TaAs. KW - Rashba-Effekt KW - Inversion Symmetry Breaking KW - Topologie KW - ARPES KW - Spin-Orbit Coupling KW - Orbital Angular Momentum Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-283104 ER - TY - THES A1 - Özkent, Helena T1 - Untersuchung der Beteiligung der kleinen Nervenfasern bei Patient/-innen mit Antikörper-assoziierten Neuropathien T1 - Investigation of the involvement of small nerve fibers in patients with antibody-associated neuropathies N2 - In der vorliegenden Studie wurden QST, QSART, Hautbiopsien und Fragebögen genutzt, um die Beteiligung kleiner Nervenfasern bei verschiedenen Formen der Immunneuropathien zu untersuchen. Wir konnten hierbei eine signifikante Beeinträchtigung der thermischen Reizleitung bei CIDP- und MADSAM-Patient/-innen nachweisen sowie eine signifikant reduzierte Schweißproduktion am distalen Unterschenkel bei MADSAM-Patient/-innen. Diese Ergebnisse belegen in allen drei Untergruppen der immunvermittelten Neuropathien eine Beteiligung kleiner auch unmyelinisierter Nervenfasertypen. MADSAM- und CIDP-Patient/-innen wiesen in der QST ein ähnliches Schädigungsmuster auf. Dagegen unterschieden sie sich signifikant in der QSART. Diese Ergebnisse können als weiterer Hinweis auf unterschiedliche zugrundeliegende Pathomechanismen verstanden werden. MMN-Patient/-innen wiesen insgesamt die geringste Small-Fiber-Beteiligung in den quantitativen Testungen auf. Auch lagen bei MMN-Patient/-innen durchschnittlich die geringsten Schmerz-Scores und autonomen Symptome vor. Es zeigten sich wenig signifikante Unterschiede zwischen seropositiven und seronegativen Neuropathie-Patient/-innen. Diese jedoch bestätigten unsere Hypothese einer etwas geringeren Small-Fiber-Beteiligung bei seropositiven Patient/-innen. Bei der Vielzahl an unterschiedlichen Pathomechanismen innerhalb der immunvermittelten Neuropathien erscheinen weitere Subklassifizierungen für eine optimale Diagnosestellung und Therapie unabdingbar. Diese Arbeit konnte mit den oben genannten Untersuchungen einen weiteren Beitrag zur Identifikation von klinischen und quantitativen Unterschieden innerhalb dieser großen Erkrankungsgruppe leisten. Künftige, größere Studien dieser Art können möglicherweise hier nur als Tendenzen gesehene Erkenntnisse belegen und sollten durch zusätzliche Informationen wie Korrelation zu Krankheitsdauer, Therapie, Laborchemie und elektrophysiologischen Untersuchen weitere interessante Erkenntnisse liefern. N2 - In the present study QST, QSART, skin biopsies and questionnaires were used to examine the involvement of small nerve fibers in different forms of immune-mediated neuropathies. Here, we demonstrated significant impairment of thermal conduction in CIDP and MADSAM patients and a significantly reduced sweat production at the distal lower leg in MADSAM patients. These results demonstrate an involvement of small unmyelinated nerve fibers in all three subgroups of immune-mediated neuropathies. MADSAM and CIDP patients showed a similar pattern of damage in QST. In contrast, they differed significantly in QSART. These results can be understood as further evidence of different underlying pathomechanisms. MMN patients had the lowest overall small-fiber involvement in our quantitative tests and suffered from less pain and autonomic symptoms compared to CIDP and MADSAM. There were few significant differences between seropositive and seronegative neuropathy patients. However, these confirmed our hypothesis of slightly lower small-fiber involvement in seropositive patients. Given the large number of different pathomechanisms within immune-mediated neuropathies, further subclassifications seem essential for optimal diagnosis and therapy. With these results this work could contribute further aspects to the identification of clinical and quantitative differences within immune-mediated neuropathies. Future larger studies of this type may be able to substantiate findings - seen here only as trends - and should provide further interesting insights through additional information such as correlation to disease duration, therapy, laboratory chemistry and electrophysiological studies. KW - Polyneuropathie KW - Nervenfaser KW - Neuropathie KW - Quantitativ Sensorische Testung KW - QSART KW - Hautbiopsie KW - small nerve fibers Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-269293 ER - TY - THES A1 - Züfle, Marwin Otto T1 - Proactive Critical Event Prediction based on Monitoring Data with Focus on Technical Systems T1 - Proaktive Vorhersage kritischer Ereignisse auf der Grundlage von Beobachtungsdaten mit Schwerpunkt auf technischen Systemen N2 - The importance of proactive and timely prediction of critical events is steadily increasing, whether in the manufacturing industry or in private life. In the past, machines in the manufacturing industry were often maintained based on a regular schedule or threshold violations, which is no longer competitive as it causes unnecessary costs and downtime. In contrast, the predictions of critical events in everyday life are often much more concealed and hardly noticeable to the private individual, unless the critical event occurs. For instance, our electricity provider has to ensure that we, as end users, are always supplied with sufficient electricity, or our favorite streaming service has to guarantee that we can watch our favorite series without interruptions. For this purpose, they have to constantly analyze what the current situation is, how it will develop in the near future, and how they have to react in order to cope with future conditions without causing power outages or video stalling. In order to analyze the performance of a system, monitoring mechanisms are often integrated to observe characteristics that describe the workload and the state of the system and its environment. Reactive systems typically employ thresholds, utility functions, or models to determine the current state of the system. However, such reactive systems cannot proactively estimate future events, but only as they occur. In the case of critical events, reactive determination of the current system state is futile, whereas a proactive system could have predicted this event in advance and enabled timely countermeasures. To achieve proactivity, the system requires estimates of future system states. Given the gap between design time and runtime, it is typically not possible to use expert knowledge to a priori model all situations a system might encounter at runtime. Therefore, prediction methods must be integrated into the system. Depending on the available monitoring data and the complexity of the prediction task, either time series forecasting in combination with thresholding or more sophisticated machine and deep learning models have to be trained. Although numerous forecasting methods have been proposed in the literature, these methods have their advantages and disadvantages depending on the characteristics of the time series under consideration. Therefore, expert knowledge is required to decide which forecasting method to choose. However, since the time series observed at runtime cannot be known at design time, such expert knowledge cannot be implemented in the system. In addition to selecting an appropriate forecasting method, several time series preprocessing steps are required to achieve satisfactory forecasting accuracy. In the literature, this preprocessing is often done manually, which is not practical for autonomous computing systems, such as Self-Aware Computing Systems. Several approaches have also been presented in the literature for predicting critical events based on multivariate monitoring data using machine and deep learning. However, these approaches are typically highly domain-specific, such as financial failures, bearing failures, or product failures. Therefore, they require in-depth expert knowledge. For this reason, these approaches cannot be fully automated and are not transferable to other use cases. Thus, the literature lacks generalizable end-to-end workflows for modeling, detecting, and predicting failures that require only little expert knowledge. To overcome these shortcomings, this thesis presents a system model for meta-self-aware prediction of critical events based on the LRA-M loop of Self-Aware Computing Systems. Building upon this system model, this thesis provides six further contributions to critical event prediction. While the first two contributions address critical event prediction based on univariate data via time series forecasting, the three subsequent contributions address critical event prediction for multivariate monitoring data using machine and deep learning algorithms. Finally, the last contribution addresses the update procedure of the system model. Specifically, the seven main contributions of this thesis can be summarized as follows: First, we present a system model for meta self-aware prediction of critical events. To handle both univariate and multivariate monitoring data, it offers univariate time series forecasting for use cases where a single observed variable is representative of the state of the system, and machine learning algorithms combined with various preprocessing techniques for use cases where a large number of variables are observed to characterize the system’s state. However, the two different modeling alternatives are not disjoint, as univariate time series forecasts can also be included to estimate future monitoring data as additional input to the machine learning models. Finally, a feedback loop is incorporated to monitor the achieved prediction quality and trigger model updates. We propose a novel hybrid time series forecasting method for univariate, seasonal time series, called Telescope. To this end, Telescope automatically preprocesses the time series, performs a kind of divide-and-conquer technique to split the time series into multiple components, and derives additional categorical information. It then forecasts the components and categorical information separately using a specific state-of-the-art method for each component. Finally, Telescope recombines the individual predictions. As Telescope performs both preprocessing and forecasting automatically, it represents a complete end-to-end approach to univariate seasonal time series forecasting. Experimental results show that Telescope achieves enhanced forecast accuracy, more reliable forecasts, and a substantial speedup. Furthermore, we apply Telescope to the scenario of predicting critical events for virtual machine auto-scaling. Here, results show that Telescope considerably reduces the average response time and significantly reduces the number of service level objective violations. For the automatic selection of a suitable forecasting method, we introduce two frameworks for recommending forecasting methods. The first framework extracts various time series characteristics to learn the relationship between them and forecast accuracy. In contrast, the other framework divides the historical observations into internal training and validation parts to estimate the most appropriate forecasting method. Moreover, this framework also includes time series preprocessing steps. Comparisons between the proposed forecasting method recommendation frameworks and the individual state-of-the-art forecasting methods and the state-of-the-art forecasting method recommendation approach show that the proposed frameworks considerably improve the forecast accuracy. With regard to multivariate monitoring data, we first present an end-to-end workflow to detect critical events in technical systems in the form of anomalous machine states. The end-to-end design includes raw data processing, phase segmentation, data resampling, feature extraction, and machine tool anomaly detection. In addition, the workflow does not rely on profound domain knowledge or specific monitoring variables, but merely assumes standard machine monitoring data. We evaluate the end-to-end workflow using data from a real CNC machine. The results indicate that conventional frequency analysis does not detect the critical machine conditions well, while our workflow detects the critical events very well with an F1-score of almost 91%. To predict critical events rather than merely detecting them, we compare different modeling alternatives for critical event prediction in the use case of time-to-failure prediction of hard disk drives. Given that failure records are typically significantly less frequent than instances representing the normal state, we employ different oversampling strategies. Next, we compare the prediction quality of binary class modeling with downscaled multi-class modeling. Furthermore, we integrate univariate time series forecasting into the feature generation process to estimate future monitoring data. Finally, we model the time-to-failure using not only classification models but also regression models. The results suggest that multi-class modeling provides the overall best prediction quality with respect to practical requirements. In addition, we prove that forecasting the features of the prediction model significantly improves the critical event prediction quality. We propose an end-to-end workflow for predicting critical events of industrial machines. Again, this approach does not rely on expert knowledge except for the definition of monitoring data, and therefore represents a generalizable workflow for predicting critical events of industrial machines. The workflow includes feature extraction, feature handling, target class mapping, and model learning with integrated hyperparameter tuning via a grid-search technique. Drawing on the result of the previous contribution, the workflow models the time-to-failure prediction in terms of multiple classes, where we compare different labeling strategies for multi-class classification. The evaluation using real-world production data of an industrial press demonstrates that the workflow is capable of predicting six different time-to-failure windows with a macro F1-score of 90%. When scaling the time-to-failure classes down to a binary prediction of critical events, the F1-score increases to above 98%. Finally, we present four update triggers to assess when critical event prediction models should be re-trained during on-line application. Such re-training is required, for instance, due to concept drift. The update triggers introduced in this thesis take into account the elapsed time since the last update, the prediction quality achieved on the current test data, and the prediction quality achieved on the preceding test data. We compare the different update strategies with each other and with the static baseline model. The results demonstrate the necessity of model updates during on-line application and suggest that the update triggers that consider both the prediction quality of the current and preceding test data achieve the best trade-off between prediction quality and number of updates required. We are convinced that the contributions of this thesis constitute significant impulses for the academic research community as well as for practitioners. First of all, to the best of our knowledge, we are the first to propose a fully automated, end-to-end, hybrid, component-based forecasting method for seasonal time series that also includes time series preprocessing. Due to the combination of reliably high forecast accuracy and reliably low time-to-result, it offers many new opportunities in applications requiring accurate forecasts within a fixed time period in order to take timely countermeasures. In addition, the promising results of the forecasting method recommendation systems provide new opportunities to enhance forecasting performance for all types of time series, not just seasonal ones. Furthermore, we are the first to expose the deficiencies of the prior state-of-the-art forecasting method recommendation system. Concerning the contributions to critical event prediction based on multivariate monitoring data, we have already collaborated closely with industrial partners, which supports the practical relevance of the contributions of this thesis. The automated end-to-end design of the proposed workflows that do not demand profound domain or expert knowledge represents a milestone in bridging the gap between academic theory and industrial application. Finally, the workflow for predicting critical events in industrial machines is currently being operationalized in a real production system, underscoring the practical impact of this thesis. N2 - Die Bedeutung einer proaktiven und rechtzeitigen Vorhersage von kritischen Ereignissen nimmt immer weiter zu, sei es in der Fertigungsindustrie oder im Privatleben. In der Vergangenheit wurden Maschinen in der Fertigungsindustrie oft auf der Grundlage eines regelmäßigen Zeitplans oder aufgrund von Grenzwertverletzungen gewartet, was heutzutage nicht mehr wettbewerbsfähig ist, da es unnötige Kosten und Ausfallzeiten verursacht. Im Gegensatz dazu sind die Vorhersagen von kritischen Ereignissen im Alltag oft wesentlich versteckter und für die Privatperson kaum spürbar, es sei denn das kritische Ereignis tritt ein. So muss zum Beispiel unser Stromanbieter dafür sorgen, dass wir als Endverbraucher immer ausreichend mit Strom versorgt werden, oder unser Streaming-Dienst muss garantieren, dass wir unsere Lieblingsserie jederzeit ohne Unterbrechungen anschauen können. Hierzu müssen diese ständig analysieren wie der aktuelle Zustand ist, wie er sich in naher Zukunft entwickeln wird und wie sie reagieren müssen, um die zukünftigen Bedingungen zu bewältigen, ohne dass es zu Stromausfällen oder Videoabbrüchen kommt. Zur Analyse der Leistung eines Systems werden häufig Überwachungsmechanismen integriert, um Merkmale zu beobachten, die die Arbeitslast und den Zustand des Systems und seiner Umgebung abbilden. Reaktive Systeme verwenden typischerweise Schwellenwerte, Nutzenfunktionen oder Modelle, um den aktuellen Zustand des Systems zu bestimmen. Allerdings können solche reaktiven Systeme zukünftige Ereignisse nicht proaktiv abschätzen, sondern lediglich sobald diese eintreten. Bei kritischen Ereignissen ist die reaktive Bestimmung des aktuellen Systemzustands jedoch zwecklos, während ein proaktives System dieses Ereignis im Voraus hätte vorhersagen und rechtzeitig Gegenmaßnahmen einleiten können. Um Proaktivität zu erreichen, benötigt das System Abschätzungen über zukünftige Systemzustände. Angesichts der Kluft zwischen Entwurfszeit und Laufzeit ist es typischerweise nicht möglich Expertenwissen zu verwenden, um alle Situationen zu modellieren, auf die ein System zur Laufzeit stoßen könnte. Daher müssen Vorhersagemethoden in das System integriert werden. Abhängig von den verfügbaren Überwachungsdaten und der Komplexität der Vorhersageaufgabe müssen entweder Zeitreihenprognosen in Kombination mit Schwellenwerten oder ausgefeiltere Modelle des „Machine Learning“ und „Deep Learning“ trainiert werden. Obwohl in der Literatur schon zahlreiche Zeitreihenprognosemethoden vorgeschlagen wurden, haben alle diese Methoden in Abhängigkeit der Eigenschaften der betrachteten Zeitreihen ihre Vor- und Nachteile. Daher ist Expertenwissen erforderlich, um zu entscheiden, welche Zeitreihenprognosemethode gewählt werden sollte. Da jedoch die zur Laufzeit beobachteten Zeitreihen zur Entwurfszeit nicht bekannt sein können, lässt sich ein solches Expertenwissen nicht im System integrieren. Zusätzlich zur Auswahl einer geeigneten Zeitreihenprognosemethode sind mehrere Zeitreihenvorverarbeitungsschritte erforderlich, um eine zufriedenstellende Prognosegenauigkeit zu erreichen. In der Literatur wird diese Vorverarbeitung oft manuell durchgeführt, was für autonome Computersysteme, wie z. B. „Self-Aware Computing Systems“, nicht praktikabel ist. Hinsichtlich der Vorhersage kritischer Ereignisse auf der Grundlage multivariater Überwachungsdaten wurden in der Literatur auch bereits mehrere Ansätze unter Verwendung von „Machine Learning“ und „Deep Learning“ vorgestellt. Diese Ansätze sind jedoch typischerweise sehr domänenspezifisch, wie z. B. für finanzielle Zusammenbrüche, Lagerschäden oder Produktfehler. Aus diesem Grund erfordern sie umfassendes Expertenwissen. Durch den spezifischen Zuschnitt auf die jeweilige Domäne können diese Ansätze nicht vollständig automatisiert werden und sind nicht auf andere Anwendungsfälle übertragbar. Somit fehlt es in der Literatur an verallgemeinerbaren Ende-zu-Ende Prozessen zur Modellierung, Erkennung und Vorhersage von Ausfällen, die lediglich wenig Expertenwissen erfordern. Um diese Unzulänglichkeiten zu überwinden, wird in dieser Arbeit ein Systemmodell zur meta-selbstbewussten Vorhersage kritischer Ereignisse vorgestellt, das auf der LRA-M-Schleife von „Self-Aware Computing Systems“ basiert. Aufbauend auf diesem Systemmodell liefert diese Arbeit sechs weitere Beiträge zur Vorhersage kritischer Ereignisse. Während sich die ersten beiden Beiträge mit der Vorhersage kritischer Ereignisse auf der Basis univariater Daten mittels Zeitreihenprognose befassen, adressieren die drei folgenden Beiträge die Vorhersage kritischer Ereignisse für multivariate Überwachungsdaten unter Verwendung von „Machine Learning“ und „Deep Learning“ Algorithmen. Der letzte Beitrag schließlich behandelt das Aktualisierungsverfahren des Systemmodells. Im Einzelnen lassen sich die sieben Hauptbeiträge dieser Arbeit wie folgt zusammenfassen: Zunächst stellen wir ein Systemmodell für die meta-selbstbewusste Vorhersage von kritischen Ereignissen vor. Um sowohl univariate als auch multivariate Überwachungsdaten verarbeiten zu können, bietet es univariate Zeitreihenprognosen für Anwendungsfälle, in denen eine einzelne Beobachtungsgröße repräsentativ für den Zustand des Systems ist, sowie „Machine Learning“ und „Deep Learning“ Algorithmen in Kombination mit verschiedenen Vorverarbeitungstechniken für Anwendungsfälle, in denen eine große Anzahl von Variablen beobachtet wird, um den Zustand des Systems zu charakterisieren. Die beiden unterschiedlichen Modellierungsalternativen sind jedoch nicht disjunkt, da auch univariate Zeitreihenprognosen einbezogen werden können, um zukünftige Überwachungsdaten als zusätzliche Eingabe für die „Machine Learning“ und „Deep Learning“ Modelle zu schätzen. Schließlich ist eine Rückkopplungsschleife eingebaut, die die erreichte Vorhersagequalität überwacht und gegebenenfalls Modellaktualisierungen auslöst. Wir präsentieren eine neuartige, hybride Zeitreihenvorhersagemethode für univariate, saisonale Zeitreihen, die wir Telescope nennen. Telescope verarbeitet die Zeitreihe automatisch vor, führt eine Art „Divide-and-Conquer“ Technik durch, welche die Zeitreihe in mehrere Komponenten unterteilt, und leitet zusätzliche kategoriale Informationen ab. Anschließend prognostiziert es die Komponenten und kategorialen Informationen getrennt voneinander mit einer spezifischen Methode für jede Komponente. Abschließend setzt Telescope die einzelnen Vorhersagen wieder zusammen. Da Telescope alle Vorverarbeitungsschritte und Vorhersagen automatisch durchführt, stellt es einen vollständigen Ende-zu-Ende Ansatz für univariate, saisonale Zeitreihenvorhersagen dar. Experimentelle Ergebnisse zeigen, dass Telescope eine verbesserte Vorhersagegenauigkeit, zuverlässigere Vorhersagen und eine erhebliche Beschleunigung erreicht. Darüber hinaus wenden wir Telescope für die Vorhersage kritischer Ereignisse bei der automatischen Skalierung von virtuellen Maschinen an. Die Ergebnisse belegen, dass Telescope die durchschnittliche Antwortzeit erheblich reduziert und die Anzahl der Verletzungen der Service Level Zielvorgaben signifikant verringert. Für die automatische Auswahl einer geeigneten Zeitreihenprognosemethode führen wir zwei Empfehlungssysteme ein. Das erste System extrahiert verschiedene Zeitreihencharakteristika, um die Beziehung zwischen ihnen und der Prognosegenauigkeit zu erlernen. Im Gegensatz dazu unterteilt das zweite System die historischen Beobachtungen in interne Trainings- und Validierungsteile, um die am besten geeignete Zeitreihenprognosemethode zu schätzen. Außerdem beinhaltet letzteres System auch Zeitreihenvorverarbeitungsschritte. Vergleiche zwischen den vorgeschlagenen Empfehlungssystemen für Zeitreihenprognosemethoden und den einzelnen Prognosemethoden sowie dem Ansatz zur Empfehlung von Zeitreihenprognosemethoden nach dem Stand der Technik ergeben, dass die vorgeschlagenen Systeme die Prognosegenauigkeit erheblich verbessern. Im Hinblick auf multivariate Überwachungsdaten stellen wir zunächst einen Ende-zu-Ende Prozess vor, mit dem kritische Ereignisse in technischen Systemen in Form von anomalen Maschinenzuständen erkannt werden können. Der Ende-zu-Ende Entwurf umfasst die Rohdatenverarbeitung, die Phasensegmentierung, das Datenresampling, die Merkmalsextraktion und die Maschinenanomalieerkennung. Darüber hinaus stützt sich der Prozess explizit nicht auf tiefgreifendes Domänenwissen oder spezifische Überwachungsgrößen, sondern setzt lediglich gängige Maschinenüberwachungsdaten voraus. Wir evaluieren den Ende-zu-Ende Prozess anhand von Daten einer realen CNC-Maschine. Die Ergebnisse zeigen, dass die konventionelle Frequenzanalyse die kritischen Maschinenzustände nicht gut erkennt, während unser Prozess die kritischen Ereignisse mit einem F1-Wert von fast 91% sehr gut identifiziert. Um kritische Ereignisse vorherzusagen, anstatt sie nur reaktiv zu erkennen, vergleichen wir verschiedene Modellierungsalternativen für die Vorhersage kritischer Ereignisse im Anwendungsfall der Vorhersage der Zeit bis zum nächsten Fehler von Festplattenlaufwerken. Da Fehlerdatensätze typischerweise wesentlich seltener sind als Instanzen, die den Normalzustand repräsentieren, setzen wir verschiedene Strategien zum Erzeugen künstlicher Fehlerinstanzen ein. Im nächsten Schritt vergleichen wir die Vorhersagequalität der binären Klassenmodellierung mit der herunterskalierten Mehrklassenmodellierung. Des Weiteren integrieren wir die univariate Zeitreihenprognose in den Merkmalsgenerierungsprozess, um so die zukünftigen Überwachungsdaten zu schätzen. Schließlich modellieren wir die Zeit bis zum nächsten Fehler nicht nur mithilfe von Klassifikationsmodellen, sondern auch mit Regressionsmodellen. Die Ergebnisse legen nahe, dass die Mehrklassenmodellierung die insgesamt beste Vorhersagequalität hinsichtlich praktischer Anforderungen liefert. Außerdem belegen wir, dass die Prognose der Merkmale des Vorhersagemodells mittels univariater Zeitreihenprognose die Qualität der Vorhersage kritischer Ereignisse signifikant verbessert. Wir stellen einen Ende-zu-Ende Prozess für die Vorhersage kritischer Ereignisse von Industriemaschinen vor. Auch dieser Ansatz verlässt sich nicht auf Expertenwissen, mit Ausnahme der Definition von Überwachungsdaten, und stellt daher einen verallgemeinerbaren Prozess für die Vorhersage kritischer Ereignisse von Industriemaschinen dar. Der Prozess umfasst Merkmalsextraktion, Merkmalsverarbeitung, Zielklassenzuordnung und Modelllernen mit integrierter Hyperparameter-Abstimmung mittels einer Gittersuchtechnik. Ausgehend von den Ergebnissen des vorherigen Beitrags modelliert der Prozess die Vorhersage der Zeit bis zum nächsten Fehler in Form mehrerer Klassen, wobei wir verschiedene Beschriftungsstrategien für die Mehrklassenklassifizierung vergleichen. Die Evaluierung anhand realer Produktionsdaten einer großen Industriepresse demonstriert, dass der Prozess in der Lage ist, sechs verschiedene Zeitfenster für bevorstehende Fehler mit einem Makro F1-Wert von 90% vorherzusagen. Wenn man die Klassen der Zeit bis zum nächsten Fehler auf eine binäre Vorhersage von kritischen Ereignissen herunterskaliert, steigt der F1-Wert sogar auf über 98%. Schließlich stellen wir vier Aktualisierungsauslöser vor, um zu bestimmen, wann Modelle zur Vorhersage kritischer Ereignisse während der Online-Anwendung neu trainiert werden sollten. Ein solches Neutraining ist bspw. aufgrund von Konzeptdrift erforderlich. Die in dieser Arbeit vorgestellten Aktualisierungsauslöser berücksichtigen die Zeit, die seit der letzten Aktualisierung verstrichen ist, die auf den aktuellen Testdaten erreichte Vorhersagequalität und die auf den vorangegangenen Testdaten erreichte Vorhersagequalität. Wir vergleichen die verschiedenen Aktualisierungsstrategien miteinander und mit dem statischen Ausgangsmodell. Die Ergebnisse veranschaulichen die Notwendigkeit von Modellaktualisierungen während der Online-Anwendung und legen nahe, dass die Aktualisierungsauslöser, die sowohl die Vorhersagequalität der aktuellen als auch der vorangegangenen Testdaten berücksichtigen, den besten Kompromiss zwischen Vorhersagequalität und Anzahl der erforderlichen Aktualisierungen erzielen. Wir sind der festen Überzeugung, dass die Beiträge dieser Arbeit sowohl für die akademische Forschungsgemeinschaft als auch für die praktische Anwendung wichtige Impulse darstellen. Zuallererst sind wir unseres Wissens nach die ersten, die eine vollautomatische, hybride, komponentenbasierte, Ende-zu-Ende Prognosemethode für saisonale Zeitreihen vorschlagen, die auch die Zeitreihenvorverarbeitung beinhaltet. Durch die Verbindung einer zuverlässig hohen Vorhersagegenauigkeit mit einer zuverlässig niedrigen Zeit bis zum Ergebnis eröffnet diese viele neue Möglichkeiten für Anwendungen, die genaue Vorhersagen innerhalb eines festen Zeitraums erfordern, um rechtzeitig Gegenmaßnahmen ergreifen zu können. Darüber hinaus bieten die vielversprechenden Ergebnisse der Empfehlungssysteme für Zeitreihenprognosemethoden neue Ansätze zur Verbesserung der Vorhersageleistung für alle Arten von Zeitreihen, nicht nur für saisonale Zeitreihen. Ferner sind wir die ersten, die die Schwachstellen des bisherigen Stands der Technik bei der Empfehlung von Zeitreihenprognosemethoden aufgedeckt haben. Hinsichtlich der Beiträge zur Vorhersage kritischer Ereignisse mittels multivariater Überwachungsdaten haben wir bereits eng mit Industriepartnern zusammengearbeitet,wodurch die hohe praktische Relevanz der Beiträge dieser Arbeit verdeutlicht wird. Der automatisierte Ende-zu-Ende Entwurf der vorgeschlagenen Prozesse, die kein tiefes Domänen- oder Expertenwissen erfordern, stellt einen Meilenstein in der Überbrückung der Kluft zwischen akademischer Theorie und industrieller Anwendung dar. Diese Tatsache wird insbesondere dadurch untermauert, dass der Prozess zur Vorhersage kritischer Ereignisse in Industriemaschinen derzeit bereits in einem realen Produktionssystem operationalisiert wird. KW - Prognose KW - Automation KW - Zeitreihe KW - Forecasting KW - Zeitreihenvorhersage KW - Failure Prediction KW - Fehlervorhersage KW - End-to-End Automation KW - Ende-zu-Ende Automatisierung Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-255757 ER - TY - THES A1 - Zwick, Leonie T1 - Die Wirksamkeit von Cisplatin und 5-Fluoruracil im Oralen Plattenepithelkarzinom in Abhängigkeit von MAGE-Tumorantigen-Expression mit besonderem Fokus auf MAGE-A11 T1 - The Efficacy of Cisplatin and 5-Fluoruracil in Oral Squamous Cell Carcinoma and its Correlation with the Expression of MAGE-A Tumorantigenes – with a Focus on MAGE-A11 N2 - In der vorliegenden experimentellen Arbeit wurde in in-vitro-Modellen der Zusammenhang zwischen Expression der Tumorantigene MAGE-A (melanoma-associated antigenes) und der Wirksamkeit von Chemotherapeutika untersucht. Die MAGE-Antigene MAGE-A1 bis MAGE-A12 (ohne A7) kommen in diversen malignen Tumoren vor; neben Melanomen auch in Tumoren der Lunge, Brust, Prostata, Ovarien, Harnblase, des Gastrointestinal-Trakts und des Kopf-Hals-Bereichs. Bereits vielfach wurden Zusammenhänge zwischen MAGE-A-Tumorantigen-Expression und einer erhöhten Tumorinvasivität, Zellproliferation, Metastasierungsrate und kürzerem Überleben hergestellt. In dieser Arbeit gelang nun der erstmalige Nachweis, dass MAGE-A-Tumorantigene die chemotherapeutische Wirksamkeit beeinflussen. Zunächst gelang der Nachweis, dass die Expression von MAGE-A11 mit geringer Cisplatin-Wirksamkeit korreliert. Eine im Anschluss generierte MAGE-A11 überexprimierende Zelllinie zeigte ein durchschnittlich um 9 % schlechteres Ansprechen auf Cisplatin als die Kontrollzelllinie. N2 - The purpose of the present study was to examine whether there is a correlation between the expression of MAGE-A tumorantigenes (melanoma-associated antigenes) and the efficacy of chemotherapeutic agents. The tumorantigenes MAGE-A1 to MAGE-A12 (without MAGE-A7) occur in different tumors, such as melanoma, tumors of the lung, chest, prostata, ovary, gastro-intestinal tract and area of head-and-neck. Previous studies showed correlations between MAGE-A expression and tumor invasivity, cell proliferation, malignancy and survival. The present study proofs for the first time that there is a significant correlation between MAGE-A11 expression and a lower efficacy of Cisplatin. For this study we generated a MAGE-A11 overexpressing cell line which showed a 9% lower efficacy of Cisplatin. KW - Cisplatin KW - Tumorantigen KW - Plattenepithelcarcinom KW - MAGE-A KW - MAGE-A11 KW - Expressionsprofile KW - 5-Fluoruracil KW - Orales Plattenepithelcarcinom Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-254956 ER - TY - THES A1 - Zoran, Tamara T1 - Multilevel analysis of the human immune response to \(Aspergillus\) \(fumigatus\) infection: Characteristic molecular signatures and individual risk factors T1 - Analysen der humanen Immunantwort auf eine Infektion mit \(Aspergillus\) \(fumigatus\): Charakteristische molekulare Signaturen und individuelle Risikofaktoren N2 - Although the field of fungal infections advanced tremendously, diagnosis of invasive pulmonary aspergillosis (IPA) in immunocompromised patients continues to be a challenge. Since IPA is a multifactorial disease, investigation from different aspects may provide new insights, helpful for improving IPA diagnosis. This work aimed to characterize the human immune response to Aspergillus fumigatus in a multilevel manner to identify characteristic molecular candidates and risk factors indicating IPA, which may in the future support already established diagnostic assays. We combined in vitro studies using myeloid cells infected with A. fumigatus and longitudinal case-control studies investigating patients post allogeneic stem cell transplantation (alloSCT) suffering from IPA and their match controls. Characteristic miRNA and mRNA signatures indicating A. fumigatus-infected monocyte-derived dendritic cells (moDCs) demonstrated the potential to differentiate between A. fumigatus and Escherichia coli infection. Transcriptome and protein profiling of alloSCT patients suffering from IPA and their matched controls revealed a distinctive IPA signature consisting of MMP1 induction and LGAL2 repression in combination with elevated IL-8 and caspase-3 levels. Both, in vitro and case-control studies, suggested cytokines, matrix-metallopeptidases and galectins are important in the immune response to A. fumigatus. Identified IPA characteristic molecular candidates are involved in numerous processes, thus a combination of these in a distinctive signature may increase the specificity. Finally, low monocyte counts, severe GvHD of the gut (grade ≥ 2) and etanercept administration were significantly associated with IPA diagnosis post alloSCT. Etanercept in monocyte-derived macrophages (MDM) infected with A. fumigatus downregulates genes involved in the NF-κB and TNF-α pathway and affects the secretion of CXCL10. Taken together, identified characteristic molecular signatures and risk factors indicating IPA may in the future in combination with established fungal biomarkers overcome current diagnostic challenges and help to establish tailored antifungal therapy. Therefore, further multicentre studies are encouraged to evaluate reported findings. N2 - Obwohl im Bereich der Erforschung invasiver Pilzinfektionen aktuell enorme Fortschritte erzielt wurden, stellt die Diagnose der Invasiven Pulmonalen Aspergillose (IPA) bei immunsupprimierten Patienten weiterhin eine grosse Herausforderung dar. Da es sich bei der IPA um eine multifaktorielle Erkrankung handelt, können Untersuchungen unter verschiedenen Fragestellungen neue Erkenntnisse liefern, die zur Verbesserung der IPA Diagnose beitragen. In dieser Arbeit wurde die humane Immunantwort auf Aspergillus fumigatus auf mehreren Ebenen untersucht, um charakteristische molekulare Kandidaten und Risikofaktoren zu identifizieren, die auf eine IPA hinweisen um so in Zukunft bereits etablierte diagnostische Tests unterstützen zu können. Wir kombinierten in vitro Studien mit A. fumigatus infizierten, myeloischen Zellen mit longitudinalen Case-Control-Studien, in denen an IPA erkrankte Patienten und ihre passenden Kontrollpatienten nach allogener Stammzelltransplantation (alloSZT) untersucht wurden. Charakteristische miRNA und mRNA Signaturen von A. fumigatus-infizierten Monozyten-abgeleiteten dendritischen Zellen (moDCs) zeigten das Potenzial, zwischen A. fumigatus und Escherichia coli Infektionen zu unterscheiden. Transkriptom- und Protein- Analysen von alloSZT Patienten, die an einer IPA erkrankten, und den passenden Kontrollpatienten ergaben charakteristische IPA Signaturen, bestehend aus einer MMP1 Induktion und einer LGALS2 Repression, in Kombination mit erhöhten IL-8 und Caspase-3 Konzentrationen. Sowohl die in vitro Daten als auch die Fall-Kontroll- Studien zeigten, dass Zytokine, Matrix-Metallopeptidasen und Galectine eine wichtige Rolle bei der Immunantwort auf A. fumigatus spielen. Die in IPA identifizierten charakteristischen molekularen Kandidaten sind an mehreren Prozessen beteiligt, so dass eine Kombination dieser molekularen Kandidaten die Spezifität mittels charakteristischer Signatur erhöhen könnte. Schließlich waren niedrige Monozytenzahlen, eine schwere GvHD des Darms (Grad ≥ 2) und die Anwendung von Etanercept signifikant mit einer IPA Diagnose nach alloSZT assoziiert. Etanercept in Makrophagen, die mit A. fumigatus ko-kultiviert wurden, reguliert Gene herunter, die am NF-κB- und TNF-α-Signalweg beteiligt sind, und beeinflusst die Sekretion von CXCL10. Zusammenfassend lässt sich festhalten, dass die identifizierten charakteristischen molekularen Signaturen und Risikofaktoren, die auf eine IPA hinweisen, in Zukunft in Kombination mit etablierten Pilz-Biomarkern die derzeitigen diagnostischen Limitationen überwinden könnten und dazu beitragen könnten, eine patientenindividuelle antimykotische Therapie zu etablieren. Es werden jedoch weitere multizentrische Studien notwendig sein, um diese Ergebnisse umfassend zu bewerten. KW - Aspergillus fumigatus KW - Immunantwort KW - Risikofaktoren KW - invasive pulmonary aspergillosis KW - immune response KW - risk factors KW - transcriptome profiling Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-298512 ER - TY - THES A1 - Ziegler, Katrin T1 - Implementierung von verbesserten Landoberflächenparametern und -prozessen in das hochaufgelöste Klimamodell REMO T1 - Implementation of improved land surface parameters and processes for the high-resolution climate model REMO N2 - Das Ziel dieser Arbeit war neue Eingangsdaten für die Landoberflächenbeschreibung des regionalen Klimamodells REMO zu finden und ins Modell zu integrieren, um die Vorhersagequalität des Modells zu verbessern. Die neuen Daten wurden so in das Modell eingebaut, dass die bisherigen Daten weiterhin als Option verfügbar sind. Dadurch kann überprüft werden, ob und in welchem Umfang sich die von jedem Klimamodell benötigten Rahmendaten auf Modellergebnisse auswirken. Im Zuge der Arbeit wurden viele unterschiedliche Daten und Methoden zur Generierung neuer Parameter miteinander verglichen, denn neben dem Ersetzen der konstanten Eingangswerte für verschiedene Oberflächenparameter und den damit verbundenen Änderungen wurden als zusätzliche Verbesserung auch Veränderungen an der Parametrisierung des Bodens speziell in Hinblick auf die Bodentemperaturen in REMO vorgenommen. Im Rahmen dieser Arbeit wurden die durch die verschiedenen Änderungen ausgelösten Auswirkungen für das CORDEX-Gebiet EUR-44 mit einer Auflösung von ca. 50km und für das in dem darin eingebetteten neu definierten Deutschlandgebiet GER-11 mit einer Auflösung von ca. 12km getestet sowie alle Änderungen anhand von verschiedenen Beobachtungsdatensätzen validiert. Die vorgenommenen Arbeiten gliederten sich in drei Hauptteile. Der erste Teil bestand in dem vom eigentlichen Klimamodell unabhängigen Vergleich der verschiedenen Eingangsdaten auf unterschiedlichen Auflösungen und deren Performanz in allen Teilen der Erde, wobei ein besonderer Fokus auf der Qualität in den späteren Modellgebieten lag. Unter Berücksichtigung der Faktoren, wie einer globalen Verfügbarkeit der Daten, einer verbesserten räumlichen Auflösung und einer kostenlosen Nutzung der Daten sowie verschiedener Validationsergebnissen von anderen Studien, wurden in dieser Arbeit vier neue Topographiedatensätze (SRTM, ALOS, TANDEM und ASTER) und drei neue Bodendatensätze (FAOn, Soilgrid und HWSD) für die Verwendung im Präprozess von REMO aufbereitet und miteinander sowie mit den bisher in REMO verwendeten Daten verglichen. Auf Grundlage dieser Vergleichsstudien schieden bei den Topographiedaten die verwendeten Datensatz-Versionen von SRTM, ALOS und TANDEM für die in dieser Arbeit durchgeführten REMO-Läufe aus. Bei den neuen Bodendatensätzen wurde ausgenutzt, dass diese verschiedenen Bodeneigenschaften für unterschiedliche Tiefen als Karten zur Verfügung stellen. In REMO wurden bisher alle benötigten Bodenparameter abhängig von fünf verschiedenen Bodentexturklassen und einer zusätzlichen Torfklasse ausgewiesen und als konstant über die gesamte Modellbodensäule (bis ca. 10m) angenommen. Im zweiten Teil wurden auf Basis der im ersten Teil ausgewählten neuen Datensätze und den neu verfügbaren Bodenvariablen verschiedene Sensitivitätsstudien über das Beispieljahr 2000 durchgeführt. Dabei wurden verschiedene neue Parametrisierungen für die bisher aus der Textur abgeleiteten Bodenvariablen und die Parametrisierung von weiteren hydrologischen und thermalen Bodeneigenschaften verglichen. Ferner wurde aufgrund der neuen nicht über die Tiefe konstanten Bodeneigenschaften eine neue numerische Methode zur Berechnung der Bodentemperaturen der fünf Schichten in REMO getestet, welche wiederum andere Anpassungen erforderte. Der Test und die Auswahl der verschiedenen Datensatz- und Parametrisierungsversionen auf die Modellperformanz wurde in drei Experimentpläne unterteilt. Im ersten Plan wurden die Auswirkungen der ausgewählten Topographie- und Bodendatensätze überprüft. Der zweite Plan behandelte die Unterschiede der verschiedenen Parametrisierungsarten der Bodenvariablen hinsichtlich der verwendeten Variablen zur Berechnung der Bodeneigenschaften, der über die Tiefe variablen oder konstanten Eigenschaften und der verwendeten Berechnungsmethode der Bodentemperaturänderungen. Durch die Erkenntnisse aus diesen beiden Experimentplänen, die für beide Untersuchungsgebiete durchgeführt wurden, ergaben sich im dritten Plan weitere Parametrisierungsänderungen. Alle Änderungen dieses dritten Experimentplans wurden sukzessiv getestet, sodass der paarweise Vergleich von zwei aufeinanderfolgenden Modellläufen die Auswirkungen der Neuerung im jeweils zweiten Lauf widerspiegelt. Der letzte Teil der Arbeit bestand aus der Analyse von fünf längeren Modellläufen (2000-2018), die zur Überprüfung der Ergebnisse aus den Sensitivitätsstudien sowie zur Einschätzung der Performanz in weiteren teilweise extremen atmosphärischen Bedingungen durchgeführt wurden. Hierfür wurden die bisherige Modellversion von REMO (id01) für die beiden Untersuchungsgebiete EUR-44 und GER-11 als Referenzläufe, zwei aufgrund der Vergleichsergebnisse von Experimentplan 3 selektierte Modellversionen (id06 und id15a für GER-11) sowie die finale Version (id18a für GER-11), die alle vorgenommenen Änderungen dieser Arbeit enthält, ausgewählt. Es stellte sich heraus, dass sowohl die neuen Topographiedaten als auch die neuen Bodendaten große Differenzen zu den bisherigen Daten in REMO haben. Zudem änderten sich die von diesen konstanten Eingangsdaten abgeleiteten Hilfsvariablen je nach verwendeter Parametrisierung sehr deutlich. Dies war besonders gut anhand der Bodenparameter zu erkennen. Sowohl die räumliche Verteilung als auch der Wertebereich der verschiedenen Modellversionen unterschieden sich stark. Eine Einschätzung der Qualität der resultierenden Parameter wurde jedoch dadurch erschwert, dass auch die verschiedenen zur Validierung herangezogenen Bodendatensätze für diese Parameter deutlich voneinander abweichen. Die finale Modellversion id18a ähnelte trotz der umfassenden Änderungen in den meisten Variablen den Ergebnissen der bisherigen REMO-Version. Je nach zeitlicher und räumlicher Aggregation sowie unterschiedlichen Regionen und Jahreszeiten wurden leichte Verbesserungen, aber auch leichte Verschlechterungen im Vergleich zu den klimatologischen Validationsdaten festgestellt. Größere Veränderungen im Vergleich zur bisherigen Modellversion konnten in den tieferen Bodenschichten aufgezeigt werden, welche allerdings aufgrund von fehlenden Validationsdaten nicht beurteilt werden konnten. Für alle 2m-Temperaturen konnte eine tendenzielle leichte Erwärmung im Vergleich zum bisherigen Modelllauf beobachtet werden, was sich einerseits negativ auf die ohnehin durchschnittlich zu hohe Minimumtemperatur, aber andererseits positiv auf die bisher zu niedrige Maximumtemperatur des Modells in den betrachteten Gebieten auswirkte. Im Niederschlagssignal und in den 10m-Windvariablen konnten keine signifikanten Änderungen nachgewiesen werden, obwohl die neue Topographie an manchen Stellen im Modellgebiet deutlich von der bisherigen abweicht. Des Weiteren variierte das Ranking der verschiedenen Modellversionen jeweils nach dem angewendeten Qualitätsindex. Um diese Ergebnisse besser einordnen zu können, muss berücksichtigt werden, dass die neuen Daten für Modellgebiete mit 50 bzw. 12km räumlicher Auflösung und der damit verbundenen hydrostatischen Modellversion getestet wurden. Zudem sind vor allem in Fall der Topographie die bisher enthaltenen GTOPO-Daten (1km Auflösung) für die Aggregation auf diese gröbere Modellauflösung geeignet. Die bisherigen Bodendaten stoßen jedoch mit 50km Auflösung bereits an ihre Grenzen. Zusätzlich ist zu beachten, dass nicht nur die Mittelwerte dieser Daten, sondern auch deren Subgrid-Variabilität als Variablen im Modell für verschiedene Parametrisierungen verwendet werden. Daher ist es essentiell, dass die Eingangsdaten eine deutlich höhere Auflösung bereitstellen als die zur Modellierung definierte Auflösung. Für lokale Klimasimulationen mit Auflösungen im niedrigen Kilometerbereich spielen auch die Vertikalbewegungen (nicht-hydrostatische Modellversion) eine wichtige Rolle, die stark von der Topographie sowie deren horizontaler und vertikaler Änderungsrate beeinflusst werden, was die in dieser Arbeit eingebauten wesentlich höher aufgelösten Daten für die zukünftige Weiterentwicklung von REMO wertvoll machen kann. N2 - The main aim of this work was to find new input data sets for the land surface description of the regional climate model REMO and to integrate them into the model in order to improve the predictive quality of the model. The new data sets have been incorporated into the model in such a way that the previous data are still available as an option for the model run. This allows to check whether and to what extent the boundary data required by each climate model have an impact on the model results. In this study comparisons of many different data sets and methods for generating new parameters are included. In addition to replacing the constant input values for different surface parameters and the associated changes, changes were also made for the parameterization of the soil, especially with regard to the soil temperatures in REMO. The effects of different changes which were made in this study were analysed for the CORDEX region EUR-44 with a resolution of 50km and for a newly defined German area GER-11 with a resolution of 12km. All changes were validated with different observational data sets. The work process was divided into three main parts. The first part was independent of the actual climate model and included the comparison of different input data sets at different resolutions and their performance in all parts of the world. Taking into account factors such as global availability of the data, improved spatial resolution and free use of the data, as well as various validation results from other studies, four new topography data sets (SRTM, ALOS, TANDEM and ASTER) and three new soil data sets (FAOn, Soilgrid and HWSD) were processed for the usage by REMO and compared with each other and with the data sets previously used in REMO. Based on these comparative studies of the topographical data sets the SRTM, ALOS and TANDEM data set versions were excluded from the further usage in REMO in this study. For the new soil data sets the fact that they provide different soil properties for different depths as maps has been taken advantage of. In the previous REMO versions, all required soil parameters so far have been determined depending on five different soil texture classes with an additional peat class and assumed to be constant over the entire model soil column (up to approximately 10m). In the second part, several sensitivity studies were tested for the year 2000 based on the new data sets selected in the first part of the analysis and on the new available soil variables. Different new parameterizations for soil variables previously derived from the soil texture now based on the sand, clay and organic content of the soil as well as new parameterizations of further hydrological and thermal properties of soil were compared. In addition, due to the new non-constant soil properties, a new numerical method for calculating the soil temperatures of the five layers in the model was tested, which in turn necessitated further adjustments. The testing and selection of the different data sets and parameterization versions for the model according to performance was divided into three experimental plans. In the first plan, the effects of the selected topography and soil data sets were examined. The second plan dealt with the differences between the different types of parameterization of the soil variables in terms of the variables used to calculate the properties, the properties variable or constant over depth, and the method used to calculate the changes in soil temperature. The findings of these two experimental plans, which were carried out for both study areas, led to further parameterization changes in the third plan. All changes in this third experimental plan were tested successively, so the pairwise comparison of two consecutive model runs reflects the impact of the innovation in the second run. The final part of the analysis consists of five longer model runs (2000-2018), which were carried out to review the results of the sensitivity studies and to assess the performance under other, sometimes extreme, atmospheric conditions. For this purpose, the previous model version of REMO (id01) for the two study areas (EUR-44 and GER-11) served as reference runs. Two new model versions (GER-11 of id06 and id15a) were selected on the basis of the comparison results of the third experimental plan and the final version (GER-11 of id18a) which contains all changes made in this work was also chosen for a detailed analysis. Taken together the results show that both the new topography data and the new soil data differ crucially from the previous data sets in REMO. In addition, the auxiliary variables derived from these constant input data change significantly depending on the parameterization used, especially for the soil parameters. Both the spatial distribution and the range of values of the different model versions differ greatly. However, a quality assessment of the parameterization is difficult because different soil data sets used for the validation of the parameters also differ significantly. The final model version (id18a) is similar to the results of the previous REMO version in most variables, despite the extensive changes of the input data and parametrizations. Depending on temporal and spatial aggregation as well as different regions and seasons, slight improvements have been observed, but also slight deterioration compared to the climatological validation data. In the deeper soil layers larger changes could be identified compared to the previous model version, which could not be assessed due to a lack of validation data. Overall, there was also a slight warming of all 2m temperatures compared to the previous model run, which on the one hand has a negative effect on the already too high minimum temperature, but on the other hand has a positive effect on the previously too low maximum temperature of the model in the study areas. No significant changes could be detected in the precipitation signal and in the 10m wind variables, although the new topography differs significantly from the previous topography at some points in the test area. Furthermore, the ranking of the different model versions varied according to the quality index applied. To evaluate the results it has to be considered that the new data were tested for model regions with 50 and 12km spatial resolution and the associated hydrostatic model version. The so far already included data are suitable for aggregation to this coarser model resolution, especially in the case of topography (GTOPO with 1km resolution). However, the previous soil data already reach their limits with 50km resolution. In addition, it should be noted that not only the mean values of these data, but also their subgrid variability are used as variables in the model for different parameterizations. Therefore, it is essential that the input data provide a significantly higher resolution than the resolution defined for modeling. Vertical fluxes (non-hydrostatic model version) play an important role in local climate simulations with resolutions in the low kilometre range, which are strongly influenced by the topography and its horizontal and vertical change rate, which may make the much higher resolution data incorporated in this work valuable for the future development of REMO. KW - Klimamodell KW - Datenanalyse KW - Modellierung KW - Topographie KW - Klimamodellierung KW - REMO KW - Vergleich verschiedener Modellparameterisierungen KW - Bodenparameter KW - Topographiedaten KW - parametrizations Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-261285 ER - TY - THES A1 - Zeeb, Luisa T1 - Bedeutung der Expression von MMP-1 und MMP-13 beim Barrett assoziierten Adenokarzinom T1 - The role of MMP-1 and MMP-13 expression in Barrett associated adenocarcinoma N2 - Es wird vermutet, dass das ösophageale Adenokarzinom (EAC) durch gastroosophagealen Reflux auf dem Boden des Barrett-Ösophagus (BE) entsteht. Bei der Tumorprogression könnten Matrix-Metalloproteasen eine wichtige Rolle spielen. Die Expression von MMP-1 und MMP-13 wurde im Ösophaguskarziom (n=41 EAC mit BE, n=19 EAC ohne BE, n=10 Plattenepithelkarzinom, ESCC) sowie im nicht-dysplastischen BE (n=18) untersucht. Die Koexpression von MMP-1 und Cdx-2 (intestinale Metaplasie) und die Koexpression von MMP-1 und Ki-67 (Proliferation) wurde mittels Immunhistochemie und auf mRNA-Ebene untersucht. Die Ergebnisse wurde mit klinisch-pathologischen Eigenschaften korreliert. Im gesunden Plattenepithel wurde weder MMP-1 noch MMP-13 exprimiert. In allen EAC ohne BE wurde MMP-1 exprimiert (100%). Im EAC mit BE, war in 95% MMP-1 im EAC nachweisbar. Die Expression von MMP-1 im BE ohne IN lag bei 56%. Das ESCC exprimierte in 60% MMP-1. Bei der quantitativen Analyse zeigten sich 48% MMP-1 positive Zellen im EAC mit BE und 35% im angrenzendem BE (p<0,05). Mit 44% MMP-1 positiver Zellen im EAC ohne BE, lag die Expression signifikant über der im BE mit EAC (p<0,05). Im ESCC (32% MMP-1 positiv) lag eine im Vergleich zu allen EACs signifikant geringere Expression vor. Im BE ohne IN waren 4% der Zellen MMP-1 positiv. Die RT-PCR bestätigte die Ergebnisse der IHC auf mRNA-Ebene. Eine Präparate waren negativ für MMP-13. Die Untersuchung der Koexpression von MMP-1 in Ki-67 positiven Zellen zeigte eine starke direkte Korrelation (r=0,943 für BE und r= 0,811 für EAC). Eine hohe MMP-1 Expression war mit einem positiven Lymphknotenstatus assoziiert aber nicht mit einem schlechterem Überleben (p=0,307). Die Ergebnisse zeigen, dass MMP-1 eine wichtige Rolle bei der Invasion und Metastasierung des Barrett assoziierten EAC spielen könnte. Die Assoziation eines positiven Lymphknotenstatus mit hoher MMP-1-Expression spricht dafür, dass MMP-1 ein wichtiger Faktor bei der malignen Progression sein könnte. N2 - Background: Esophageal adenocarcinomas (EACs) arise due to gastroesophageal reflux, with Barrett’s esophagus (BE) regarded as precancerous lesion. Matrix metalloproteinases (MMPs) might play a role during the multistep carcinogenetic process. Methods: Expression of MMP-1 and -13 was analyzed in esophageal cancer (n = 41 EAC with BE, n = 19 EAC without BE, and n = 10 esophageal squamous-cell carcinomas, ESCC), furthermore in BE without intraepithelial neoplasia (IN) (n = 18), and the cell line OE-33. MMP-1 was co-labelled with Ki-67 (proliferation), Cdx-2 (marker for intestinal metaplasia, BE) and analyzed on mRNA level. MMP-1 staining results were correlated with clinicopatholocical parameters. Results: On protein level, MMP-1 expression was found in 39 of 41 (95%) EAC with BE, in 19 of 19 (100%) EAC without BE, in 6 of 10 (60%) ESCC, and in 10 of 18 (56%) BE without IN. No expression of MMP-13 was found in these specimens. Quantification showed 48% MMP-1 positive cells in EAC with BE, compared to 35% in adjacent BE (p < 0.05), 44% in EAC without BE, 32% in ESCC, and 4% in BE without IN. Immunofluorescence double staining experiments revealed increased MMP-1 expressing in proliferating cells (MMP-1+/Ki-67+) (r = 0.943 for BE and r = 0.811 for EAC). On mRNA-level, expression of MMP-1 was significantly higher in EAC compared to BE (p = 0.01) and confirmed immunohistochemical staining results. High MMP-1 levels were associated with lymph node metastases but not with poorer survival (p = 0.307). Conclusions: Our findings suggest that MMP-1 plays a role as preinvasive factor in BE-associated EAC. Expression of MMP-1 in proliferating BE and EAC cells suggest malignant proliferation following the clonal expansion model. MMP-13 seems to play no important role in the multistep carcinogenetic process. KW - Adenocarcinom KW - Speiseröhrenkrebs KW - Metalloproteinasen KW - Barrettösophagus Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-278723 ER - TY - THES A1 - Zech, Andrea Christiane T1 - Einfluss der bariatrischen Chirurgie auf die postprandiale Konzentration des Pankreatischen Polypeptids verglichen mit normalgewichtigen Probanden T1 - Effects of Bariatric Surgery on Postprandial Pancreatic Polypeptide Concentrations Compared to Normal Weight Subjects N2 - Im Rahmen des metabolischen Syndroms bei morbider Adipositas kommt es unter anderem zu Imbalancen im autonomen Nervensystem (ANS): ein Missverhältnis von Sympathikus und Parasympathikus (PS) führt zu einer Dysregulation von orexigenen und anorexigenen Hormonen und konsekutiv zu einer weiteren Gewichtszunahme. Diese Arbeit untersucht die Auswirkung von bariatrischen Operationen auf das abdominale ANS anhand des parasympathisch regulierten PPP drei Monate nach Intervention. Die Veränderungen der Imbalance wurden mit Hilfe eines modifizierten Sham Feedings (MSF) ermittelt, bei dem nur die kephale Phase der Nahrungsaufnahme durchlaufen und die Mahlzeiten nicht geschluckt wird. Die PPP-Spiegel im Verlauf des MSF sind daher ausschließlich eine Darstellung des PS. Zusätzlich wurden die Verläufe der Insulin- und Glukosewerte bestimmt. Die PPP-Spiegel der normalgewichtigen Kontrollgruppe sind signifikant höher als die der adipösen Patienten prä- und postoperativ. Die Kurvenverläufe des PPP sind aber zwischen den Gruppen vergleichbar. Somit ist die akute Reaktion des PS auf die Nahrungsaufnahme bei morbider Adipositas zwar unverändert, es zeigt sich aber keine Verbesserung der ANS-Dysfunktion kurz nach Intervention. Die Aufteilung der Patienten in Jüngere und Ältere (verglichen mit dem Durchschnittsalter der Studie) ergibt postoperativ absolut und relativ eine Zunahme der PPP-Spiegel bei den Älteren, während es bei den Jüngeren zu einem Abfall kommt. Bei halbierter Gruppegröße ist die Aussagekraft der Signifikanz jedoch eingeschränkt. Auch ohne diabetische Stoffwechsellage gleichen sich die Insulin- und Glukosewerte der Patienten post-OP denen der Kontrollen an. Eine mögliche Ursache hierfür ist aber nicht nur eine primäre ANS-Verbesserung, denn vor allem in der ersten postoperativen Phase scheint die starke Nahrungsmittelrestriktion mehr Auswirkungen zu haben. Eine spätere Besserung der ANS-Imbalance durch z.B. Gewichtsverlust ist jedoch nicht ausgeschlossen. N2 - The metabolic syndrome in morbid obesity induces, among other things, imbalances in the autonomic nervous system (ANS): a mismatch of the sympathetic and parasympathetic nervous system (PS) leads to a dysregulation of orexigenic and anorexigenic hormones and consecutively to further weight gain. This paper aims to investigate the effect of bariatric surgery on the abdominal ANS determined by parasympathetically regulated pancreatic polypeptide (PPP) three months after the intervention. Changes in imbalance were determined using a modified Sham Feeding (MSF) procedure. Here, the proband is only subjected to the cephalic phase of food intake and meals are not swallowed. The PPP levels over the course of the MSF are therefore a representation of PS-regulation only. Concentrations of insulin and glucose during MSF were also determined. The overall PPP levels of the normal-weight control group are significantly higher than those of the obese patients pre- and postoperatively. However, the PPP curve progressions are not significantly different. The acute PS response to food intake is unchanged in morbid obesity and there is no improvement in ANS dysfunction shortly after bariatric surgery. Dividing the patients into younger and older (compared to the mean age of the group) though results in a postoperative absolute and relative increase in PPP levels in the older, while there is a decrease in the younger. With only half the people per group, the significance of this comparison is limited. Even though the subjects of this study were non-diabetic, the insulin and glucose levels were significantly reduced after the surgery and similar to those of the normal-weight controls. But an improvement in ANS imbalance is not the most likely explanation. In this short time after the operation the restriction of food seems to have a more significant effect. An improvement of ANS imbalance due to e.g. weight loss later on cannot be excluded. KW - Vegetatives Nervensystem KW - Adipositaschirurgie KW - Pankreatisches Polypeptid KW - autonome Imbalance Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-259305 ER - TY - THES A1 - Zebner, Jasper T1 - Zusammenhang zwischen EKG-Parametern und Serumkonzentrationen der trizyklischen Antidepressiva Amitriptylin und Doxepin T1 - Correlation between ECG-Parameters and serum-levels of tricyclic antidepressants Amitriptyline and Doxepine N2 - Viele Studien weisen auf einen Zusammenhang zwischen einer verlängerten QTc-Zeit und dem Auftreten von Torsade-de-Pointes-Tachyarrhythmien und dem plötzlichen Herztod hin. Auch AV-Blockierungen und Schenkelblöcke erhöhen das Risiko für kardiale Erkrankungen und Ereignisse deutlich. Eine direkte Beziehung zwischen Serumspiegeln der trizyklischen Antidepressiva und der Verlängerung der PQ-, QRS- oder QTc-Zeit wurde bisher jedoch nicht untersucht. Aus diesem Anlass wurde in dieser Arbeit nun versucht, eine Korrelation zwischen den Serumspiegeln der trizyklischen Antidepressiva Amitriptylin und Doxepin bzw. ihrer Metabolite und einigen EKG-Parametern zu identifizieren und zu beschreiben. Hierfür wurden die Daten von 172 Patienten der Klinik und Poliklinik für Psychiatrie, Psychosomatik und Psychotherapie untersucht, die eine Serumspiegelbestimmung des Talspiegels im Steady-State der TZA einen Tag vor, einen Tag nach oder am selben Tag einer EKG-Ableitung erhalten hatten und keine pathologischen Elektrolytwerte vorwiesen. In der Rangkorrelation zeigte sich ein signifikanter positiver Zusammenhang zwischen Nortriptylin-Spiegel und QTcB (r = 0,24; p < 0,05) sowie QTcH (r = 0,205; p < 0,05), zwischen Nortriptylin und QTcF und QTcLC lag dieser Zusammenhang auf Trendniveau. Zwischen PQ-Zeit und Nortriptylin- (r = 0,226; p < 0,05) sowie Summenkonzentration (r = 0,195; p < 0,05) zeigte sich ebenfalls ein signifikanter positiver Zusammenhang. Im Mann-Whitney-U-Test waren die QTc-Zeiten der Patienten mit Summenspiegeln aus Amitriptylin und Nortriptylin jenseits der Warnschwelle von 300 ng/ml signifikant länger als bei den Patienten mit niedrigeren Summenspiegeln (QTcB = 449 zu 432 ms; QTcF = 423 zu 410 ms; QTcH = 423 zu 410 ms; QTcLC = 421 zu 409 ms; p < 0,05) und auch die PQ-Zeit dieser Gruppe war signifikant verlängert (PQ = 163 zu 179 ms; p < 0,05). Ähnliches galt für das Patientenkollektiv mit einem Nortriptylin-Spiegel oberhalb des Referenzbereichs von 170 ng/ml. Dieses zeigte signifikant längere QTc-Zeiten nach allen Korrekturmethoden (QTcB = 457 zu 432 ms; QTcF = 430 zu 409 ms; QTcH = 429 zu 410 ms; QTcLC = 427 zu 409 ms; p < 0,01) und zudem längere PQ- (164 zu 180 ms; p < 0,05) und QRS-Zeiten (98 zu 107 ms; p = 0,054). Diese Ergebnisse machen deutlich, dass eine regelmäßige EKG-Kontrolle während der Einnahme von trizyklischen Antidepressiva notwendig ist, um kardiale Nebenwirkungen frühzeitig zu erkennen und diesen vorzubeugen. Ebenso wichtig sind regelmäßige Serumspiegelbestimmungen, um das Risiko durch erhöhte Serumspiegel jenseits der Warnschwellen bzw. Referenzbereiche frühzeitig zu erkennen. Eine Beachtung der Tagesdosis allein reicht hier explizit nicht aus. N2 - Correlation between ECG-Parameters and serum-levels of tricyclic antidepressants Amitriptyline and Doxepine KW - Antidepressivum KW - Arzneimittelüberwachung KW - Q-T-Verlängerung KW - Therapeutic drug monitoring KW - qtc KW - nortriptyline KW - amitriptyline Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-252707 ER - TY - THES A1 - Youssef, Almoatazbellah T1 - Fabrication of Micro-Engineered Scaffolds for Biomedical Application T1 - Fabrikation von Scaffolds mit optimierter Mikroarchitektur für biomedizinische Anwendungen N2 - Thermoplastic polymers have a history of decades of safe and effective use in the clinic as implantable medical devices. In recent years additive manufacturing (AM) saw increased clinical interest for the fabrication of customizable and implantable medical devices and training models using the patients’ own radiological data. However, approval from the various regulatory bodies remains a significant hurdle. A possible solution is to fabricate the AM scaffolds using materials and techniques with a clinical safety record, e.g. melt processing of polymers. Melt Electrowriting (MEW) is a novel, high resolution AM technique which uses thermoplastic polymers. MEW produces scaffolds with microscale fibers and precise fiber placement, allowing the control of the scaffold microarchitecture. Additionally, MEW can process medical-grade thermoplastic polymers, without the use of solvents paving the way for the production of medical devices for clinical applications. This pathway is investigated in this thesis, where the layout is designed to resemble the journey of a medical device produced via MEW from conception to early in vivo experiments. To do so, first, a brief history of the development of medical implants and the regenerative capability of the human body is given in Chapter 1. In Chapter 2, a review of the use of thermoplastic polymers in medicine, with a focus on poly(ε-caprolactone) (PCL), is illustrated, as this is the polymer used in the rest of the thesis. This review is followed by a comparison of the state of the art, regarding in vivo and clinical experiments, of three polymer melt AM technologies: melt-extrusion, selective laser sintering and MEW. The first two techniques already saw successful translation to the bedside, producing patient-specific, regulatory-approved AM implants. To follow in the footsteps of these two technologies, the MEW device parameters need to be optimized. The MEW process parameters and their interplay are further discussed in Chapter 3 focusing on the importance of a steady mass flow rate of the polymer during printing. MEW reaches a balance between polymer flow, the stabilizing electric field and moving collector to produce reproducible, high-resolution scaffolds. An imbalance creates phenomena like fiber pulsing or arcing which result in defective scaffolds and potential printer damage. Chapter 4 shows the use of X-ray microtomography (µCT) as a non-destructive method to characterize the pore-related features: total porosity and the pore size distribution. MEW scaffolds are three-dimensional (3D) constructs but have long been treated in the literature as two-dimensional (2D) ones and characterized mainly by microscopy, including stereo- and scanning electron microscopy, where pore size was simply reported as the distance between the fibers in a single layer. These methods, together with the trend of producing scaffolds with symmetrical pores in the 0/90° and 0/60/120° laydown patterns, disregarded the lateral connections between pores and the potential of MEW to be used for more complex 3D structures, mimicking the extracellular matrix. Here we characterized scaffolds in the aforementioned symmetrical laydown patterns, along with the more complex 0/45/90/135° and 0/30/60/90/120/150° ones. A 2D pore size estimation was done first using stereomicroscopy, followed by and compared to µCT scanning. The scaffolds with symmetrical laydown patterns resulted in the predominance of one pore size, while those with more complex patterns had a broader distribution, which could be better shown by µCT scans. Moreover, in the symmetrical scaffolds, the size of 3D pores was not able to reach the value of the fiber spacing due to a flattening effect of the scaffold, where the thickness of the scaffold was less than the fiber spacing, further restricting the pore size distribution in such scaffolds. This method could be used for quality assurance of fabricated scaffolds prior to use in in vitro or in vivo experiments and would be important for a clinical translation. Chapter 5 illustrates a proof of principle subcutaneous implantation in vivo experiment. MEW scaffolds were already featured in small animal in vivo experiments, but to date, no analysis of the foreign body reaction (FBR) to such implants was performed. FBR is an immune reaction to implanted foreign materials, including medical devices, aimed at protecting the host from potential adverse effects and can interfere with the function of some medical implants. Medical-grade PCL was used to melt electrowrite scaffolds with 50 and 60 µm fiber spacing for the 0/90° and 0/60/120° laydown patterns, respectively. These implants were implanted subcutaneously in immunocompetent, outbred mice, with appropriate controls, and explanted after 2, 4, 7 and 14 days. A thorough characterization of the scaffolds before implantation was done, followed by a full histopathological analysis of the FBR to the implants after excision. The scaffolds, irrespective of their pore geometry, induced an extensive FBR in the form of accumulation of foreign body giant cells around the fiber walls, in a manner that almost occluded available pore spaces with little to no neovascularization. This reaction was not induced by the material itself, as the same reaction failed to develop in the PCL solid film controls. A discussion of the results was given with special regard to the literature available on flat surgical meshes, as well as other hydrogel-based porous scaffolds with similar pore sizes. Finally, a general summary of the thesis in Chapter 6 recapitulates the most important points with a focus on future directions for MEW. N2 - Thermoplastische Polymere werden seit Jahrzehnten erfolgreich in der Klinik eingesetzt und für die Herstellung von Medizinprodukten verwendet. Vorangetrieben durch das zunehmende klinische Interesse an additiven Fertigungsverfahren, z.B. zur Herstellung patientenspezifischer Trainingsmodelle und implantierbarer Medizinprodukte, rücken thermoplastische Materialien noch mehr in den Fokus der klinischen Forschung. Allerdings stellt die Marktzulassung durch die verschiedenen Gesundheitsbehörden eine große Hürde dar. Eine mögliche Lösung ist die Gerüstfabrikation mit Materialien und Verfahren, die bereits etablierte Sicherheitsstandards durchlaufen haben, z. B. die Schmelzverarbeitung der Polymere. Ein neuartiges und hochauflösendes additives Fertigungsverfahren, welches die Verarbeitung von Thermoplasten ermöglicht, ist Melt Electrowriting (MEW). Mittels MEW lassen sich Gerüste, die aus Fasern mit Durchmessern im Mikrometerbereich zusammengesetzt sind, herstellen. Neben der hohen Kontrolle über den Faserdurchmesser ermöglicht MEW auch eine genaue Ablage der Fasern und erlaubt dadurch, die Mikroarchitektur der Konstrukte vorzugeben. Zudem kann das Verfahren medizinisch zugelassene thermoplastische Polymere ohne die Verwendung von Lösungsmitteln verarbeiten und ist somit für die Herstellung medizinischer Produkte sehr relevant. Diese Relevanz sollte im Rahmen der vorliegenden Dissertation evaluiert werden, indem der Weg, den ein Medizinprodukt von der Konzeption bis hin zu in vivo Vorversuchen durchlaufen muss, anhand von Konstrukten, die mittels MEW hergestellt wurden, nachgeahmt wurde. Um eine Basis für das Verständnis dieses Prozesses zu schaffen, wird in Kapitel 1 erst die Geschichte der Entwicklung medizinischer Implantate zusammengefasst sowie ein Einblick in die regenerativen Fähigkeiten des menschlichen Körpers gegeben. Das zweite Kapitel befasst sich mit der Anwendung von thermoplastischen Polymeren im Bereich implantierbarer Medizinprodukte, wobei der Hauptfokus auf Poly(ε-caprolactone) (PCL) liegt, da dies der in der vorliegenden Arbeit verwendete Thermoplast ist. Es folgt ein Vergleich von in vivo sowie klinischen Versuchen dreier für die Biomedizin relevanten additiven Fertigungsverfahren, mit denen sich thermoplastische Polymere verarbeiten lassen: Die Mikro-Schmelzextrusion, das selektive Lasersintern und das MEW. Die ersten zwei Verfahren sind bereits erfolgreich in klinischen Anwendungen etabliert und ermöglichen die routinemäßige Herstellung von additiv gefertigten, patientenspezifischen, auf dem Markt zugelassenen Implantaten. Damit MEW in diese Fußstapfen treten kann, müssen die Prozessparameter und deren Zusammenspiel genau analysiert werden. Dieser Thematik widmet sich Kapitel 3, wobei die Untersuchung des Massendurchsatzes des Polymers während des Druckens diskutiert wird. Um den MEW-Prozess kontrollieren zu können, muss eine Balance zwischen Polymerdurchsatz, dem stabilisierenden elektrischen Feld und dem beweglichen Kollektor erreicht werden. Dies ist Grundlage für die reproduzierbare Herstellung hochaufgelöster Konstrukte. Ein Ungleichgewicht der Prozessparameter verursacht Phänomene wie Fiber Pulsing oder sogar elektrischen Durchschlag, welche zu defekten Konstrukten oder sogar zur Schädigung des Druckers führen können. Kapitel 4 zeigt die Anwendung der Röntgenmikrocomputertomographie (µCT) als eine zerstörungsfreie Charakterisierungsmethode für MEW-Konstrukte, die die Quantifizierung charakteristischer Eigenschaften wie der Porosität und der Porengrößenverteilung ermöglicht. MEW-Konstrukte wurden in der Literatur lange als zweidimensional behandelt und hauptsächlich durch mikroskopische Verfahren wie die Stereo- und Rasterelektronmikroskopie charakterisiert. Die zweidimensionale Porengröße wurde hauptsächlich durch die Bestimmung des Faserabstands definiert und daraus errechnet, mit einer Tendenz der Herstellung der Konstrukte mit symmetrischen Poren in 0/90° und 0/60/120° Ablagemustern. Da es sich bei den Konstrukten jedoch um dreidimensionale (3D) Fasergerüste handelt, wurden die seitlichen Verbindungen zwischen den Poren und das Potential der Anwendung des MEW für die Herstellung von komplexeren 3D-Strukturen, wie bei der extrazellulären Matrix mit interkonnektierenden Poren, vernachlässigt. Aus diesem Grund wurden in der vorliegenden Arbeit µCT-Scans verwendet, um die Porosität der Konstrukte besser wiedergeben zu können. Hierzu wurden verschiedene Ablagemuster mit symmetrischen Poren in 0/90° und 0/60/120° Mustern und komplexere Porenstrukturen durch Ablagen von 0/45/90/135° und 0/30/60/90/120/150° Geometrien hergestellt. Diese Konstrukte wurden dann mittels mikroskopischer und tomographischer Aufnahmen charakterisiert und die Ergebnisse miteinander verglichen. Es zeigte sich, dass symmetrische Ablagemuster zu Konstrukten mit der Prädominanz einer Porengröße geführt haben. Bei den komplexeren Strukturen ergab sich jedoch ein klarer Unterschied, weil die interkonnektierenden Poren nur mit Hilfe von µCT-Scans erfasst werden konnten. Dies zeigte sich durch eine breitere Porenverteilung bei der Auswertung der rekonstruierten Scans. Die Porengrößen in den Konstrukten mit den symmetrischen Mustern konnten aufgrund einer Verflachungswirkung nicht die des Faserabstands erreichen. Die Dicke der Konstrukte war geringer als der Faserabstand mit einer weiteren einschränkenden Wirkung auf die Porenverteilung in den symmetrischen Konstrukten. µCT kann deshalb für die Qualitätssicherung von medizinischen Produkten, die mittels MEW hergestellt wurden, eingesetzt werden. Da die Methode zerstörungsfrei ist, könnte sie auch vor in vitro oder in vivo Versuchen verwendet werden. Kapitel 5 präsentiert eine Machbarkeitsstudie eines subkutanen in vivo Implantationsversuchs. Aus der Literatur ist zwar bekannt, dass MEW-Konstrukte bereits in vivo in Kleintierversuchen verwendet wurden, eine Analyse der Fremdkörperreaktion (FKR) zu solchen Implantaten wurde bisher jedoch noch nicht durchgeführt. FKR ist eine Immunreaktion gegen fremde, implantierte Materialien, einschließlich medizinischer Geräte, um den Wirt vor potenziellen Nebenwirkungen zu schützen. Allerdings könnte sie die Funktion verschiedener medizinischer Implantate beeinträchtigen Um dieser Fragestellung nachzugehen, wurde im Rahmen der vorliegenden Dissertation PCL mittels MEW zu Konstrukten mit 50 und 60 µm Fiberabstand in 0/90° bzw. 0/60/120° Ablagemuster verarbeitet. Diese Konstrukte wurden subkutan in immunkompetente, fremdgezüchtete Mäuse mit entsprechenden Kontrollen implantiert und nach 2, 4, 7 und 14 Tagen explantiert. Vor der Implantation wurde die Konstrukte ausführlich charakterisiert, gefolgt von einer vollen histopathologischen Analyse des FKR. Unabhängig von der Porengeometrie haben die Konstrukte eine deutliche Immunreaktion im Sinne einer Ansammlung von Fremdkörperriesenzellen um die Fasern der Konstrukte hervorgerufen. Hierbei wurden die Poren fast komplett verschlossen, ohne dass es zu einer Neovaskularisation kam. Es konnte nachgewiesen werden, dass die deutliche Immunantwort nicht durch das Material hervorgerufen wurde, da sie bei der Implantation von dichtem PCL-Film nicht beobachtet wurde. Eine Diskussion der Ergebnisse erfolgte unter Berücksichtigung aktueller Literatur zu klinischen Versuchen von flachen chirurgischen Netzen sowie porösen Hydrogel-basierten Implantaten mit vergleichbarer Porengröße. Abschließend wird die Arbeit in Kapitel 6 zusammengefasst und die wichtigsten Punkte rekapituliert. Der Fokus des Kapitels liegt hierbei auf dem zukünftigen Potential des MEW als Fabrikationsmethode für medizinische Produkte. KW - melt electrowriting KW - medical device KW - biomaterials KW - subcutaneous implanation KW - x-ray micro computed tomography Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-235457 ER - TY - THES A1 - Ye, Mingyu T1 - Immunotherapy with Vaccinia virus co-expressing tumor-associated antigens and mouse IL-2 cytokine in mice with mammary cancer T1 - Immuntherapie von Brustkrebs in tumortragenden Mäusen mit genetisch modifizierten Vaccinia Viren, die simultan Interleukin-2 und tumorassoziierte Antigene exprimieren N2 - Interleukin 2 (IL-2) was the first cytokine applied for cancer treatment in human history. It has been approved as monotherapy for renal cell carcinoma and melanoma by the FDA and does mediate the regression of the tumors in patients. One of the possible mechanisms is that the administration of IL-2 led to T lymphocytes expansion, including CD4+ and CD8+ T cells. In addition, a recent study demonstrated that antigen-specific T cells could also be expanded through the induction of IL-2, which plays a crucial role in mediating tumor regression. However, despite the long-term and extensive use of IL-2 in the clinic, the ratio of patients who get a complete response was still low, and only about one-fifth of patients showed objective tumor regression. Therefore, the function of IL-2 in cancer treatment should continue to be optimized and investigated. A study by Franz O. Smith et al. has shown that the combination treatment of IL-2 and tumor-associated antigen vaccine has a strong trend to increased objective responses compared to patients with melanoma receiving IL-2 alone. Peptide vaccines are anti-cancer vaccines able to induce a powerful tumor antigenspecific immune response capable of eradicating the tumors. According to the type of antigens, peptide vaccines can be classified into two distinct categories: Tumor-associated antigens (TAA) vaccine and tumor-specific neoantigens (TSA) vaccine. Currently, Peptide vaccines are mainly investigated in phase I and phase II clinical trials of human cancer patients with various advanced cancers such as lung cancer, gastrointestinal tumors, and breast cancers. Vaccinia virus (VACV) is one of the safest viral vectors, which has been wildly used in cancer treatment and pathogen prevention. As an oncolytic vector, VACV can carry multiple large foreign genes, which enable the virus to introduce diagnostic and therapeutic agents without dramatically reducing the viral replication. Meanwhile, the recombinant vaccinia virus (rVACV) can be easily generated by homologous recombination. Here, we used the vaccinia virus as the therapeutic cancer vector, expressing mouse Interleukin 2 (IL-2) and tumor-associated antigens simultaneously to investigate the combined effect of anti-tumor immune response in the 4T1 mouse tumor model. As expected, the VACV driven mIL-2 expression remarkably increased both CD4+ and CD8+ populations in vivo, and the virus-expressed tumor-associated peptides successfully elicited theantigen-specific T cell response to inhibit the growth of tumors. Furthermore, the experiments with tumor-bearing animals showed that the mIL-2 plus tumor antigens expressing VACV vector gave a better anti-cancer response than the mIL-2 alone expressing vector. The combinations did significantly more inhibit tumor growth than mIL-2 treatment alone. Moreover, the results confirmed our previous unpublished data that the mIL-2 expression driven by synthetic early/late promoter in the Lister strain VACV could enhance the tumor regression in the 4T1 mouse model. N2 - Interleukin 2 (IL-2) war das erste Zytokin in der Geschichte des Menschen, das zur Krebsbehandlung eingesetzt wurde. Es ist von der FDA als Monotherapie für Nierenzellkarzinome und Melanome zugelassen und kann bei Patienten die Rückbildung von Tumorerkrankungen fördern. Einer der möglichen Mechanismen ist, dass die Verabreichung von IL-2 zu einer T-Zell- Expansion führte. Darüber hinaus zeigte eine aktuelle Studie, dass auch antigenspezifische T- Zellen vermehrt werden können, was eine entscheidende Rolle bei der Vermittlung der Tumorregression spielt. Trotz des langjährigen und umfangreichen Einsatzes von IL-2 in der Klinik war der Anteil der Patienten, die eine komplette Antwort Zeigten, jedoch immer noch gering, und nur etwa ein Fünftel der Patienten weist eine objektive Tumorregression auf. Daher sollte die Funktion von IL-2 in der Krebsbehandlung weiter optimiert und untersucht werden. Eine Studie von Franz O. Smith et al. hat gezeigt, dass die Kombinationsbehandlung von IL-2 und tumorassoziiertem Antigenimpfstoff im Vergleich zu Melanomapatienten, die IL-2 allein erhalten, einen starken Trend zu verstärkten objektiven Reaktionen aufweist. Peptidimpfstoff ist ein Anti- Krebs-Impfstoff, der in der Lage ist, eine starke tumorantigenspezifische Immunantwort zu induzieren, die die Tumore ausrotten kann. Je nach Art der Antigene kann es in zwei verschiedene Kategorien eingeteilt werden: Impfstoff gegen tumorassoziierte Antigene (TAA) und Impfstoff gegen tumorspezifische Neoantigene (TSA). Derzeit werden Peptidimpfstoffe hauptsächlich in klinischen Studien in Phasen I und II an Patienten mit verschiedenen fortgeschrittenen Krebsarten wie Lungenkrebs, Magen-Darm-Tumoren und Brustkrebs untersucht ... KW - Immunotherapy KW - Vaccinia virus Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-253095 ER - TY - THES A1 - Yaqub, Jonathan F. T1 - Geschlechtsspezifische Unterschiede der myokardialen Kontraktilität, Geschlechtshormonspiegel und NT-proBNP-Spiegel bei koronarchirurgischen Patienten T1 - Sex-specific differences in myocardial contractility, sex hormone levels and NT-proBNP levels in coronary bypass surgery patients N2 - Die vorliegende klinisch-experimentelle Arbeit beleuchtet den Zusammenhang zwischen biologischem Geschlecht, den Konzentrationen der Geschlechtshormone Testosteron, Estradiol sowie dem kardialen Protein NT-pro-BNP in vivo und der Kraftentwicklung stimulierter Herzmuskelzellen in vitro. Im Studienzeitraum wurden insgesamt 225 Patienten (35 weiblich, 190 männlich), die sich einer elektiven koronarchirurgischen Operation unter Einsatz der Herz-Lungen-Maschine unterzogen, in die Studie eingeschlossen. Im Rahmen der Operation wurden Herzmuskelproben vom linken und rechten Herzohr gewonnen. Aus diesen wurde experimentell der kontraktile Apparat isoliert. Diese Muskelfaserbündel wurden mittels Immersion in verschieden stark konzentrierten Kalziumbädern zur Kontraktion stimuliert und die resultierende Kraftentwicklung erfasst. Diese Daten wurden den im Patientenblut bestimmten Serumkonzentrationen von Estradiol, Testosteron und NT-pro-BNP gegenübergestellt. Es konnte, auch unter Berücksichtigung der Hormonkonzentrationen, weder eine Korrelation des Patientengeschlechts mit der Kraftentwicklung festgestellt werden, noch korrelierte die Konzentration von NT-pro-BNP mit der Kraftentwicklung im experimentellen Modell. N2 - This clinical-experimental study aims to investigate a potential connection between biological gender, the serum levels of the hormones testosterone and estradiol, as well as the cardiac protein NT-pro-BNP and the force generated by stimulated heart muscle cells in vitro. 225 patients (190 males, 35 females) undergoing coronary bypass surgery were included in the study. During surgery, heart muscle specimens were collected from the left and right atrial auricles. These muscle fiber bundles were experimentally processed to isolate the contractile apparatus, which was then brought to contract by immersion in solutions with varying calcium concentrations. The resulting force values were tracked. No correlation between hormone levels, gender or force was found, nor did the levels of NT-pro-BNP correlate with force generation. KW - Herz KW - heart Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-291163 ER - TY - THES A1 - Yang, Shang T1 - Characterization and engineering of photoreceptors with improved properties for optogenetic application T1 - Charakterisierung und Entwicklung von Photorezeptoren mit verbesserten Eigenschaften für die optogenetische Anwendung N2 - Optogenetics became successful in neuroscience with Channelrhodopsin-2 (ChR2), a light-gated cation channel from the green alga Chlamydomonas reinhardtii, as an easy applicable tool. The success of ChR2 inspired the development of various photosensory proteins as powerful actuators for optogenetic manipulation of biological activity. However, the current optogenetic toolbox is still not perfect and further improvements are desirable. In my thesis, I engineered and characterized several different optogenetic tools with new features. (i) Although ChR2 is the most often used optogenetic actuator, its single-channel conductance and its Ca2+ permeability are relatively low. ChR2 variants with increased Ca2+ conductance were described recently but a further increase seemed possible. In addition, the H+ conductance of ChR2 may lead to cellular acidification and unintended pH-related side effects upon prolonged illumination. Through rational design, I developed several improved ChR2 variants with larger photocurrent, higher cation selectivity, and lower H+ conductance. (ii) The light-activated inward chloride pump NpHR is a widely used optogenetic tool for neural silencing. However, pronounced inactivation upon long time illumination constrains its application for long-lasting neural inhibition. I found that the deprotonation of the Schiff base underlies the inactivation of NpHR. Through systematically exploring optimized illumination schemes, I found illumination with blue light alone could profoundly increase the temporal stability of the NpHR-mediated photocurrent. A combination of green and violet light eliminates the inactivation effect, similar to blue light, but leading to a higher photocurrent and therefore better light-induced inhibition. (iii) Photoactivated adenylyl cyclases (PACs) were shown to be useful for light-manipulation of cellular cAMP levels. I developed a convenient in-vitro assay for soluble PACs that allows their reliable characterization. Comparison of different PACs revealed that bPAC from Beggiatoa is the best optogenetic tool for cAMP manipulation, due to its high efficiency and small size. However, a residual activity of bPAC in the dark is unwanted and the cytosolic localization prevents subcellular precise cAMP manipulation. I therefore introduced point mutations into bPAC to reduce its dark activity. Interestingly, I found that membrane targeting of bPAC with different linkers can remarkably alter its activity, in addition to its localization. Taken together, a set of PACs with different activity and subcellular localization were engineered for selection based on the intended usage. The membrane-bound PM-bPAC 2.0 with reduced dark activity is well-tolerated by hippocampal neurons and reliably evokes a transient photocurrent, when co-expression with a CNG channel. (iv) Bidirectional manipulation of cell activity with light of different wavelengths is of great importance in dissecting neural networks in the brain. Selection of optimal tool pairs is the first and most important step for dual-color optogenetics. Through N- and C-terminal modifications, an improved ChR variant (i.e. vf-Chrimson 2.0) was engineered and selected as the red light-controlled actuator for excitation. Detailed comparison of three two-component potassium channels, composed of bPAC and the cAMP-activated potassium channel SthK, revealed the superior properties of SthK-bP. Combining vf-Chrimson 2.0 and improved SthK-bP “SthK(TV418)-bP” could reliably induce depolarization by red light and hyperpolarization by blue light. A residual tiny crosstalk between vf-Chrimson 2.0 and SthK(TV418)-bP, when applying blue light, can be minimized to a negligible level by applying light pulses or simply lowering the blue light intensity. N2 - Die Optogenetik wurde in den Neurowissenschaften mit Channelrhodopsin-2 (ChR2), einem lichtgesteuerten Kationenkanal aus der Grünalge Chlamydomonas reinhardtii, als leicht anwendbares Werkzeug erfolgreich. Der Erfolg von ChR2 inspirierte die Entwicklung verschiedener photosensorischer Proteine als leistungsstarke Aktuatoren für die optogenetische Manipulation der biologischen Aktivität. Die derzeitige optogenetische Toolbox ist jedoch immer noch nicht perfekt und weitere Verbesserungen sind wünschenswert. In meiner Arbeit habe ich verschiedene optogenetische Werkzeuge mit neuen Funktionen entwickelt und charakterisiert. (i) Obwohl ChR2 der am häufigsten verwendete optogenetische Aktuator ist, sind seine Einzelkanal-Leitfähigkeit und seine Ca2 + -Permeabilität relativ gering. Kürzlich wurden ChR2-Varianten mit erhöhter Ca2 + -Leitfähigkeit beschrieben, eine weitere Verbesserung schien jedoch möglich. Darüber hinaus kann die H+-Leitfähigkeit von ChR2 bei längerer Beleuchtung zu einer Ansäuerung der Zellen und zu unbeabsichtigten Nebenwirkungen im Zusammenhang mit dem pH-Wert führen. Durch rationales Design entwickelte ich mehrere verbesserte ChR2-Varianten mit größerem Photostrom, höherer Kationenselektivität und geringerer H+-Leitfähigkeit. (ii) Die lichtaktivierte Chloridpumpe NpHR ist ein weit verbreitetes optogenetisches Werkzeug für die neuronale Inhibierung. Eine ausgeprägte Inaktivierung bei längerer Beleuchtung schränkt jedoch die Anwendung für eine lang anhaltende neuronale Hemmung ein. Ich konnte zeigen, dass die Deprotonierung der Schiffschen Base der Inaktivierung von NpHR zugrunde liegt. Durch die systematische Untersuchung optimierter Beleuchtungsschemata fand ich heraus, dass die Beleuchtung mit blauem Licht allein die zeitliche Stabilität des NpHR-vermittelten Photostroms erheblich verbessern kann. Eine Kombination aus grünem und violettem Licht eliminiert den Inaktivierungseffekt, ähnlich wie blaues Licht, führt jedoch zu einem höheren Photostrom und deswegen effektiverer Licht-induzierter Inhibierung. (iii) Photoaktivierte Adenylylcyclasen (PACs) erwiesen sich als nützlich für die Lichtmanipulation der zellulären cAMP-Spiegel. Ich habe einen praktischen in-vitro-Test für lösliche PACs entwickelt, der deren zuverlässige Charakterisierung ermöglicht. Ein Vergleich verschiedener PACs ergab, dass bPAC von Beggiatoa aufgrund seiner hohen Effizienz und geringen Größe das beste optogenetische Werkzeug für die cAMP-Manipulation ist. Eine Restaktivität von bPAC im Dunkeln ist jedoch unerwünscht und die cytosolische Lokalisierung verhindert eine subzellulär präzise cAMP-Manipulation. Ich habe daher Punktmutationen in bPAC eingeführt, um dessen Dunkelaktivität zu reduzieren. Interessanterweise fanden Ich heraus, dass das Membrantargeting von bPAC mit verschiedenen „Linkern“ zusätzlich zu seiner Lokalisierung seine Aktivität erheblich verändern kann. Zusammengenommen wurde eine Reihe von PACs mit unterschiedlicher Aktivität und subzellulärer Lokalisation für unterschiedliche Anwendungen konstruiert. Das membrangebundene PM-bPAC 2.0 mit reduzierter Dunkelaktivität wird von Hippocampus-Neuronen gut vertragen und erlaubt, bei gleichzeitiger Expression mit einem CNG-Kanal, zuverlässig einen Licht-induzierten Strom auszulösen. (iv) Die bidirektionale Manipulation der Zellaktivität mit Licht unterschiedlicher Wellenlänge ist für die Dissektion neuronaler Netze im Gehirn von großer Bedeutung. Die Auswahl der optimalen Werkzeugpaare ist der erste und wichtigste Schritt für die zweifarbige Optogenetik. Durch N- und C-terminale Modifikationen wurde eine verbesserte ChR-Variante (d. h. Vf-Chrimson 2.0) entwickelt und als Rotlicht-gesteuerter Aktuator zur Anregung ausgewählt. Ein detaillierter Vergleich von drei Zweikomponenten-Kaliumkanälen, bestehend aus bPAC und dem cAMP-aktivierten Kaliumkanal SthK, ergab die überlegenen Eigenschaften von SthK-bP. Die Kombination von vf-Chrimson 2.0 und verbessertem SthK-bP „SthK(TV418)-bP“ konnte zuverlässig eine Depolarisation durch rotes Licht und eine Hyperpolarisation durch blaues Licht induzieren. Ein restliches, kleines Übersprechen zwischen vf-Chrimson 2.0 und SthK(TV418)-bP kann beim Anlegen von blauem Licht durch Anlegen von Lichtimpulsen oder durch einfaches Verringern der Intensität von blauem Licht auf ein vernachlässigbares Maß minimiert werden. KW - Optogenetics KW - ChR2 KW - NpHR KW - PAC KW - Bidirectional manipulation Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-205273 ER - TY - THES A1 - Xu, Wenshan T1 - Regulation of the DNA Damage Response by the Ubiquitin System T1 - Regulierung der DNA-Schadensreaktion durch das Ubiquitin System N2 - DNA damage occurs frequently during normal cellular progresses or by environmental factors. To preserve the genome integrity, DNA damage response (DDR) has evolved to repair DNA and the non-properly repaired DNA induces human diseases like immune deficiency and cancer. Since a large number of proteins involved in DDR are enzymes of ubiquitin system, it is critical to investigate how the ubiquitin system regulates cellular response to DNA damage. Hereby, we reveal a novel mechanism for DDR regulation via activation of SCF ubiquitin ligase upon DNA damage. As an essential step for DNA damage-induced inhibition of DNA replication, Cdc25A degradation by the E3 ligase β-TrCP upon DNA damage requires the deubiquitinase Usp28. Usp28 deubiquitinates β-TrCP in response to DNA damage, thereby promotes its dimerization, which is required for its activity in substrate ubiquitination and degradation. Particularly, ubiquitination at a specific lysine on β-TrCP suppresses dimerization. The key mediator protein of DDR, 53BP1, forms oligomers and associates with β-TrCP to inhibit its activity in unstressed cells. Upon DNA damage, 53BP1 is degraded in the nucleoplasm, which requires oligomerization and is promoted by Usp28 in a β-TrCP-dependent manner. Consequently, 53BP1 destruction releases and activates β-TrCP during DNA damage response. Moreover, 53BP1 deletion and DNA damage promote β-TrCP dimerization and recruitment to chromatin sites that locate in the vicinity of putative replication origins. Subsequently, the chromatin-associated Cdc25A is degraded by β-TrCP at the origins. The stimulation of β-TrCP binding to the origins upon DNA damage is accompanied by unloading of Cdc45, a crucial component of pre-initiation complexes for replication. Loading of Cdc45 to origins is a key Cdk2-dependent step for DNA replication initiation, indicating that localized Cdc25A degradation by β-TrCP at origins inactivates Cdk2, thereby inhibits the initiation of DNA replication. Collectively, this study suggests a novel mechanism for the regulation of DNA replication upon DNA damage, which involves 53BP1- and Usp28-dependent activation of the SCF(β-TrCP) ligase in Cdc25A degradation. N2 - DNA-Schäden treten häufig in Folge zellulären Fortschrittes oder durch externe Faktoren auf. Um die Integrität des Genoms zu bewahren und DNA Schäden zu reparieren, die Ursache für viele Autoimmunkrankheiten und Krebs sind, hat sich ein durch DNA Schäden getriggertes Geflecht aus Reparaturprozessen (englisch: “DNA damage response (DDR)”) entwickelt. Hierbei ist es von großem Interesse zu verstehen, wie das Ubiquitin-Proteasom-System die zelluläre Antwort auf DNA-Schäden reguliert. Wir konnten zeigen, dass die SCF Ubiquitin Ligase β-TrCP durch geschädigte DNA aktiviert wird, was einen bisher unbekannten Mechanismus für die Regulation der DDR darstellt. Für den grundlegenden Schritt der durch DNA Schäden ausgelösten Inhibition der DNA Replikation – der Abbau von Cdc25A durch die E3 Ligase β-TrCP – wird die Deubiquitinase Usp28 benötigt. Diese deubiquitiniert β-TrCP als Antwort auf DNA-Schäden und fördert dadurch seine Dimerisierung, die für die Substrat-Ubiquitinierung und dem anschließenden Abbau erforderlich ist. Hierbei unterdrückt die Ubiquitinierung eines spezifischen Lysin-Rests von β-TrCP dessen Dimerisierung. Das Schlüsselprotein vom DDR, 53BP1, oligomerisiert und assoziiert mit β-TrCP, was seine Aktivität in gesunden Zellen inhibiert. Auf DNA-Schäden hin oligomerisiert 53BP1 und wird mit Hilfe von Usp28 abhängig von β-TrCP im Nukleoplasma abgebaut. Durch den Abbau von 53BP1 wird β-TrCP freigesetzt, aktiviert und kann auf DNA Schäden reagieren. Die Deletion von 53BP1 fördert die Dimerisierung von β-TrCP. Die Reparaturmaschinerie wird daraufhin an Stellen des Chromatins rekrutiert, die in der Nähe von vermeintlichen Replikationsursprüngen liegen. Chromatin-assoziiertes Cdc25A wird dann durch β-TrCP ubiquitiniert. Die Bindung von β-TrCP an die Replikationsursprünge in Folge von DNA Schädigung wird begleitet von der Freisetzung von Cdc45, das eine entscheidende Komponente des Präinitiationskomplexes darstellt. Das Beladen von Cdc45 an die Replikationsursprünge stellt eine Schlüsselfunktion der Cdc25A-abhängigen DNA Replikationsinititation dar. Gezielter Abbau von Cdc25A durch β-TrCP an den Replikationsursprüngen inaktiviert Cdk2 und inhibiert dadurch DNA Replikation. Zusammenfassend lässt sich konstatieren, dass unsere Studien einen neuartigen Mechanismus für die Regulation der DNA Replikation auf DNA Schäden hin aufgezeigt haben, der die 53BP1- und Usp28-abhängige Aktivierung der SCF(β-TrCP) Ubiquitin Ligase im Abbau von Cdc25A beinhaltet. KW - DNS-Schädigung KW - DNS-Reparatur KW - Ubiquitin KW - DNA damage KW - Ubiquitin system Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-160064 ER - TY - THES A1 - Wulfert-Holzmann, Paul T1 - Die elektrische Leitfähigkeit des negativen Aktivmaterials moderner Blei-Säure-Batterien T1 - The electrical conductivity of the negative active material in modern lead-acid batteries N2 - Diese Doktorarbeit beschäftigt sich mit dem Wirkmechanismus der elektrischen Leitfähigkeit in Blei-Säure-Batterien. Obwohl ihm eine zentrale Rolle beim „Kohlenstoff-Effekt“ zugeordnet wird, ist der Wirkmechanismus der elektrischen Leitfähigkeit bislang vergleichsweise wenig untersucht worden und konnte dementsprechend noch nicht vollständig aufgeklärt werden. Mit dem Anspruch, diese Forschungslücke zu schließen, zielt die vorliegende Doktorarbeit darauf ab, den Einfluss der elektrischen Leitfähigkeit auf die Performance der Blei-Säure-Batterie systematisch herauszuarbeiten und so einen Beitrag zur Generierung neuer Entwicklungsansätze zu leisten, z. B. in Form von maßgeschneiderten Additiven. Bislang ist noch unklar, ob allein die elektrische Leitfähigkeit des Aktivmaterials relevant ist oder diese auch durch Additive beeinflusst wird. Das liegt vor allem daran, dass geeignete Messmethoden fehlen und deshalb der Einfluss von Additiven auf die elektrische Leitfähigkeit des Aktivmaterials wenig untersucht wurde. Deswegen zielt diese Arbeit auch darauf ab, eine neuartige Messmethode zu entwickeln, um die elektrische Leitfähigkeit des Aktivmaterials im laufenden Betrieb bestimmen zu können. Aufgrund der Vorkenntnisse und Vorarbeiten am Fraunhofer ISC werden die Untersuchungen dabei auf die negative Elektrode limitiert. Insgesamt unterteilt sich die Doktorarbeit in die zwei Abschnitte. Im ersten Abschnitt werden elektrisch isolierende Stöber-Silica als Additive im negativen Aktivmaterial eingesetzt, um den Einfluss der elektrischen Leitfähigkeit des Additivs auf die elektrochemischen Eigenschaften der Batterie herauszustellen. Untersucht wird dabei die u.a. die Doppelschichtkapazität, die Wasserstoffentwicklung und die dynamische Ladeakzeptanz. Im zweiten Abschnitt steht die elektrische Leitfähigkeit des negativen Aktivmaterials im Fokus. Es wird zunächst eine neue Messmethodik entwickelt, die ihre in-situ- und operando-Bestimmung ermöglicht. Nach einer umfassenden Evaluierung und der Betrachtung verschiedener Betriebsparameter wird die Methodik für eine erste proof-of-concept-Messreihe angewendet, um den Einfluss von Additiven auf die elektrische Leitfähigkeit des negativen Aktivmaterials zu untersuchen. N2 - This dissertation deals with the effect mechanism of electrical conductivity in lead-acid batteries. Although it is believed to play a key role in the "carbon effect", the effect mechanism of electrical conductivity has been studied to lesser extent than other factors so far and accordingly has not yet been fully elucidated. With the aim of closing this research gap, the present dissertation aims to systematically work out the influence of electrical conductivity on lead-acid battery performance and thus contribute to the generation of new development approaches, e.g. in the form of tailored additives. So far, it is still unclear whether the electrical conductivity of the active material alone is relevant or whether this is also influenced by additives. This is mainly due to the fact that suitable measurement methods are lacking and therefore the influence of additives on the electrical conductivity of the active material has been investigated to less extent. Therefore, this work also aims to develop a novel measurement method to determine the electrical conductivity of the active material during operation. Due to the previous knowledge and work at Fraunhofer ISC, the investigations are limited to the negative electrode. Overall, the thesis is divided into two sections. In the first section, electrically insulating Stöber silica particles are used as additives in the negative active material in order to highlight the influence of the electrical conductivity of the additive on the electrochemical properties of the battery. Among other things, the double-layer capacitance, hydrogen evolution and dynamic charge acceptance are investigated. The second section focuses on the electrical conductivity of the negative active material. First, a new measurement methode is developed that allows its in-situ and operando determination. After a comprehensive evaluation and consideration of various operational parameters, the methodology is applied to a first proof-of-concept series of measurements to investigate the influence of additives on the electrical conductivity of the negative active material. KW - Bleiakkumulator KW - Blei KW - Batterie KW - Kohlenstoff KW - Elektrochemie KW - Blei-Säure-Batterie KW - Stöber-Silica KW - operando-Messung KW - Lead-acid batteries KW - Stöber silica Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-298397 ER - TY - THES A1 - Wu, Zhu T1 - Room Temperature Phosphorescence (RTP): Experimental And Theoretical Studies on Boron-Containing Materials T1 - Raumtemperaturphosphoreszenz (RTP): Experimentelle und theoretische Studien zu borhaltigen Materialien N2 - Persistent room temperature phosphorescent (RTP) luminophores have gained remarkable interest recently for a number of applications in security printing, OLEDs, optical storage, time-gated biological imaging and oxygen sensors. We report the first persistent RTP with lifetimes up to 0.5 s from simple triarylboranes which have no lone pairs. We also have prepared 3 isomeric (o, m, p-bromophenyl)-bis(2,6-dimethylphenyl)boranes. Among the 3 isomers (o-, m- and p-BrTAB) synthesized, the ortho-one is the only one which shows dual phosphorescence, with a short lifetime of 0.8 ms and a long lifetime of 234 ms in the crystalline state at room temperature. At last, we checked the RTP properties from the boric acid. We found that the pure boric acid does not show RTP in the solid state. N2 - In letzter Zeit haben Luminophore, die eine effiziente Raumtemperatur-Phosphoreszenz (RTP) zeigen, aufgrund ihrer zahlreichen Anwendungen enormes Interesse gefunden. Die meisten phosphoreszierenden Materialien leiten sich jedoch von Übergangsmetallkomplexen ab, da ihr intrinsisches schnelles Intersystem Crossing (ISC) durch die starke Spin Bahn Kopplung (SOC) des Schwermetalls induziert wird. Metallfreie RTP Materialien sind selten und haben sich zu einem vielversprechenden Gebiet entwickelt, da sie kostengünstig und umweltfreundlich sind. Dieses Kapitel fasst organische molekulare Materialien mit langen Triplett Lebensdauern bei Raumtemperatur aus der Perspektive zusammen, ob sie aus einem molekularen oder Mehrkomponentensystem stammen. Bei rein organischen phosphoreszierenden Materialien werden üblicherweise Heteroatome in das Rückgrat eingeführt, um die Singulett Triplett ISC Geschwindigkeitskonstante zu erhöhen. In Mehrkomponentensystemen wird durch nützliche Strategien wie Wirt-Gast, Polymermatrix, Copolymerisation und supramolekulare Anordnung eine starre Matrixanordnung erreicht, durch die nichtstrahlende Pfade eingeschränkt und so ultralange RTP realisiert wird. ... KW - room temperature phosphorescence Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-260844 ER - TY - THES A1 - Wohlfart, Jonas T1 - Analysis of Drug Impurities by Means of Chromatographic Methods: Targeted and Untargeted Approaches T1 - Analytik von Verunreinigungen in Arzneimitteln mittels chromatographischer Methoden: Gerichtete und ungerichtete Ansätze N2 - The presented works aimed on the analysis of new impurities in APIs and medicinal products. Different subtypes of LC were coupled to suitable detection methods, i.e. UV and various MS techniques, depending on the chemical natures of the analytes and the analytical task. Unexpected impurities in medicinal products and APIs caused several scandals in the past, concomitant with fatalities or severe side effects in human and veterinary patients. The detection of nitrosamines in sartans led to the discovery of nitrosamines in various other drugs, of which the antibiotic rifampicin was analyzed in this work. An examination of the synthesis of rifampicin revealed a high potential for the formation of 4-methyl-1-nitrosopiperazine (MeNP). An LC-MS/HRMS method suitable for the quantification of MeNP was applied in the analysis of drugs collected from Brazil, Comoros, India, Nepal, and Tanzania, where a single dose of rifampicin is used in the post-exposure prophylaxis of leprosy. All batches were contaminated with MeNP, ranging from 0.7-5.1 ppm. However, application of rifampicin containing up to 5 ppm MeNP was recommended by the regulatory authorities for the post-exposure prophylaxis of leprosy. In the 1990s the aminoglycoside antibiotic gentamicin attracted attention after causing fatalities in the USA, but the causative agent was never identified unequivocally. The related substance sisomicin was recognized as a lead impurity by the Holzgrabe lab at the University of Würzburg: sisomicin was accompanied by a variety of other impurities and batches containing sisomicin had caused the fatalities. In 2016, anaphylactic reactions were reported after application of gentamicin. A contamination of the medicinal products with histamine, an impurity of the raw material fish peptone used upon the production, could be identified as the cause of the adverse effects. Batches of gentamicin sulfate, which had been stored at the University of Würzburg since the earlier investigations, were analyzed regarding their contamination with histamine to determine whether the biogenic amine was responsible for the 1990s fatalities as well. Furthermore, a correlation with the lead impurity sisomicin was checked. Histamine could be detected in all analyzed batches, but at a lower level than in the batches responsible for the anaphylactic reactions. Moreover, there is no correlation of histamine with the lead impurity sisomicin. Hence, the causative agent for the 1990s fatalities was not histamine and remains unknown. Another source of impurities is the reaction of APIs with excipients, e.g. the esterification of naproxen with PEG 600 in soft gel capsules. The influence of the formulation’s composition on this reaction was investigated by means of LC-UV. Therefore, the impurity naproxen-PEG-ester (NPEG) was synthesized and used for the development of a method suitable for the analysis of soft gel capsule formulations. Different formulations were stressed for 7 d at 60 °C and the relative amount of NPEG was determined. The formation of NPEG was influenced by the concentrations of water and lactic acid, the pH, and the drug load of the formulation, which can easily be explained by the chemistry behind esterification reactions. Keeping in mind the huge variety of sources of impurities, it might be impossible to predict all potential impurities of a drug substance/product. Targeted and untargeted approaches were combined in the impurity profiling of bisoprolol fumarate. Eight versions of an LC-HRMS method were developed to enable the detection of a maximum number of impurities: an acidic and a basic buffered LC was coupled to MS detection applying ESI and APCI, both in positive in negative mode. MS and MS/MS data were acquired simultaneously by information dependent acquisition. In the targeted approach, potential impurities were derived from a reaction matrix based on the synthesis route of the API, while the untargeted part was based on general unknown comparative screening to identify additional signals. 18 and 17 impurities were detected in the targeted and the untargeted approach, respectively. The molecular formulae were assessed based on the exact mass and the isotope pattern. Theoretical fragment spectra generated by in silico fragmentation were matched with experimental data to estimate the plausibility of proposed/elucidated structures. Moreover, the detected impurities were quantified with respect to an internal standard. N2 - In den vorgestellten Projekten wurden neue Verunreinigungen in Arzneistoffen und Arzneimitteln untersucht. Verschiedene flüssigchromatographische Methoden wurden mit geeigneten Detektionsverfahren gekoppelt. UV-Detektion und verschiedene massenspektrometrische Techniken wurden in Abhängigkeit der chemischen Eigenschaften der Analyten und der analytischen Herausforderung ausgewählt. Eine Kontamination von Wirkstoffen bzw. humanen und veterinären Arzneimittel mit unerwarteten Verunreinigungen löste mehrere Skandale aus, die mit Todesfällen oder ernsthaften Nebenwirkungen einhergingen. Die Identifikation von Nitrosamin-Verunreinigungen in Sartanen führte zur Entdeckung von Nitrosaminen in verschiedenen anderen Wirkstoffen, z.B. im Antibiotikum Rifampicin, das in dieser Arbeit untersucht wurde. Eine Betrachtung der Rifampicin-Synthese offenbarte ein hohes Potenzial der Bildung von 4-Methyl-1-nitrosopiperazin (MeNP). Arzneimittel aus Brasilien, Indien, Nepal, Tansania und von den Komoren wurden mittels LC-MS/HRMS bezüglich ihres MeNP-Gehaltes analysiert. Alle untersuchten Chargen waren mit MeNP im Bereich von 0.7-5.1 ppm belastet. Rifampicin wird in den genannten Ländern unter anderem als Einzeldosis zur Postexpositionsprophylaxe von Lepra eingesetzt. Für diese Indikation empfehlen die Zulassungsbehörden die Verwendung von Rifampicin mit bis zu 5 ppm MeNP. Das Aminoglycosid-Antibiotikum Gentamicin löste in den 1990er Jahren Todesfälle in den USA aus. Die verantwortliche Verunreinigung wurde nie eindeutig aufgeklärt, doch die verwandte Substanz Sisomicin wurde durch den Arbeitskreis Holzgrabe an der Universität Würzburg als Leitverunreinigung identifiziert: Sisomicin ging mit einer Vielzahl von weiteren Verunreinigungen einher und Sisomicin-reiche Chargen hatten die Todesfälle ausgelöst. 2016 traten anaphylaktische Reaktionen nach Gentamicin-Anwendung auf. Histamin war als Verunreinigung von Fischpepton, einem Ausgangsmaterial der Produktion, in den Wirkstoff gelangt. Um zu überprüfen, ob Histamin auch für die Todesfälle in den 1990er Jahren verantwortlich war, wurden seit den früheren Untersuchungen gelagerte Gentamicin-Chargen bezüglich ihrer Verunreinigung mit Histamin untersucht. Außerdem wurde überprüft, ob es einen Zusammenhang mit dem Sisomicin-Gehalt gibt. In allen untersuchten Proben wurde Histamin gefunden, allerdings in einer geringeren Konzentration als in Chargen, die anaphylaktische Reaktionen ausgelöst hatten. Des Weiteren konnte kein Zusammenhang mit der Leitverunreinigung Sisomicin erkannt werden. Der Auslöser der Todesfälle in den 1990er Jahren war somit nicht Histamin, sondern bleibt weiterhin unbekannt. Ein weiterer Ursprung von Verunreinigungen ist die Reaktion des Wirkstoffs mit Hilfsstoff(en), z.B. die Veresterung von Naproxen mit PEG in Weichkapseln. Der Einfluss von Veränderungen der Formulierung auf diese Reaktion wurde mittels LC-UV untersucht. Die Verunreinigung Naproxen-PEG-Ester (NPEG) wurde synthetisiert und zur Entwicklung einer Methode zur Analyse von Weichkapsel-Formulierungen verwendet. Verschiedene Formulierungen wurden für 7 Tage bei 60 °C gestresst und deren relative Gehalte an NPEG bestimmt. Dabei war die Bildung von NPEG von der Wasser- und der Milchsäure-Konzentration, dem pH und dem Wirkstoffgehalt der Formulierung abhängig. Sämtliche Einflüsse konnten durch die Art der Reaktion (Veresterung) erklärt werden. Vor dem Hintergrund der vielfältigen Quellen für Verunreinigungen erscheint es unmöglich, alle potenziellen Verunreinigungen eines Wirkstoffs/Arzneimittels vorherzusagen. Gerichtete und ungerichtete Ansätze wurden daher für die Erstellung eines Verunreinigungsprofils von Bisoprololfumarat kombiniert. Um eine möglichst große Anzahl von möglichen Substanzen zu detektieren, wurden 8 LC-MS/HRMS-Methoden entwickelt: je eine saure und eine basische mobile Phase der LC wurde mit massenspektrometrischer Detektion mittels ESI und APCI, jeweils im positiv- und negativ-Modus kombiniert. MS- und MS/MS-Daten wurden simultan durch information dependent acquisition aufgenommen. Für den gerichteten Ansatz wurde eine Reaktionsmatrix auf Basis der Synthese des Wirkstoffs angefertigt und ausgehend davon potenzielle Verunreinigungen abgeleitet. Im ungerichteten Ansatz wurden mittels general unknown comparative screening zusätzliche Signale identifiziert. Der gerichtete Ansatz zeigte die Anwesenheit von 18, der ungerichtete von 17 Verunreinigungen. Summenformeln wurden anhand der exakten Masse und des Isotopenmusters der Signale bewertet. Die Plausibilität von Strukturformeln wurde mittels In-silico-Fragmentierung abgeschätzt, wobei experimentelle und theoretische Fragmentspektren in Einklang gebracht wurden. Außerdem wurden alle detektierten Verunreinigungen mittels eines externen Standards quantifiziert. KW - LC-MS KW - Gentamicin KW - Naproxen KW - Bisoprolol KW - Rifampicin KW - Impurity Profiling Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-273878 ER - TY - THES A1 - Wissel, Stephanie T1 - Stellenwert der kognitiven Leistungsfähigkeit für die generische und krankheitsspezifische Lebensqualität bei chronischer Herzinsuffizienz T1 - Importance of cognitive performance for generic and disease-specific quality of life in chronic heart failure N2 - Cognitive impairment is highly prevalent in patients with chronic heart failure, but little is known about the health-related quality of life (HRQL) of this special patient group. We aimed to examine whether cognitive impairment is associated with HRQL in heart failure patients and hypothesized that cognitive impairment would negatively impact HRQL. We examined the HRQL of 148 patients of the Cognition.Matters-HF study with chronic heart failure and objectified cognitive impairment ranging from no to severe deficits. With the exception of the self-efficacy scale of the KCCQ, cognitive impairment was not associated with lower health-related quality of life in heart failure patients. The association of self-efficacy with severity of cognitive impairment remained significant after adjustment for duration and severity of heart failure, age, and sex (p<0.001). The self-efficacy scale gives information about patients’ ability to prevent acute heart failure decompensations and could become a promising tool to detect individuals who are unable to adhere to a proper heart failure treatment regimen and manage arising complications. These patients may benefit from enhanced care, e.g. in the frame of a heart failure nurse led disease-management program. N2 - Kognitive Beeinträchtigungen sind bei Patient*innen mit chronischer Herzinsuffizienz weit verbreitet. Auswertungen der Beobachtungsstudie „Cognition.Matters-HF“ konnten belegen, dass Patient*innen mit einer Herzschwäche häufig Gedächtnisstörungen und Aufmerksamkeitsdefizite aufweisen. Die Evidenz für einen Zusammenhang zwischen Kognition und Lebensqualität bei Herzinsuffizienz ist jedoch spärlich. Unser Ziel war es zu untersuchen, ob kognitive Einschränkungen Auswirkungen auf die Lebensqualität (HRQL) von Herzinsuffizienzpatient*innen haben. Anhand der Cognition.Matters-HF Kohorte untersuchten wir die HRQL von 148 Patient*innen mit chronischer Herzinsuffizienz und objektivierten kognitiven Beeinträchtigungen, die von keinen bis hin zu schweren Defiziten reichten. Die Lebensqualität der Teilnehmer*innen wurde über die beiden Selbstbeurteilungsfragebögen, Short Form-36 (SF-36) und Kansas City Cardiomyopathy Questionnaire (KCCQ), erfasst. Mit Ausnahme der Selbstwirksamkeitsskala des KCCQ war der Schweregrad der kognitiven Beeinträchtigung nicht mit Einschränkungen in der Lebensqualität bei Patient*innen mit chronischer Herzinsuffizienz verbunden. Der Zusammenhang zwischen Selbstwirksamkeit und Schweregrad der kognitiven Beeinträchtigung blieb auch nach Anpassung für Dauer und Schweregrad der Herzinsuffizienz, Alter und Geschlecht der Teilnehmer signifikant bestehen (p<0,001). Die Selbstwirksamkeitsskala stellt ein vielversprechendes Instrument dar, um Personen zu identifizieren, die nicht in der Lage sind, sich an ein empfohlenes, leitliniengerechtes Behandlungsschema für Herzinsuffizienz zu halten. Diese Patient*innen könnten von einer intensiveren Versorgung, z.B. im Rahmen eines von einer speziell geschulten Herzinsuffizienz-Schwester geleiteten Versorgungsprogramms, deutlich profitieren. KW - Chronische Herzinsuffizienz KW - Quality of life KW - Heart failure KW - Self-efficacy KW - Versorgungsforschung KW - Herzinsuffizienz KW - Cognitive impairment KW - Kognitive Defizite KW - Lebensqualität KW - Selbstwirksamkeit KW - Versorgungsprogramm Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-287853 ER - TY - THES A1 - Winter, Carla T1 - Evaluation der Verwendung von Virtueller Realität (VR) als Ergänzung zum Laufbandtraining im Rahmen der Behandlung von Gangstörungen bei Patienten mit Multipler Sklerose (MS) und Schlaganfall T1 - Evaluation of the use of virtual reality (VR) as a supplement to treadmill training in the treatment of gait disorders in patients with multiple sclerosis (MS) and stroke N2 - Die Rehabilitation von Gangstörungen bei Patienten mit MS und Schlaganfall erfolgt häufig mithilfe eines konventionellen Laufbandtrainings. Einige Studien haben bereits gezeigt, dass durch eine Erweiterung dieses Trainings um eine virtuelle Realität die Motivation der Patienten gesteigert und die Therapieergebnisse verbessert werden können. In der vorliegenden Studie wurde eine immersive VR-Anwendung (unter Verwendung eines HMD) für die Gangrehabilitation von Patienten evaluiert. Hierbei wurden ihre Anwendbarkeit und Akzeptanz geprüft sowie ihre Kurzzeiteffekte mit einer semi-immersiven Präsentation (unter Verwendung eines Monitors) und mit einem konventionellen Laufbandtraining ohne VR verglichen. Der Fokus lag insbesondere auf der Untersuchung der Anwendbarkeit beider Systeme und der Auswirkungen auf die Laufgeschwindigkeit und Motivation der Benutzer. Im Rahmen einer Studie mit Innersubjekt-Design nahmen zunächst 36 gesunde Teilnehmer und anschließend 14 Patienten mit MS oder Schlaganfall an drei experimentellen Bedingungen (VR über HMD, VR über Monitor, Laufbandtraining ohne VR) teil. Sowohl in der Studie mit gesunden Teilnehmern als auch in der Patientenstudie zeigte sich in der HMD-Bedingung eine höhere Laufgeschwindigkeit als beim Laufbandtraining ohne VR und in der Monitor-Bedingung. Die gesunden Studienteilnehmer berichteten über eine höhere Motivation nach der HMD-Bedingung als nach den anderen Bedingungen. Es traten in beiden Gruppen keine Nebenwirkungen im Sinne einer Simulator Sickness auf und es wurden auch keine Erhöhungen der Herzfrequenzen nach den VR-Bedingungen detektiert. Die Bewertungen des Präsenzerlebens waren in beiden Gruppen in der HMD-Bedingung höher als in der Monitor-Bedingung. Beide VR-Bedingungen erhielten hohe Bewertungen für die Benutzerfreundlichkeit. Die meisten der gesunden Teilnehmer (89 %) und Patienten (71 %) präferierten das HMD-basierte Laufbandtraining unter den drei Trainingsformen und die meisten Patienten könnten sich vorstellen, es häufiger zu nutzen. Mit der vorliegenden Studie wurde eine strukturierte Evaluation der Anwendbarkeit eines immersiven VR-Systems für die Gangrehabilitation geprüft und dieses erstmals in den direkten Vergleich zu einem semi-immersiven System und einem konventionellen Training ohne VR gesetzt. Die Studie bestätigte die Praktikabilität der Kombination eines Laufbandtrainings mit immersiver VR. Aufgrund ihrer hohen Benutzerfreundlichkeit und der geringen Nebenwirkungen scheint diese Trainingsform besonders für Patienten geeignet zu sein, um deren Trainingsmotivation und Trainingserfolge, wie z. B. die Laufgeschwindigkeit, zu steigern. Da immersive VR-Systeme allerdings nach wie vor spezifische technische Installationsprozeduren erfordern, sollte für die spezifische klinische Anwendung eine Kosten-Nutzen-Bewertung erfolgen. N2 - Rehabilitation of gait disorders in patients with MS and stroke is often done with the help of conventional treadmill training. Some studies have already shown that extending this training with virtual reality can increase patient motivation and improve therapy outcomes. In the present study, an immersive VR application (using an HMD) was evaluated for gait rehabilitation of patients. Here, its applicability and acceptability were tested, and its short-term effects were compared with a semi-immersive presentation (using a monitor) and with conventional treadmill training without VR. In particular, the focus was on investigating the applicability of both systems and the effects on user walking speed and motivation. In a study using a within-subjects design, first 36 healthy participants and then 14 patients with MS or stroke participated in three experimental conditions (VR via HMD, VR via monitor, treadmill training without VR). In both the healthy participant study and the patient study, the HMD condition showed a higher walking speed than the treadmill training without VR and the monitor condition. The healthy study participants reported higher motivation after the HMD condition than after the other conditions. No side effects in terms of simulator sickness occurred in either group, and no increases in heart rates were detected after the VR conditions. Presence experience ratings were higher in both groups in the HMD condition than in the monitor condition. Both VR conditions received high ratings for usability. Most of the healthy participants (89%) and patients (71%) preferred the HMD-based treadmill training among the three training modalities, and most patients could imagine using it more often. The present study tested a structured evaluation of the applicability of an immersive VR system for gait rehabilitation and, for the first time, compared it directly with a semi-immersive system and conventional training without VR. The study confirmed the practicability of combining treadmill training with immersive VR. Due to its high usability and low side effects, this form of training seems to be particularly suitable for patients to increase their training motivation and training success, such as walking speed. However, immersive VR systems still require specific technical installation procedures, so a cost-benefit assessment should be performed for the specific clinical application. KW - Multiple Sklerose KW - Schlaganfall KW - Virtuelle Realität KW - Motivation KW - Head-mounted Display KW - Neurorehabilitation KW - Laufbandtraining KW - Treadmill training Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-280544 ER -