TY - THES A1 - Marquardt, André T1 - Machine-Learning-Based Identification of Tumor Entities, Tumor Subgroups, and Therapy Options T1 - Bestimmung von Tumorentitäten, Tumorsubgruppen und Therapieoptionen basierend auf maschinellem Lernen N2 - Molecular genetic analyses, such as mutation analyses, are becoming increasingly important in the tumor field, especially in the context of therapy stratification. The identification of the underlying tumor entity is crucial, but can sometimes be difficult, for example in the case of metastases or the so-called Cancer of Unknown Primary (CUP) syndrome. In recent years, methylome and transcriptome utilizing machine learning (ML) approaches have been developed to enable fast and reliable tumor and tumor subtype identification. However, so far only methylome analysis have become widely used in routine diagnostics. The present work addresses the utility of publicly available RNA-sequencing data to determine the underlying tumor entity, possible subgroups, and potential therapy options. Identification of these by ML - in particular random forest (RF) models - was the first task. The results with test accuracies of up to 99% provided new, previously unknown insights into the trained models and the corresponding entity prediction. Reducing the input data to the top 100 mRNA transcripts resulted in a minimal loss of prediction quality and could potentially enable application in clinical or real-world settings. By introducing the ratios of these top 100 genes to each other as a new database for RF models, a novel method was developed enabling the use of trained RF models on data from other sources. Further analysis of the transcriptomic differences of metastatic samples by visual clustering showed that there were no differences specific for the site of metastasis. Similarly, no distinct clusters were detectable when investigating primary tumors and metastases of cutaneous skin melanoma (SKCM). Subsequently, more than half of the validation datasets had a prediction accuracy of at least 80%, with many datasets even achieving a prediction accuracy of – or close to – 100%. To investigate the applicability of the used methods for subgroup identification, the TCGA-KIPAN dataset, consisting of the three major kidney cancer subgroups, was used. The results revealed a new, previously unknown subgroup consisting of all histopathological groups with clinically relevant characteristics, such as significantly different survival. Based on significant differences in gene expression, potential therapeutic options of the identified subgroup could be proposed. Concludingly, in exploring the potential applicability of RNA-sequencing data as a basis for therapy prediction, it was shown that this type of data is suitable to predict entities as well as subgroups with high accuracy. Clinical relevance was also demonstrated for a novel subgroup in renal cell carcinoma. The reduction of the number of genes required for entity prediction to 100 genes, enables panel sequencing and thus demonstrates potential applicability in a real-life setting. N2 - Molekulargenetische Analysen, wie z. B. Mutationsanalysen, gewinnen im Tumorbereich zunehmend an Bedeutung, insbesondere im Zusammenhang mit der Therapiestratifizierung. Die Identifizierung der zugrundeliegenden Tumorentität ist von entscheidender Bedeutung, kann sich aber manchmal als schwierig erweisen, beispielsweise im Falle von Metastasen oder dem sogenannten Cancer of Unknown Primary (CUP)-Syndrom. In den letzten Jahren wurden Methylom- und Transkriptom-Ansätze mit Hilfe des maschinellen Lernens (ML) entwickelt, die eine schnelle und zuverlässige Identifizierung von Tumoren und Tumorsubtypen ermöglichen. Bislang werden jedoch nur Methylomanalysen in der Routinediagnostik eingesetzt. Die vorliegende Arbeit befasst sich mit dem Nutzen öffentlich zugänglicher RNA-Sequenzierungsdaten zur Bestimmung der zugrunde liegenden Tumorentität, möglicher Untergruppen und potenzieller Therapieoptionen. Die Identifizierung dieser durch ML - insbesondere Random-Forest (RF)-Modelle - war die erste Aufgabe. Die Ergebnisse mit Testgenauigkeiten von bis zu 99 % lieferten neue, bisher unbekannte Erkenntnisse über die trainierten Modelle und die entsprechende Entitätsvorhersage. Die Reduktion der Eingabedaten auf die 100 wichtigsten mRNA-Transkripte führte zu einem minimalen Verlust an Vorhersagequalität und könnte eine Anwendung in klinischen oder realen Umgebungen ermöglichen. Durch die Einführung des Verhältnisses dieser Top 100 Gene zueinander als neue Datenbasis für RF-Modelle wurde eine neuartige Methode entwickelt, die die Verwendung trainierter RF-Modelle auf Daten aus anderen Quellen ermöglicht. Eine weitere Analyse der transkriptomischen Unterschiede von metastatischen Proben durch visuelles Clustering zeigte, dass es keine für den Ort der Metastasierung spezifischen Unterschiede gab. Auch bei der Untersuchung von Primärtumoren und Metastasen des kutanen Hautmelanoms (SKCM) konnten keine unterschiedlichen Cluster festgestellt werden. Mehr als die Hälfte der Validierungsdatensätze wiesen eine Vorhersagegenauigkeit von mindestens 80% auf, wobei viele Datensätze sogar eine Vorhersagegenauigkeit von 100% oder nahezu 100% erreichten. Um die Anwendbarkeit der verwendeten Methoden zur Identifizierung von Untergruppen zu untersuchen, wurde der TCGA-KIPAN-Datensatz verwendet, welcher die drei wichtigsten Nierenkrebs-Untergruppen umfasst. Die Ergebnisse enthüllten eine neue, bisher unbekannte Untergruppe, die aus allen histopathologischen Gruppen mit klinisch relevanten Merkmalen, wie z. B. einer signifikant unterschiedlichen Überlebenszeit, besteht. Auf der Grundlage signifikanter Unterschiede in der Genexpression konnten potenzielle therapeutische Optionen für die identifizierte Untergruppe vorgeschlagen werden. Zusammenfassend lässt sich sagen, dass bei der Untersuchung der potenziellen Anwendbarkeit von RNA-Sequenzierungsdaten als Grundlage für die Therapievorhersage gezeigt werden konnte, dass diese Art von Daten geeignet ist, sowohl Entitäten als auch Untergruppen mit hoher Genauigkeit vorherzusagen. Die klinische Relevanz wurde auch für eine neue Untergruppe beim Nierenzellkarzinom demonstriert. Die Verringerung der für die Entitätsvorhersage erforderlichen Anzahl von Genen auf 100 Gene ermöglicht die Sequenzierung von Panels und zeigt somit die potenzielle Anwendbarkeit in der Praxis. KW - Maschinelles Lernen KW - Krebs KW - Tumor KW - Sequenzdaten KW - Random Forest KW - Vorhersage KW - RNA-Sequenzierung KW - Prognose Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-329548 ER - TY - THES A1 - Demirbas, Senem T1 - Prognostischer Wert neuer laborchemischer Biomarker bei diagnostisch naiven Patienten mit Verdacht auf Herzinsuffizienz - Follow-Up-II-Untersuchung zur randomisierten klinischen Studie „Objektivierung der kardiovaskulären Dysfunktion im ambulanten und hausärztlichen Bereich mittels handgehaltener Echokardiographie und dem BNP-Schnelltest“ (Handheld-BNP-Studie) T1 - Prognostic significance of modern cardiac biomarkers in diagnostically naive patients with suspected heart failure N2 - Herzinsuffizienz ist eine sehr häufige Erkrankung im hohen Lebensalter mit zudem signifikant hoher Mortalität - vergleichbar mit der Mortalität häufiger Krebsarten. Biomarker wie die natriuretischen Peptide sind von großer Wichtigkeit hinsichtlich der Diagnosestellung und Prognoseabschätzung. Auch inflammatorische Marker, Copeptin sowie Mid-regionales Adrenomedullin (MR-proADM) haben eine wichtige Rolle sowohl in der Diagnosestellung der Herzinsuffizienz als auch in der Prognoseabschätzung eingenommen. Die Aussagekraft der Biomarker in einem diagnostisch naiven Kollektiv mit dem klinisch-anamnestischen Verdacht auf das Vorliegen einer Herzinsuffizienz ist jedoch bisher kaum untersucht worden. Die Handheld-BNP-Studie schloss diagnostisch naive Patienten ein, die sich mit Symptomen passend zu einer Herzinsuffizienz beim Hausarzt vorstellten. Binnen 14 Tagen erfolgte die Referenzdiagnose durch einen niedergelassenen Kardiologen. Ziel war es, die diagnostische Aussagekraft von BNP und der miniaturisierten Echokardiographie im primärärztlichen Bereich zu überprüfen. Die vorliegenden Follow-Up-II-Untersuchung untersuchte die prognostische Aussagekraft moderner Biomarker (N-terminales B-natriuretisches Peptid (NT-proBNP), Mid-regionales atriales natriuretisches Peptid (MR-proANP), Mid-regionales Adrenomedullin (MR-proADM), Copeptin, Tumornekrosefaktor Alpha (TNF- α) und hochsensitives C-reaktives Protein (hsCRP)). Die Endpunkte waren Tod jeder Ursache sowie kardiovaskulärer Tod. Insgesamt traten in unseren Analysen die natriuretischen Peptide mit ihrer prognostischen Aussagekraft hervor. In den univariaten Analysen zeigte sich das NT-proBNP als wichtigster Biomarker und in den multivariaten Analysen das MR-proANP. Bei diagnostisch naiven Patienten, die sich mit Herzinsuffizienzsymptomen bei ihrem Hausarzt vorstellen, besteht ein hohes Mortalitätsrisiko. Um diese Patienten adäquat zu selektieren, eine leitliniengerechte Therapie einzuleiten und um das Fortschreiten der Erkrankung aufzuhalten, ist eine frühzeitige Diagnosestellung beim Kardiologen wichtig. Natriuretische Peptide sind prädiktiv, jedoch stellt das MR-proANP aufgrund fehlender generalisierter Verfügbarkeit keine realistische Option im primärärztlichen Bereich dar. Das NT-proBNP hat eine flächendeckende Verfügbarkeit und wird mittlerweile in den Herzinsuffizienz-Leitlinien der ESC bei der Verdachtsdiagnose Herzinsuffizienz standardmäßig empfohlen. N2 - Heart failure (HF) is a common burden in elderly patients and is associated with a significantly higher mortality - comparable to the mortality of common cancers. Natriuretic peptides are well-established and easily obtainable biomarkers serving in both daily clinical diagnostics and long-term prognostic evaluation in patients with HF. Furthermore, inflammatory markers, copeptin and mid-regional pro-adrenomedulline (MR-proADM) play a key role in the diagnostic and prognostic assessment of HF. However, little is known about the prognostic significance of modern cardiac biomarkers in diagnostically naive patients who present to their general practitioner (GP) with symptoms and signs potentially indicative of HF. The Handheld-BNP study evaluated diagnostically naive patients who attended their GP with suspected HF. Within 14 days, reference diagnosis was made by a cardiologist. The study examined the diagnostic and prognostic value of B-type NP measurements and the use of portable echocardiography in primary care. The Follow-Up-Study II investigated the prognostic relevance of modern cardiac biomarkers [N-terminal B-natriuretic peptide (NT-proBNP), mid-regional pro-atrial natriuretic peptide (MR-proANP), mid-regional pro-adrenomedullin (MR-proADM), copeptin, tumor necrosis factor alpha (TNF- α) and highly sensitive C-reactive protein (hsCRP)]. Endpoint analysis focused on all-cause mortality and cardiovascular mortality. Overall, natriuretic peptides showed the highest prognostic power (NT-proBNP in univariate and MR-proANP in multivariate analysis) and are therefore valuable tools in daily clinical care of HF-naive patients presenting with HF-associated symptoms to their GP. KW - Biomarker KW - Prognostische Bedeutung KW - Chronische Herzinsuffizienz KW - Prognose KW - Natriuretisches Hormon KW - Inflammationsmarker KW - Neurohormone Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-281622 ER - TY - THES A1 - Züfle, Marwin Otto T1 - Proactive Critical Event Prediction based on Monitoring Data with Focus on Technical Systems T1 - Proaktive Vorhersage kritischer Ereignisse auf der Grundlage von Beobachtungsdaten mit Schwerpunkt auf technischen Systemen N2 - The importance of proactive and timely prediction of critical events is steadily increasing, whether in the manufacturing industry or in private life. In the past, machines in the manufacturing industry were often maintained based on a regular schedule or threshold violations, which is no longer competitive as it causes unnecessary costs and downtime. In contrast, the predictions of critical events in everyday life are often much more concealed and hardly noticeable to the private individual, unless the critical event occurs. For instance, our electricity provider has to ensure that we, as end users, are always supplied with sufficient electricity, or our favorite streaming service has to guarantee that we can watch our favorite series without interruptions. For this purpose, they have to constantly analyze what the current situation is, how it will develop in the near future, and how they have to react in order to cope with future conditions without causing power outages or video stalling. In order to analyze the performance of a system, monitoring mechanisms are often integrated to observe characteristics that describe the workload and the state of the system and its environment. Reactive systems typically employ thresholds, utility functions, or models to determine the current state of the system. However, such reactive systems cannot proactively estimate future events, but only as they occur. In the case of critical events, reactive determination of the current system state is futile, whereas a proactive system could have predicted this event in advance and enabled timely countermeasures. To achieve proactivity, the system requires estimates of future system states. Given the gap between design time and runtime, it is typically not possible to use expert knowledge to a priori model all situations a system might encounter at runtime. Therefore, prediction methods must be integrated into the system. Depending on the available monitoring data and the complexity of the prediction task, either time series forecasting in combination with thresholding or more sophisticated machine and deep learning models have to be trained. Although numerous forecasting methods have been proposed in the literature, these methods have their advantages and disadvantages depending on the characteristics of the time series under consideration. Therefore, expert knowledge is required to decide which forecasting method to choose. However, since the time series observed at runtime cannot be known at design time, such expert knowledge cannot be implemented in the system. In addition to selecting an appropriate forecasting method, several time series preprocessing steps are required to achieve satisfactory forecasting accuracy. In the literature, this preprocessing is often done manually, which is not practical for autonomous computing systems, such as Self-Aware Computing Systems. Several approaches have also been presented in the literature for predicting critical events based on multivariate monitoring data using machine and deep learning. However, these approaches are typically highly domain-specific, such as financial failures, bearing failures, or product failures. Therefore, they require in-depth expert knowledge. For this reason, these approaches cannot be fully automated and are not transferable to other use cases. Thus, the literature lacks generalizable end-to-end workflows for modeling, detecting, and predicting failures that require only little expert knowledge. To overcome these shortcomings, this thesis presents a system model for meta-self-aware prediction of critical events based on the LRA-M loop of Self-Aware Computing Systems. Building upon this system model, this thesis provides six further contributions to critical event prediction. While the first two contributions address critical event prediction based on univariate data via time series forecasting, the three subsequent contributions address critical event prediction for multivariate monitoring data using machine and deep learning algorithms. Finally, the last contribution addresses the update procedure of the system model. Specifically, the seven main contributions of this thesis can be summarized as follows: First, we present a system model for meta self-aware prediction of critical events. To handle both univariate and multivariate monitoring data, it offers univariate time series forecasting for use cases where a single observed variable is representative of the state of the system, and machine learning algorithms combined with various preprocessing techniques for use cases where a large number of variables are observed to characterize the system’s state. However, the two different modeling alternatives are not disjoint, as univariate time series forecasts can also be included to estimate future monitoring data as additional input to the machine learning models. Finally, a feedback loop is incorporated to monitor the achieved prediction quality and trigger model updates. We propose a novel hybrid time series forecasting method for univariate, seasonal time series, called Telescope. To this end, Telescope automatically preprocesses the time series, performs a kind of divide-and-conquer technique to split the time series into multiple components, and derives additional categorical information. It then forecasts the components and categorical information separately using a specific state-of-the-art method for each component. Finally, Telescope recombines the individual predictions. As Telescope performs both preprocessing and forecasting automatically, it represents a complete end-to-end approach to univariate seasonal time series forecasting. Experimental results show that Telescope achieves enhanced forecast accuracy, more reliable forecasts, and a substantial speedup. Furthermore, we apply Telescope to the scenario of predicting critical events for virtual machine auto-scaling. Here, results show that Telescope considerably reduces the average response time and significantly reduces the number of service level objective violations. For the automatic selection of a suitable forecasting method, we introduce two frameworks for recommending forecasting methods. The first framework extracts various time series characteristics to learn the relationship between them and forecast accuracy. In contrast, the other framework divides the historical observations into internal training and validation parts to estimate the most appropriate forecasting method. Moreover, this framework also includes time series preprocessing steps. Comparisons between the proposed forecasting method recommendation frameworks and the individual state-of-the-art forecasting methods and the state-of-the-art forecasting method recommendation approach show that the proposed frameworks considerably improve the forecast accuracy. With regard to multivariate monitoring data, we first present an end-to-end workflow to detect critical events in technical systems in the form of anomalous machine states. The end-to-end design includes raw data processing, phase segmentation, data resampling, feature extraction, and machine tool anomaly detection. In addition, the workflow does not rely on profound domain knowledge or specific monitoring variables, but merely assumes standard machine monitoring data. We evaluate the end-to-end workflow using data from a real CNC machine. The results indicate that conventional frequency analysis does not detect the critical machine conditions well, while our workflow detects the critical events very well with an F1-score of almost 91%. To predict critical events rather than merely detecting them, we compare different modeling alternatives for critical event prediction in the use case of time-to-failure prediction of hard disk drives. Given that failure records are typically significantly less frequent than instances representing the normal state, we employ different oversampling strategies. Next, we compare the prediction quality of binary class modeling with downscaled multi-class modeling. Furthermore, we integrate univariate time series forecasting into the feature generation process to estimate future monitoring data. Finally, we model the time-to-failure using not only classification models but also regression models. The results suggest that multi-class modeling provides the overall best prediction quality with respect to practical requirements. In addition, we prove that forecasting the features of the prediction model significantly improves the critical event prediction quality. We propose an end-to-end workflow for predicting critical events of industrial machines. Again, this approach does not rely on expert knowledge except for the definition of monitoring data, and therefore represents a generalizable workflow for predicting critical events of industrial machines. The workflow includes feature extraction, feature handling, target class mapping, and model learning with integrated hyperparameter tuning via a grid-search technique. Drawing on the result of the previous contribution, the workflow models the time-to-failure prediction in terms of multiple classes, where we compare different labeling strategies for multi-class classification. The evaluation using real-world production data of an industrial press demonstrates that the workflow is capable of predicting six different time-to-failure windows with a macro F1-score of 90%. When scaling the time-to-failure classes down to a binary prediction of critical events, the F1-score increases to above 98%. Finally, we present four update triggers to assess when critical event prediction models should be re-trained during on-line application. Such re-training is required, for instance, due to concept drift. The update triggers introduced in this thesis take into account the elapsed time since the last update, the prediction quality achieved on the current test data, and the prediction quality achieved on the preceding test data. We compare the different update strategies with each other and with the static baseline model. The results demonstrate the necessity of model updates during on-line application and suggest that the update triggers that consider both the prediction quality of the current and preceding test data achieve the best trade-off between prediction quality and number of updates required. We are convinced that the contributions of this thesis constitute significant impulses for the academic research community as well as for practitioners. First of all, to the best of our knowledge, we are the first to propose a fully automated, end-to-end, hybrid, component-based forecasting method for seasonal time series that also includes time series preprocessing. Due to the combination of reliably high forecast accuracy and reliably low time-to-result, it offers many new opportunities in applications requiring accurate forecasts within a fixed time period in order to take timely countermeasures. In addition, the promising results of the forecasting method recommendation systems provide new opportunities to enhance forecasting performance for all types of time series, not just seasonal ones. Furthermore, we are the first to expose the deficiencies of the prior state-of-the-art forecasting method recommendation system. Concerning the contributions to critical event prediction based on multivariate monitoring data, we have already collaborated closely with industrial partners, which supports the practical relevance of the contributions of this thesis. The automated end-to-end design of the proposed workflows that do not demand profound domain or expert knowledge represents a milestone in bridging the gap between academic theory and industrial application. Finally, the workflow for predicting critical events in industrial machines is currently being operationalized in a real production system, underscoring the practical impact of this thesis. N2 - Die Bedeutung einer proaktiven und rechtzeitigen Vorhersage von kritischen Ereignissen nimmt immer weiter zu, sei es in der Fertigungsindustrie oder im Privatleben. In der Vergangenheit wurden Maschinen in der Fertigungsindustrie oft auf der Grundlage eines regelmäßigen Zeitplans oder aufgrund von Grenzwertverletzungen gewartet, was heutzutage nicht mehr wettbewerbsfähig ist, da es unnötige Kosten und Ausfallzeiten verursacht. Im Gegensatz dazu sind die Vorhersagen von kritischen Ereignissen im Alltag oft wesentlich versteckter und für die Privatperson kaum spürbar, es sei denn das kritische Ereignis tritt ein. So muss zum Beispiel unser Stromanbieter dafür sorgen, dass wir als Endverbraucher immer ausreichend mit Strom versorgt werden, oder unser Streaming-Dienst muss garantieren, dass wir unsere Lieblingsserie jederzeit ohne Unterbrechungen anschauen können. Hierzu müssen diese ständig analysieren wie der aktuelle Zustand ist, wie er sich in naher Zukunft entwickeln wird und wie sie reagieren müssen, um die zukünftigen Bedingungen zu bewältigen, ohne dass es zu Stromausfällen oder Videoabbrüchen kommt. Zur Analyse der Leistung eines Systems werden häufig Überwachungsmechanismen integriert, um Merkmale zu beobachten, die die Arbeitslast und den Zustand des Systems und seiner Umgebung abbilden. Reaktive Systeme verwenden typischerweise Schwellenwerte, Nutzenfunktionen oder Modelle, um den aktuellen Zustand des Systems zu bestimmen. Allerdings können solche reaktiven Systeme zukünftige Ereignisse nicht proaktiv abschätzen, sondern lediglich sobald diese eintreten. Bei kritischen Ereignissen ist die reaktive Bestimmung des aktuellen Systemzustands jedoch zwecklos, während ein proaktives System dieses Ereignis im Voraus hätte vorhersagen und rechtzeitig Gegenmaßnahmen einleiten können. Um Proaktivität zu erreichen, benötigt das System Abschätzungen über zukünftige Systemzustände. Angesichts der Kluft zwischen Entwurfszeit und Laufzeit ist es typischerweise nicht möglich Expertenwissen zu verwenden, um alle Situationen zu modellieren, auf die ein System zur Laufzeit stoßen könnte. Daher müssen Vorhersagemethoden in das System integriert werden. Abhängig von den verfügbaren Überwachungsdaten und der Komplexität der Vorhersageaufgabe müssen entweder Zeitreihenprognosen in Kombination mit Schwellenwerten oder ausgefeiltere Modelle des „Machine Learning“ und „Deep Learning“ trainiert werden. Obwohl in der Literatur schon zahlreiche Zeitreihenprognosemethoden vorgeschlagen wurden, haben alle diese Methoden in Abhängigkeit der Eigenschaften der betrachteten Zeitreihen ihre Vor- und Nachteile. Daher ist Expertenwissen erforderlich, um zu entscheiden, welche Zeitreihenprognosemethode gewählt werden sollte. Da jedoch die zur Laufzeit beobachteten Zeitreihen zur Entwurfszeit nicht bekannt sein können, lässt sich ein solches Expertenwissen nicht im System integrieren. Zusätzlich zur Auswahl einer geeigneten Zeitreihenprognosemethode sind mehrere Zeitreihenvorverarbeitungsschritte erforderlich, um eine zufriedenstellende Prognosegenauigkeit zu erreichen. In der Literatur wird diese Vorverarbeitung oft manuell durchgeführt, was für autonome Computersysteme, wie z. B. „Self-Aware Computing Systems“, nicht praktikabel ist. Hinsichtlich der Vorhersage kritischer Ereignisse auf der Grundlage multivariater Überwachungsdaten wurden in der Literatur auch bereits mehrere Ansätze unter Verwendung von „Machine Learning“ und „Deep Learning“ vorgestellt. Diese Ansätze sind jedoch typischerweise sehr domänenspezifisch, wie z. B. für finanzielle Zusammenbrüche, Lagerschäden oder Produktfehler. Aus diesem Grund erfordern sie umfassendes Expertenwissen. Durch den spezifischen Zuschnitt auf die jeweilige Domäne können diese Ansätze nicht vollständig automatisiert werden und sind nicht auf andere Anwendungsfälle übertragbar. Somit fehlt es in der Literatur an verallgemeinerbaren Ende-zu-Ende Prozessen zur Modellierung, Erkennung und Vorhersage von Ausfällen, die lediglich wenig Expertenwissen erfordern. Um diese Unzulänglichkeiten zu überwinden, wird in dieser Arbeit ein Systemmodell zur meta-selbstbewussten Vorhersage kritischer Ereignisse vorgestellt, das auf der LRA-M-Schleife von „Self-Aware Computing Systems“ basiert. Aufbauend auf diesem Systemmodell liefert diese Arbeit sechs weitere Beiträge zur Vorhersage kritischer Ereignisse. Während sich die ersten beiden Beiträge mit der Vorhersage kritischer Ereignisse auf der Basis univariater Daten mittels Zeitreihenprognose befassen, adressieren die drei folgenden Beiträge die Vorhersage kritischer Ereignisse für multivariate Überwachungsdaten unter Verwendung von „Machine Learning“ und „Deep Learning“ Algorithmen. Der letzte Beitrag schließlich behandelt das Aktualisierungsverfahren des Systemmodells. Im Einzelnen lassen sich die sieben Hauptbeiträge dieser Arbeit wie folgt zusammenfassen: Zunächst stellen wir ein Systemmodell für die meta-selbstbewusste Vorhersage von kritischen Ereignissen vor. Um sowohl univariate als auch multivariate Überwachungsdaten verarbeiten zu können, bietet es univariate Zeitreihenprognosen für Anwendungsfälle, in denen eine einzelne Beobachtungsgröße repräsentativ für den Zustand des Systems ist, sowie „Machine Learning“ und „Deep Learning“ Algorithmen in Kombination mit verschiedenen Vorverarbeitungstechniken für Anwendungsfälle, in denen eine große Anzahl von Variablen beobachtet wird, um den Zustand des Systems zu charakterisieren. Die beiden unterschiedlichen Modellierungsalternativen sind jedoch nicht disjunkt, da auch univariate Zeitreihenprognosen einbezogen werden können, um zukünftige Überwachungsdaten als zusätzliche Eingabe für die „Machine Learning“ und „Deep Learning“ Modelle zu schätzen. Schließlich ist eine Rückkopplungsschleife eingebaut, die die erreichte Vorhersagequalität überwacht und gegebenenfalls Modellaktualisierungen auslöst. Wir präsentieren eine neuartige, hybride Zeitreihenvorhersagemethode für univariate, saisonale Zeitreihen, die wir Telescope nennen. Telescope verarbeitet die Zeitreihe automatisch vor, führt eine Art „Divide-and-Conquer“ Technik durch, welche die Zeitreihe in mehrere Komponenten unterteilt, und leitet zusätzliche kategoriale Informationen ab. Anschließend prognostiziert es die Komponenten und kategorialen Informationen getrennt voneinander mit einer spezifischen Methode für jede Komponente. Abschließend setzt Telescope die einzelnen Vorhersagen wieder zusammen. Da Telescope alle Vorverarbeitungsschritte und Vorhersagen automatisch durchführt, stellt es einen vollständigen Ende-zu-Ende Ansatz für univariate, saisonale Zeitreihenvorhersagen dar. Experimentelle Ergebnisse zeigen, dass Telescope eine verbesserte Vorhersagegenauigkeit, zuverlässigere Vorhersagen und eine erhebliche Beschleunigung erreicht. Darüber hinaus wenden wir Telescope für die Vorhersage kritischer Ereignisse bei der automatischen Skalierung von virtuellen Maschinen an. Die Ergebnisse belegen, dass Telescope die durchschnittliche Antwortzeit erheblich reduziert und die Anzahl der Verletzungen der Service Level Zielvorgaben signifikant verringert. Für die automatische Auswahl einer geeigneten Zeitreihenprognosemethode führen wir zwei Empfehlungssysteme ein. Das erste System extrahiert verschiedene Zeitreihencharakteristika, um die Beziehung zwischen ihnen und der Prognosegenauigkeit zu erlernen. Im Gegensatz dazu unterteilt das zweite System die historischen Beobachtungen in interne Trainings- und Validierungsteile, um die am besten geeignete Zeitreihenprognosemethode zu schätzen. Außerdem beinhaltet letzteres System auch Zeitreihenvorverarbeitungsschritte. Vergleiche zwischen den vorgeschlagenen Empfehlungssystemen für Zeitreihenprognosemethoden und den einzelnen Prognosemethoden sowie dem Ansatz zur Empfehlung von Zeitreihenprognosemethoden nach dem Stand der Technik ergeben, dass die vorgeschlagenen Systeme die Prognosegenauigkeit erheblich verbessern. Im Hinblick auf multivariate Überwachungsdaten stellen wir zunächst einen Ende-zu-Ende Prozess vor, mit dem kritische Ereignisse in technischen Systemen in Form von anomalen Maschinenzuständen erkannt werden können. Der Ende-zu-Ende Entwurf umfasst die Rohdatenverarbeitung, die Phasensegmentierung, das Datenresampling, die Merkmalsextraktion und die Maschinenanomalieerkennung. Darüber hinaus stützt sich der Prozess explizit nicht auf tiefgreifendes Domänenwissen oder spezifische Überwachungsgrößen, sondern setzt lediglich gängige Maschinenüberwachungsdaten voraus. Wir evaluieren den Ende-zu-Ende Prozess anhand von Daten einer realen CNC-Maschine. Die Ergebnisse zeigen, dass die konventionelle Frequenzanalyse die kritischen Maschinenzustände nicht gut erkennt, während unser Prozess die kritischen Ereignisse mit einem F1-Wert von fast 91% sehr gut identifiziert. Um kritische Ereignisse vorherzusagen, anstatt sie nur reaktiv zu erkennen, vergleichen wir verschiedene Modellierungsalternativen für die Vorhersage kritischer Ereignisse im Anwendungsfall der Vorhersage der Zeit bis zum nächsten Fehler von Festplattenlaufwerken. Da Fehlerdatensätze typischerweise wesentlich seltener sind als Instanzen, die den Normalzustand repräsentieren, setzen wir verschiedene Strategien zum Erzeugen künstlicher Fehlerinstanzen ein. Im nächsten Schritt vergleichen wir die Vorhersagequalität der binären Klassenmodellierung mit der herunterskalierten Mehrklassenmodellierung. Des Weiteren integrieren wir die univariate Zeitreihenprognose in den Merkmalsgenerierungsprozess, um so die zukünftigen Überwachungsdaten zu schätzen. Schließlich modellieren wir die Zeit bis zum nächsten Fehler nicht nur mithilfe von Klassifikationsmodellen, sondern auch mit Regressionsmodellen. Die Ergebnisse legen nahe, dass die Mehrklassenmodellierung die insgesamt beste Vorhersagequalität hinsichtlich praktischer Anforderungen liefert. Außerdem belegen wir, dass die Prognose der Merkmale des Vorhersagemodells mittels univariater Zeitreihenprognose die Qualität der Vorhersage kritischer Ereignisse signifikant verbessert. Wir stellen einen Ende-zu-Ende Prozess für die Vorhersage kritischer Ereignisse von Industriemaschinen vor. Auch dieser Ansatz verlässt sich nicht auf Expertenwissen, mit Ausnahme der Definition von Überwachungsdaten, und stellt daher einen verallgemeinerbaren Prozess für die Vorhersage kritischer Ereignisse von Industriemaschinen dar. Der Prozess umfasst Merkmalsextraktion, Merkmalsverarbeitung, Zielklassenzuordnung und Modelllernen mit integrierter Hyperparameter-Abstimmung mittels einer Gittersuchtechnik. Ausgehend von den Ergebnissen des vorherigen Beitrags modelliert der Prozess die Vorhersage der Zeit bis zum nächsten Fehler in Form mehrerer Klassen, wobei wir verschiedene Beschriftungsstrategien für die Mehrklassenklassifizierung vergleichen. Die Evaluierung anhand realer Produktionsdaten einer großen Industriepresse demonstriert, dass der Prozess in der Lage ist, sechs verschiedene Zeitfenster für bevorstehende Fehler mit einem Makro F1-Wert von 90% vorherzusagen. Wenn man die Klassen der Zeit bis zum nächsten Fehler auf eine binäre Vorhersage von kritischen Ereignissen herunterskaliert, steigt der F1-Wert sogar auf über 98%. Schließlich stellen wir vier Aktualisierungsauslöser vor, um zu bestimmen, wann Modelle zur Vorhersage kritischer Ereignisse während der Online-Anwendung neu trainiert werden sollten. Ein solches Neutraining ist bspw. aufgrund von Konzeptdrift erforderlich. Die in dieser Arbeit vorgestellten Aktualisierungsauslöser berücksichtigen die Zeit, die seit der letzten Aktualisierung verstrichen ist, die auf den aktuellen Testdaten erreichte Vorhersagequalität und die auf den vorangegangenen Testdaten erreichte Vorhersagequalität. Wir vergleichen die verschiedenen Aktualisierungsstrategien miteinander und mit dem statischen Ausgangsmodell. Die Ergebnisse veranschaulichen die Notwendigkeit von Modellaktualisierungen während der Online-Anwendung und legen nahe, dass die Aktualisierungsauslöser, die sowohl die Vorhersagequalität der aktuellen als auch der vorangegangenen Testdaten berücksichtigen, den besten Kompromiss zwischen Vorhersagequalität und Anzahl der erforderlichen Aktualisierungen erzielen. Wir sind der festen Überzeugung, dass die Beiträge dieser Arbeit sowohl für die akademische Forschungsgemeinschaft als auch für die praktische Anwendung wichtige Impulse darstellen. Zuallererst sind wir unseres Wissens nach die ersten, die eine vollautomatische, hybride, komponentenbasierte, Ende-zu-Ende Prognosemethode für saisonale Zeitreihen vorschlagen, die auch die Zeitreihenvorverarbeitung beinhaltet. Durch die Verbindung einer zuverlässig hohen Vorhersagegenauigkeit mit einer zuverlässig niedrigen Zeit bis zum Ergebnis eröffnet diese viele neue Möglichkeiten für Anwendungen, die genaue Vorhersagen innerhalb eines festen Zeitraums erfordern, um rechtzeitig Gegenmaßnahmen ergreifen zu können. Darüber hinaus bieten die vielversprechenden Ergebnisse der Empfehlungssysteme für Zeitreihenprognosemethoden neue Ansätze zur Verbesserung der Vorhersageleistung für alle Arten von Zeitreihen, nicht nur für saisonale Zeitreihen. Ferner sind wir die ersten, die die Schwachstellen des bisherigen Stands der Technik bei der Empfehlung von Zeitreihenprognosemethoden aufgedeckt haben. Hinsichtlich der Beiträge zur Vorhersage kritischer Ereignisse mittels multivariater Überwachungsdaten haben wir bereits eng mit Industriepartnern zusammengearbeitet,wodurch die hohe praktische Relevanz der Beiträge dieser Arbeit verdeutlicht wird. Der automatisierte Ende-zu-Ende Entwurf der vorgeschlagenen Prozesse, die kein tiefes Domänen- oder Expertenwissen erfordern, stellt einen Meilenstein in der Überbrückung der Kluft zwischen akademischer Theorie und industrieller Anwendung dar. Diese Tatsache wird insbesondere dadurch untermauert, dass der Prozess zur Vorhersage kritischer Ereignisse in Industriemaschinen derzeit bereits in einem realen Produktionssystem operationalisiert wird. KW - Prognose KW - Automation KW - Zeitreihe KW - Forecasting KW - Zeitreihenvorhersage KW - Failure Prediction KW - Fehlervorhersage KW - End-to-End Automation KW - Ende-zu-Ende Automatisierung Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-255757 ER - TY - THES A1 - Bauer, André T1 - Automated Hybrid Time Series Forecasting: Design, Benchmarking, and Use Cases T1 - Automatisierte hybride Zeitreihenprognose: Design, Benchmarking und Anwendungsfälle N2 - These days, we are living in a digitalized world. Both our professional and private lives are pervaded by various IT services, which are typically operated using distributed computing systems (e.g., cloud environments). Due to the high level of digitalization, the operators of such systems are confronted with fast-paced and changing requirements. In particular, cloud environments have to cope with load fluctuations and respective rapid and unexpected changes in the computing resource demands. To face this challenge, so-called auto-scalers, such as the threshold-based mechanism in Amazon Web Services EC2, can be employed to enable elastic scaling of the computing resources. However, despite this opportunity, business-critical applications are still run with highly overprovisioned resources to guarantee a stable and reliable service operation. This strategy is pursued due to the lack of trust in auto-scalers and the concern that inaccurate or delayed adaptations may result in financial losses. To adapt the resource capacity in time, the future resource demands must be "foreseen", as reacting to changes once they are observed introduces an inherent delay. In other words, accurate forecasting methods are required to adapt systems proactively. A powerful approach in this context is time series forecasting, which is also applied in many other domains. The core idea is to examine past values and predict how these values will evolve as time progresses. According to the "No-Free-Lunch Theorem", there is no algorithm that performs best for all scenarios. Therefore, selecting a suitable forecasting method for a given use case is a crucial task. Simply put, each method has its benefits and drawbacks, depending on the specific use case. The choice of the forecasting method is usually based on expert knowledge, which cannot be fully automated, or on trial-and-error. In both cases, this is expensive and prone to error. Although auto-scaling and time series forecasting are established research fields, existing approaches cannot fully address the mentioned challenges: (i) In our survey on time series forecasting, we found that publications on time series forecasting typically consider only a small set of (mostly related) methods and evaluate their performance on a small number of time series with only a few error measures while providing no information on the execution time of the studied methods. Therefore, such articles cannot be used to guide the choice of an appropriate method for a particular use case; (ii) Existing open-source hybrid forecasting methods that take advantage of at least two methods to tackle the "No-Free-Lunch Theorem" are computationally intensive, poorly automated, designed for a particular data set, or they lack a predictable time-to-result. Methods exhibiting a high variance in the time-to-result cannot be applied for time-critical scenarios (e.g., auto-scaling), while methods tailored to a specific data set introduce restrictions on the possible use cases (e.g., forecasting only annual time series); (iii) Auto-scalers typically scale an application either proactively or reactively. Even though some hybrid auto-scalers exist, they lack sophisticated solutions to combine reactive and proactive scaling. For instance, resources are only released proactively while resource allocation is entirely done in a reactive manner (inherently delayed); (iv) The majority of existing mechanisms do not take the provider's pricing scheme into account while scaling an application in a public cloud environment, which often results in excessive charged costs. Even though some cost-aware auto-scalers have been proposed, they only consider the current resource demands, neglecting their development over time. For example, resources are often shut down prematurely, even though they might be required again soon. To address the mentioned challenges and the shortcomings of existing work, this thesis presents three contributions: (i) The first contribution-a forecasting benchmark-addresses the problem of limited comparability between existing forecasting methods; (ii) The second contribution-Telescope-provides an automated hybrid time series forecasting method addressing the challenge posed by the "No-Free-Lunch Theorem"; (iii) The third contribution-Chamulteon-provides a novel hybrid auto-scaler for coordinated scaling of applications comprising multiple services, leveraging Telescope to forecast the workload intensity as a basis for proactive resource provisioning. In the following, the three contributions of the thesis are summarized: Contribution I - Forecasting Benchmark To establish a level playing field for evaluating the performance of forecasting methods in a broad setting, we propose a novel benchmark that automatically evaluates and ranks forecasting methods based on their performance in a diverse set of evaluation scenarios. The benchmark comprises four different use cases, each covering 100 heterogeneous time series taken from different domains. The data set was assembled from publicly available time series and was designed to exhibit much higher diversity than existing forecasting competitions. Besides proposing a new data set, we introduce two new measures that describe different aspects of a forecast. We applied the developed benchmark to evaluate Telescope. Contribution II - Telescope To provide a generic forecasting method, we introduce a novel machine learning-based forecasting approach that automatically retrieves relevant information from a given time series. More precisely, Telescope automatically extracts intrinsic time series features and then decomposes the time series into components, building a forecasting model for each of them. Each component is forecast by applying a different method and then the final forecast is assembled from the forecast components by employing a regression-based machine learning algorithm. In more than 1300 hours of experiments benchmarking 15 competing methods (including approaches from Uber and Facebook) on 400 time series, Telescope outperformed all methods, exhibiting the best forecast accuracy coupled with a low and reliable time-to-result. Compared to the competing methods that exhibited, on average, a forecast error (more precisely, the symmetric mean absolute forecast error) of 29%, Telescope exhibited an error of 20% while being 2556 times faster. In particular, the methods from Uber and Facebook exhibited an error of 48% and 36%, and were 7334 and 19 times slower than Telescope, respectively. Contribution III - Chamulteon To enable reliable auto-scaling, we present a hybrid auto-scaler that combines proactive and reactive techniques to scale distributed cloud applications comprising multiple services in a coordinated and cost-effective manner. More precisely, proactive adaptations are planned based on forecasts of Telescope, while reactive adaptations are triggered based on actual observations of the monitored load intensity. To solve occurring conflicts between reactive and proactive adaptations, a complex conflict resolution algorithm is implemented. Moreover, when deployed in public cloud environments, Chamulteon reviews adaptations with respect to the cloud provider's pricing scheme in order to minimize the charged costs. In more than 400 hours of experiments evaluating five competing auto-scaling mechanisms in scenarios covering five different workloads, four different applications, and three different cloud environments, Chamulteon exhibited the best auto-scaling performance and reliability while at the same time reducing the charged costs. The competing methods provided insufficient resources for (on average) 31% of the experimental time; in contrast, Chamulteon cut this time to 8% and the SLO (service level objective) violations from 18% to 6% while using up to 15% less resources and reducing the charged costs by up to 45%. The contributions of this thesis can be seen as major milestones in the domain of time series forecasting and cloud resource management. (i) This thesis is the first to present a forecasting benchmark that covers a variety of different domains with a high diversity between the analyzed time series. Based on the provided data set and the automatic evaluation procedure, the proposed benchmark contributes to enhance the comparability of forecasting methods. The benchmarking results for different forecasting methods enable the selection of the most appropriate forecasting method for a given use case. (ii) Telescope provides the first generic and fully automated time series forecasting approach that delivers both accurate and reliable forecasts while making no assumptions about the analyzed time series. Hence, it eliminates the need for expensive, time-consuming, and error-prone procedures, such as trial-and-error searches or consulting an expert. This opens up new possibilities especially in time-critical scenarios, where Telescope can provide accurate forecasts with a short and reliable time-to-result. Although Telescope was applied for this thesis in the field of cloud computing, there is absolutely no limitation regarding the applicability of Telescope in other domains, as demonstrated in the evaluation. Moreover, Telescope, which was made available on GitHub, is already used in a number of interdisciplinary data science projects, for instance, predictive maintenance in an Industry 4.0 context, heart failure prediction in medicine, or as a component of predictive models of beehive development. (iii) In the context of cloud resource management, Chamulteon is a major milestone for increasing the trust in cloud auto-scalers. The complex resolution algorithm enables reliable and accurate scaling behavior that reduces losses caused by excessive resource allocation or SLO violations. In other words, Chamulteon provides reliable online adaptations minimizing charged costs while at the same time maximizing user experience. N2 - Heutzutage leben wir in einer digitalisierten Welt. Sowohl unser berufliches als auch unser privates Leben ist von verschiedenen IT-Diensten durchzogen, welche typischerweise in verteilten Computersystemen (z.B. Cloud-Umgebungen) betrieben werden. Die Betreiber solcher Systeme sind aufgrund des hohen Digitalisierungsgrades mit schnellen und wechselnden Anforderungen konfrontiert. Insbesondere Cloud-Umgebungen unterliegen starken Lastschwankungen und entsprechenden schnellen und unerwarteten Änderungen des Bedarfs an Rechenressourcen. Um dieser Herausforderung zu begegnen, können so genannte Auto-Scaler, wie z.B. der schwellenwertbasierte Mechanismus von Amazon Web Services EC2, eingesetzt werden, um eine elastische Skalierung der Rechenressourcen zu ermöglichen. Doch trotz dieser Gelegenheit werden geschäftskritische Anwendungen nach wie vor mit deutlich überdimensionierten Rechenkapazitäten betrieben, um einen stabilen und zuverlässigen Dienstbetrieb zu gewährleisten. Diese Strategie wird aufgrund des mangelnden Vertrauens in Auto-Scaler und der Sorge verfolgt, dass ungenaue oder verzögerte Anpassungen zu finanziellen Verlusten führen könnten. Um die Ressourcenkapazität rechtzeitig anpassen zu können, müssen die zukünftigen Ressourcenanforderungen "vorhergesehen" werden. Denn die Reaktion auf Veränderungen, sobald diese beobachtet werden, führt zu einer inhärenten Verzögerung. Mit anderen Worten, es sind genaue Prognosemethoden erforderlich, um Systeme proaktiv anzupassen. Ein wirksamer Ansatz in diesem Zusammenhang ist die Zeitreihenprognose, welche auch in vielen anderen Bereichen angewandt wird. Die Kernidee besteht darin, vergangene Werte zu untersuchen und vorherzusagen, wie sich diese Werte im Laufe der Zeit entwickeln werden. Nach dem "No-Free-Lunch Theorem" gibt es keinen Algorithmus, der für alle Szenarien am besten funktioniert. Daher ist die Auswahl einer geeigneten Prognosemethode für einen gegebenen Anwendungsfall eine wesentliche Herausforderung. Denn jede Methode hat - abhängig vom spezifischen Anwendungsfall - ihre Vor- und Nachteile. Deshalb basiert üblicherweise die Wahl der Prognosemethode auf Trial-and-Error oder auf Expertenwissen, welches nicht vollständig automatisiert werden kann. Beide Ansätze sind teuer und fehleranfällig. Obwohl Auto-Skalierung und Zeitreihenprognose etablierte Forschungsgebiete sind, können die bestehenden Ansätze die genannten Herausforderungen nicht vollständig bewältigen: (i) Bei unserer Untersuchung zur Zeitreihenvorhersage stellten wir fest, dass die meisten der überprüften Artikel nur eine geringe Anzahl von (meist verwandten) Methoden berücksichtigen und ihre Performanz auf einem kleinen Datensatz von Zeitreihen mit nur wenigen Fehlermaßen bewerten, während sie keine Informationen über die Ausführungszeit der untersuchten Methoden liefern. Daher können solche Artikel nicht als Hilfe für die Wahl einer geeigneten Methode für einen bestimmten Anwendungsfall herangezogen werden; (ii) Bestehende hybride open-source Prognosemethoden, die sich mindestens zwei Methoden zunutze machen, um das "No-Free-Lunch Theorem" anzugehen, sind rechenintensiv, schlecht automatisiert, für einen bestimmten Datensatz ausgelegt oder haben eine unvorhersehbare Laufzeit. Methoden, die eine hohe Varianz in der Ausführungszeit aufweisen, können nicht für zeitkritische Szenarien angewendet werden (z.B. Autoskalierung), während Methoden, die auf einen bestimmten Datensatz zugeschnitten sind, Einschränkungen für mögliche Anwendungsfälle mit sich bringen (z.B. nur jährliche Zeitreihen vorhersagen); (iii) Auto-Scaler skalieren typischerweise eine Anwendung entweder proaktiv oder reaktiv. Obwohl es einige hybride Auto-Scaler gibt, fehlt es ihnen an ausgeklügelten Lösungen zur Kombination von reaktiver und proaktiver Skalierung. Beispielsweise werden Ressourcen nur proaktiv freigesetzt, während die Ressourcenzuweisung vollständig reaktiv (inhärent verzögert) erfolgt; (iv) Die Mehrheit der vorhandenen Mechanismen berücksichtigt bei der Skalierung einer Anwendung in einer öffentlichen Cloud-Umgebung nicht das Preismodell des Anbieters, was häufig zu überhöhten Kosten führt. Auch wenn einige kosteneffiziente Auto-Scaler vorgeschlagen wurden, berücksichtigen sie nur den aktuellen Ressourcenbedarf und vernachlässigen ihre Entwicklung im Laufe der Zeit. Beispielsweise werden Ressourcen oft vorzeitig abgeschaltet, obwohl sie vielleicht bald wieder benötigt werden. Um den genannten Herausforderungen und den Defiziten der bisherigen Arbeiten zu begegnen, werden in dieser Arbeit drei Beiträge vorgestellt: (i) Der erste Beitrag - ein Prognosebenchmark - behandelt das Problem der begrenzten Vergleichbarkeit zwischen bestehenden Prognosemethoden; (ii) Der zweite Beitrag stellt eine automatisierte hybride Zeitreihen-Prognosemethode namens Telescope vor, die sich der Herausforderung des "No-Free-Lunch Theorem" stellt; (iii) Der dritte Beitrag stellt Chamulteon, einen neuartigen hybriden Auto-Scaler für die koordinierte Skalierung von Anwendungen mit mehreren Diensten, bereit, der Telescope zur Vorhersage der Lastintensität als Grundlage für eine proaktive Ressourcenbereitstellung nutzt. Im Folgenden werden die drei Beiträge der Arbeit zusammengefasst: Beitrag I - Prognosebenchmark Um gleiche Ausgangsbedingungen für die Bewertung von Prognosemethoden anhand eines breiten Spektrums zu schaffen, schlagen wir einen neuartigen Benchmark vor, der Prognosemethoden auf der Grundlage ihrer Performanz in einer Vielzahl von Szenarien automatisch bewertet und ein Ranking erstellt. Der Benchmark umfasst vier verschiedene Anwendungsfälle, die jeweils 100 heterogene Zeitreihen aus verschiedenen Bereichen abdecken. Der Datensatz wurde aus öffentlich zugänglichen Zeitreihen zusammengestellt und so konzipiert, dass er eine viel höhere Diversität aufweist als bestehende Prognosewettbewerbe. Neben dem neuen Datensatz führen wir zwei neue Maße ein, die verschiedene Aspekte einer Prognose beschreiben. Wir haben den entwickelten Benchmark zur Bewertung von Telescope angewandt. Beitrag II - Telescope Um eine generische Prognosemethode bereitzustellen, stellen wir einen neuartigen, auf maschinellem Lernen basierenden Prognoseansatz vor, der automatisch relevante Informationen aus einer gegebenen Zeitreihe extrahiert. Genauer gesagt, Telescope extrahiert automatisch intrinsische Zeitreihenmerkmale und zerlegt die Zeitreihe dann in Komponenten, wobei für jede dieser Komponenten ein Prognosemodell erstellt wird. Jede Komponente wird mit einer anderen Methode prognostiziert und dann wird die endgültige Prognose aus den vorhergesagten Komponenten unter Verwendung eines regressionsbasierten Algorithmus des maschinellen Lernens zusammengestellt. In mehr als 1300 Experiment-Stunden, in denen 15 konkurrierende Methoden (einschließlich Ansätze von Uber und Facebook) auf 400 Zeitreihen verglichen wurden, übertraf Telescope alle Methoden und zeigte die beste Prognosegenauigkeit in Verbindung mit einer niedrigen und zuverlässigen Ausführungszeit. Im Vergleich zu den konkurrierenden Methoden, die im Durchschnitt einen Prognosefehler (genauer gesagt, den symmetric mean absolute forecast error) von 29% aufwiesen, wies Telescope einen Fehler von 20% auf und war dabei 2556 mal schneller. Insbesondere die Methoden von Uber und Facebook wiesen einen Fehler von 48% bzw. 36% auf und waren 7334 bzw. 19 mal langsamer als Telescope. Beitrag III - Chamulteon Um eine zuverlässige Auto-Skalierung zu ermöglichen, stellen wir einen hybriden Auto-Scaler vor, der proaktive und reaktive Techniken kombiniert, um verteilte Cloud-Anwendungen, die mehrere Dienste umfassen, koordiniert und kostengünstig zu skalieren. Genauer gesagt, werden proaktive Anpassungen auf der Grundlage von Prognosen von Telescope geplant, während reaktive Anpassungen auf der Grundlage tatsächlicher Beobachtungen der überwachten Lastintensität ausgelöst werden. Um auftretende Konflikte zwischen reaktiven und proaktiven Anpassungen zu lösen, wird ein komplexer Konfliktlösungsalgorithmus implementiert. Außerdem überprüft Chamulteon Anpassungen im Hinblick auf das Preismodell des Cloud-Anbieters, um die anfallenden Kosten in öffentlichen Cloud-Umgebungen zu minimieren. In mehr als 400 Experiment-Stunden, in denen fünf konkurrierende Auto-Skalierungsmechanismen unter fünf verschiedene Arbeitslasten, vier verschiedene Anwendungen und drei verschiedene Cloud-Umgebungen evaluiert wurden, zeigte Chamulteon die beste Auto-Skalierungsleistung und Zuverlässigkeit bei gleichzeitiger Reduzierung der berechneten Kosten. Die konkurrierenden Methoden lieferten während (durchschnittlich) 31% der Versuchszeit zu wenige Ressourcen. Im Gegensatz dazu reduzierte Chamulteon diese Zeit auf 8% und die SLO-Verletzungen (Service Level Objectives) von 18% auf 6%, während es bis zu 15% weniger Ressourcen verwendete und die berechneten Kosten um bis zu 45% senkte. Die Beiträge dieser Arbeit können als wichtige Meilensteine auf dem Gebiet der Zeitreihenprognose und der automatischen Skalierung in Cloud Computing angesehen werden. (i) In dieser Arbeit wird zum ersten Mal ein Prognosebenchmark präsentiert, der eine Vielzahl verschiedener Bereiche mit einer hohen Diversität zwischen den analysierten Zeitreihen abdeckt. Auf der Grundlage des zur Verfügung gestellten Datensatzes und des automatischen Auswertungsverfahrens trägt der vorgeschlagene Benchmark dazu bei, die Vergleichbarkeit von Prognosemethoden zu verbessern. Die Benchmarking-Ergebnisse von verschiedenen Prognosemethoden ermöglichen die Auswahl der am besten geeigneten Prognosemethode für einen gegebenen Anwendungsfall. (ii) Telescope bietet den ersten generischen und vollautomatischen Zeitreihen-Prognoseansatz, der sowohl genaue als auch zuverlässige Prognosen liefert, ohne Annahmen über die analysierte Zeitreihe zu treffen. Dementsprechend macht es teure, zeitaufwändige und fehleranfällige Verfahren überflüssig, wie z.B. Trial-and-Error oder das Hinzuziehen eines Experten. Dies eröffnet neue Möglichkeiten, insbesondere in zeitkritischen Szenarien, in denen Telescope genaue Vorhersagen mit einer kurzen und zuverlässigen Antwortzeit liefern kann. Obwohl Telescope für diese Arbeit im Bereich des Cloud Computing eingesetzt wurde, gibt es, wie die Auswertung zeigt, keinerlei Einschränkungen hinsichtlich der Anwendbarkeit von Telescope in anderen Bereichen. Darüber hinaus wird Telescope, das auf GitHub zur Verfügung gestellt wurde, bereits in einer Reihe von interdisziplinären datenwissenschaftlichen Projekten eingesetzt, z.B. bei der vorausschauenden Wartung im Rahmen von Industry 4.0, bei der Vorhersage von Herzinsuffizienz in der Medizin oder als Bestandteil von Vorhersagemodellen für die Entwicklung von Bienenstöcken. (iii) Im Kontext der elastischen Ressourcenverwaltung ist Chamulteon ein wichtiger Meilenstein für die Stärkung des Vertrauens in Auto-Scaler. Der komplexe Konfliktlösungsalgorithmus ermöglicht ein zuverlässiges und genaues Skalierungsverhalten, das Verluste durch übermäßige Ressourcenzuweisung oder SLO-Verletzungen reduziert. Mit anderen Worten, Chamulteon bietet zuverlässige Ressourcenanpassungen, die die berechneten Kosten minimieren und gleichzeitig die Benutzerzufriedenheit maximieren. KW - Zeitreihenanalyse KW - Prognose KW - Cloud Computing KW - Auto-Scaling KW - Feature Engineering & Extraction KW - Skalierbarkeit KW - Benchmarking KW - Forecasting Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-220255 ER - TY - THES A1 - Chifu, Irina T1 - Expression und prognostische Bedeutung der Chemokinrezeptoren CXCR4 und CXCR7 bei malignen Nebennierentumoren T1 - Prognostic Relevance of the Chemokine Receptors CXCR4 and CXCR7 in Malignant Adrenal Tumors N2 - Zusammenfassung: Unsere Arbeit bestätigt die aus kleineren Studien bekannte hohe Expression der Chemokinrezeptoren CXCR4 und CXCR7 in der normalen Nebenniere und in der Mehrheit der Nebennierenkarzinome. Das auf mRNA Ebene bestätigte Vorkommen beider Chemokinrezeptoren im gesunden Nebennierengewebe deutet auf eine überwiegend für die normale Nebennierenphysiologie wichtige Rolle dieser Chemokinrezeptoren hin. Eine eventuell dennoch bestehende pathophysiologische Relevanz der Rezeptoren wurde ergänzend überprüft und ergab keinen signifikanten Einfluss auf die Prognose des Nebennierenkarzinoms. N2 - Summary: Our study describes the expression profile and prognostic relevance of the chemokine receptors CXCR4 and CXCR7 in 187 clinically annotated adrenocortical carcinoma specimens. The main findings of our analysis are a strong expression of both chemokine receptors in the majority of primary tumors and metastases. In contrast to other malignancies we did not observe a relevant prognostic impact of CXCR4 and CXCR7 expression. We assume that this observation may be associated with the high constitutive expression of both receptors also in the normal adrenal cortex and their putative role in adrenal homeostasis. KW - Nebennierenrindencarcinom KW - Chemokinrezeptor KW - CXCR4 KW - CXCR7 KW - Prognose Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-217225 ER - TY - THES A1 - Stonawski, Saskia T1 - Emotionale Informationsverarbeitungsprozesse als Prädiktoren und Korrelate des Therapieoutcomes bei Patienten mit Depression T1 - Emotional information processing as a predictor and correlate of therapy outcome in depression N2 - Depressionen gehören zu den häufigsten psychischen Erkrankungen. Neben Symptomen wie Niedergeschlagenheit, Interessenlosigkeit oder Schlafstörungen sind Depressionen auch durch Defizite in kognitiven Funktionen, wie z.B. Aufmerksamkeitsprozessen oder der Wahrnehmung, und eine negativ verzerrte Informationsverarbeitung gekennzeichnet. Aufgrund der hohen Prävalenz, der starken psychosozialen Funktionseinschränkungen durch depressive Erkrankungen und deren rezidivierenden Charakter besteht die Notwendigkeit, die therapeutischen Interventionen zur Behandlung affektiver Störungen zu verbessern, dadurch die Krankheitsphase der Patienten zu verkürzen und letztendlich auch die Kosten für das Gesundheitssystem zu reduzieren. In diesem Zusammenhang werden in den letzten Jahren verstärkt mögliche Prädiktoren und Korrelate des Therapieerfolgs untersucht. Hierfür könnten negativ verzerrte Informationsverarbeitungsprozesse und Defizite in kognitiven Funktionen objektive Marker darstellen. Im ersten Teil dieser Arbeit wurde der Covariation Bias, der als Überschätzung des Zusammenhangs zwischen einem krankheitsrelevanten Stimulus und einer aversiven Konsequenz definiert wird, in einem Querschnittsdesign bei schwer depressiven Patienten zu Behandlungsbeginn im Vergleich zu einer Gruppe von Patienten nach einer sechswöchigen Behandlung sowie einer gesunden Kontrollgruppe untersucht. Diese kognitive Verzerrung war bei Patienten mit schwererer Symptomatik unabhängig vom Behandlungszeitpunkt stärker ausgeprägt. Zudem prädizierte der Covariation Bias zu Behandlungsbeginn das Therapieoutcome nach sechs Behandlungswochen dahingehend, dass Patienten mit einer stärkeren kognitiven Verzerrung ein schlechteres Ansprechen auf die Therapie zeigten. Im zweiten Teil dieser Arbeit wurde das Emotional Processing Paradigma, das aus Aufgaben zur Emotionserkennung und zur Aufmerksamkeitslenkung besteht, zum ersten Mal bei schwer depressiven Patienten im intraindividuellen Verlauf der Behandlung eingesetzt und in Zusammenhang mit dem Therapieerfolg gestellt. Neben Hinweisen darauf, dass Patienten, bei denen sich in den ersten Behandlungswochen unter anderem die Salienz negativer Emotionen verringerte, mit höherer Wahrscheinlichkeit remittierten, zeigten sich vor allem zeitlich stabile Unterschiede im Sinne einer Trait-Variablen zwischen Patienten, die auf die initiale Therapie ansprachen, und Patienten, die keine bedeutsame Verbesserung erfuhren, in den globalen kognitiven Funktionen: Patienten, bei denen es zu keiner klinisch relevanten Verbesserung durch die Therapie kam, wiesen stärkere Defizite auf. Zusammengenommen weisen die Ergebnisse der vorliegenden Arbeit auf ein stabiles Muster von Defiziten in globalen kognitiven Funktionen bei Patienten mit Depressionen hin. Diese Abweichungen liegen jedoch nicht bei allen schwer depressiven Patienten gleichermaßen vor. Bei Patienten mit Defiziten scheint das Therapieoutcome schlechter zu sein. Somit könnten diese Prozesse der Informationsverarbeitung und kognitive Defizite auf neuropsychologischer Ebene Prädiktoren und Korrelate des Therapieoutcomes darstellen. Im Sinne der personalisierten Medizin könnte in Zukunft die Diagnostik um die Parameter der Informationsverarbeitungsprozesse ergänzt werden und so die Prognose des Therapieerfolgs verbessert und die Behandlung der Patienten individualisiert werden. N2 - Depressive disorders are among the most frequent mental disorders. In addition to symptoms such as depressed mood, diminished interest or insomnia, depression is characterized by deficits in cognitive functions, e.g. attention or perception, and a negative biased information processing. Due to the high prevalence, severe impairments in social and occupational functioning and the recurring character of the disorder, there is a growing necessity of improving therapeutic interventions of affective disorders, in order to shorten time of suffering and to reduce costs in the health care system. In this context, potential predictors and correlates of therapy outcome were studied in recent years. Negative biases in information processing and cognitive deficits might represent objective markers. In the first part of this thesis, the covariation bias, defined as an overestimation of the relationship between disease-relevant stimulus and an aversive consequence, was investigated in patients with a severe depressive episode at admission, patients after a six-weeks antidepressant treatment and healthy controls in a between-group design. This type of cognitive bias was more pronounced in patients with a more severe symptomatic independent of course of treatment. Moreover, covariation bias at admission predicted therapy outcome after six weeks of treatment: Patients with a stronger bias showed an impaired treatment response. In the second part of this thesis, the emotional processing paradigm, which consists of emotion recognition and attentional vigilance tasks, was studied in severe depressive patients, and their intraindividual course of treatment and parameters were linked to therapy outcome. In addition to evidence that patients with a reduced salience of negative emotions after the first weeks of treatment remit with a higher probability, there were temporally stable differences in global cognitive functions between patients who responded to initial treatment and patients who did not improve: Patients without a clinically relevant improvement showed more severe deficits. In summary, the present findings suggest a stable pattern of global cognitive deficits in patients with depression. However, these deviations are not equally present in all patients with a severe depressive episode. In patients with deficits, therapy outcome seems to be impaired. Thus, information processing and cognitive deficits might constitute predictors and correlates of therapy outcome on neuropsychological level. In terms of personalized medicine, information processing parameters might thus complement the diagnostic process and individualize therapeutic interventions. KW - Depression KW - Informationsverarbeitung KW - Emotionale Informationsverarbeitung KW - Prädiktoren und Korrelate KW - Therapieoutcome KW - emotional information processing KW - predictors and correlates KW - therapy outcome KW - Prognose KW - Remission Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-188691 ER - TY - THES A1 - Kordsmeyer, Maren T1 - Prävalenz und prognostischer Einfluss von Anämie, Niereninsuffizienz und Eisenmangel bei Herzinsuffizienz T1 - Prevalence and prognostic impact of anaemia, renal insufficiency and iron deficiency in heart failure N2 - Anämie (A), Niereninsuffizienz (RI) und Eisenmangel (ID) sind häufige Komorbiditäten der Herzinsuffizienz. Zum ersten Mal wurden in dieser Analyse die Prävalenz sowie der Einfluss auf Mortalität aller drei Komorbiditäten einzeln sowie koinzident in einer Population aus akut dekompensierten Herzinsuffizienzpatienten untersucht. Ebenso fehlten in der Literatur bisher Studien über die Prävalenz und den Einfluss auf die Mortalität von Anämie und Niereninsuffizienz abhängig von den vier AHA/ACC-Stadien bzw. von den verschiedenen Herzinsuffizienztypen HFrEF, HFpEF und dem hinsichtlich Herzinsuffizienz bisher asymptomatischen AHA/ACC-Stadium A/B. A, RI und ID sind häufig und treten bei Überlebenden nach Hospitalisierung mit akut dekompensierter HFrEF oft zusammen auf. Patienten mit A und RI mit oder ohne ID haben das höchste Risiko für Mortalität. Die Definition und prognostische Rolle des ID nach akuter kardialer Dekompensation erfordert weitere Forschungsbemühungen. Die Prävalenz von A und insbesondere von RI ist bereits in den aymptomatischen AHA / ACC-Stadien A und B hoch und nimmt mit dem Schweregrad der Herzinsuffizienz zu. Sowohl A als auch RI haben einen individuellen und kumulativen prognostischen Einfluss über das gesamte AHA / ACC-Spektrum. A und RI waren bei allen Herzinsuffizienztypen häufig. Mehr als 20% der asymptomatischen AHA / ACC-Patienten im Stadium A und B hatten bereits RI. A und RI zeigten einen negativen individuellen und kumulativen prognostischen Einfluss bei allen Herzinsuffizienztypen, einschließlich der asymptomatischen Patienten (bei HFpEF gab es nur einen Trend, höchstwahrscheinlich aufgrund der geringeren Patientenzahl). Bei Bestehen von A, RI oder ID ist eine sorgfältige Ursachenforschung indiziert im Rahmen eines ganzheitlichen Managements der Herzinsuffizienz mit dem Ziel, die Prognose der Herzinsuffizienz zu verbessern. N2 - Anaemia (A), renal insufficiency (RI) and iron deficiency (ID) are frequent comorbidities of heart failure. In this analysis the prevalence and the impact on mortality of all three comorbidities were examined individually and cumulative in a population of acutely decompensated heart failure patients for the first time. Likewise, studies on the prevalence and the impact on mortality from anemia and renal insufficiency depending on the four AHA / ACC stages or on the different types of heart failure HFrEF, HFpEF and the aymptomatic AHA / ACC precursor stages A and B have so far been lacking in the literature. A, RI, and ID are common and often coincide in survivors of the in-hospital phase after acutely decompensated HFrEF. Patients with A and RI with or without ID have the highest risk of all-cause mortality. The definition and prognostic role of ID after acute cardiac decompensation requires further research activities. The prevalence of A and in particular of RI is high already in the aymptomatic AHA/ACC precursor stages A and B, and increases with heart failure severity. Both, A and RI have an individual and cumulative prognostic impact across the entire AHA/ACC spectrum. A and RI were common in all types of heart failure. More than 20% of asymptomatic AHA/ACC stage A and B patients already had RI. A and RI showed adverse individual and cumulative prognostic effects in all heart failure types including also asymptomatic patients (in HFpEF patients there was only a trend, most likely due to the smaller number of patients). If there are the comorbidities of A, RI, or ID we need to do thorough causal research as part of a holistic heart failure management, with the aim to improve heart failure outcomes. KW - Herzinsuffizienz KW - Anämie KW - Niereninsuffizienz KW - Eisenmangel KW - Prognose Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-210516 ER - TY - THES A1 - Lurz, Kristina T1 - Confidence and Prediction under Covariates and Prior Information T1 - Konfidenz- und Prognoseintervalle unter Kovariaten und Vorinformation N2 - The purpose of confidence and prediction intervals is to provide an interval estimation for an unknown distribution parameter or the future value of a phenomenon. In many applications, prior knowledge about the distribution parameter is available, but rarely made use of, unless in a Bayesian framework. This thesis provides exact frequentist confidence intervals of minimal volume exploiting prior information. The scheme is applied to distribution parameters of the binomial and the Poisson distribution. The Bayesian approach to obtain intervals on a distribution parameter in form of credibility intervals is considered, with particular emphasis on the binomial distribution. An application of interval estimation is found in auditing, where two-sided intervals of Stringer type are meant to contain the mean of a zero-inflated population. In the context of time series analysis, covariates are supposed to improve the prediction of future values. Exponential smoothing with covariates as an extension of the popular forecasting method exponential smoothing is considered in this thesis. A double-seasonality version of it is applied to forecast hourly electricity load under the use of meteorological covariates. Different kinds of prediction intervals for exponential smoothing with covariates are formulated. N2 - Konfidenz- und Prognoseintervalle dienen der Intervallschätzung unbekannter Verteilungsparameter und künftiger Werte eines Phänomens. In vielen Anwendungen steht Vorinformation über einen Verteilungsparameter zur Verfügung, doch nur selten wird außerhalb von bayesscher Statistik davon Gebrauch gemacht. In dieser Dissertation werden exakte frequentistische Konfidenzintervalle unter Vorinformation kleinsten Volumens dargelegt. Das Schema wird auf Verteilungsparameter für die Binomial- und die Poissonverteilung angewandt. Der bayessche Ansatz von Intervallen für Verteilungsparameter wird in Form von Vertrauensintervallen behandelt, mit Fokus auf die Binomialverteilung. Anwendung findet Intervallschätzung in der Wirtschaftsprüfung, wo zweiseitige Intervalle vom Stringer-Typ den Mittelwert in Grundgesamtheiten mit vielen Nullern enthalten sollen. Im Zusammenhang mit Zeitreihenanalyse dienen Kovariaten der Verbesserung von Vorhersagen zukünftiger Werte. Diese Arbeit beschäftigt sich mit exponentieller Glättung mit Kovariaten als eine Erweiterung der gängigen Prognosemethode der exponentiellen Glättung. Eine Version des Modells, welche doppelte Saison berücksichtigt, wird in der Prognose des stündlichen Elektrizitätsbedarfs unter Zuhilfenahme von meteorologischen Variablen eingesetzt. Verschiedene Arten von Prognoseintervallen für exponentielle Glättung mit Kovariaten werden beschrieben. KW - Konfidenzintervall KW - A-priori-Wissen KW - Binomialverteilung KW - Exponential smoothing KW - Prognose KW - Zero-inflation KW - Audit sampling KW - Credibility interval KW - Prediction interval KW - Exponential smoothing with covariates Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-122748 ER - TY - THES A1 - Paul, Jens Christian T1 - Retrospektive Analyse von 119 Patienten mit kutanen Sarkomen an der Universitäts-Hautklinik Würzburg aus den Jahren 1999-2009: Diagnostik, Therapie und Prognose T1 - Analysis of Survival, Therapy and progostic factors within a cohort of 119 dermatological patients with cutaneous sarcoma at the Universitätsklinik Würzburg N2 - In dieser Studie werden demographische, diagnostische und therapeutische Faktoren einer an kutanen Sarkomen erkrankten Patientengruppe der Würzburger Hautklinik untersucht. Der prognostische Wert dieser Faktoren wird mit Hilfe verschiedener statistischer Tests und Vergleiche untersucht. Die Studienpopulation umfasst 119 Patienten, die im Zeitraum von 1999 bis 2009 behandelt wurden. N2 - Analysis of Survival, Therapy and progostic factors within a cohort of 119 dermatological patients with cutaneous sarcoma at the Universitätsklinik Würzburg KW - Kutane Sarkome KW - Sarkom KW - Klinik KW - Prognose KW - Therapie Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-116846 ER - TY - THES A1 - Thies, Elena-Daphne Dorothée T1 - Die Prognose des differenzierten Schilddrüsenkarzinoms in Abhängigkeit von der zum Erreichen eines erkrankungsfreien Zustands benötigten Zahl der I-131-Therapien T1 - The number of 131-I therapy courses needed to archieve complete remission is an indicator of prognosis in patients with differentiated thyroid carcinoma N2 - Ziel: Abschätzung der Risiken des Rezidivs des differenzierten Schilddrüsenkarzinoms, der Karzinom-bedingten Mortalität und der Karzinom-bedingten Reduktion der Lebenserwartung in Abhängigkeit von der Anzahl der zum Erreichen eines krankheitsfreien Zustands benötigten I-131-Therapien (Radioiodtherapien) und der für die Krankheitsfreiheit benötigten kumulativen Aktivität. Methoden: Analyse anhand von in der Würzburger Schilddrüsenkarzinom-Datenbank erfassten Verlaufsdaten unter Berücksichtigung eigener zusätzlicher Erhebungen zum follow-up.von 896 Patienten, die nach einer oder mehreren Radioiodtherapien im Therapieverlauf Erkrankungsfreiheit erreichten (negative TSH-stimulierte Thyreoglobulin-Messung in Kombination mit einer negativen I-131-Ganzkörperszintigraphie). Ergebnisse: Die erfassbare Nachsorgedauer betrug in Median 9.0 Jahre (Spannbreite 0.1-31.8 Jahre). Rezidiv-Raten nach 5 und 10 Jahren und am Ende der Nachsorge betrugen 1,0±0,3%, 4,0±0,7% und 6,2±1,1%. Die Schilddrüsenkarzinom-bedingte Sterberate betrug jeweils 0,1±0,1%, 0,5±0,3% und 3,4±1,1%. Mit einer zunehmenden Anzahl von benötigten Radioiodtherapien nahm die Rezidivrate zu (p=0.001). Die Schilddrüsenkarzinom-bedingte Sterblichkeitsrate ist ab 4 benötigten Radioiodtherapien erhöht. Bei Patienten, die nach einer Radioiodtherapie krankheitsfrei waren, finden sich zwischen Niedrig- und Hochrisikopatienten keine Unterschiede bezüglich Rezidiv- und Sterblichkeitsrate. Bei Patienten, die zwei Radioiodtherapien benötigten, waren Rezidiv- und Sterblichkeitsrate der Hochrisikopatienten erhöht. Bezüglich der kumulativ benötigten Aktivität zeigten sich nur bei Patienten, die eine kumulative Aktivität von über 22,2 GBq benötigten, erhöhte Rezidiv- und Sterberaten. Im vorliegenden Studienkollektiv mit einer inhärent guten Prognose zeigte sich eine uneingeschränkte Lebenserwartung unabhängig von der benötigen Anzahl der Radioiodtherapien oder der benötigten kumulativen Aktivität. Fazit: Falls mehr als eine Radioiodtherapie oder eine hohe kumulative I-131 Aktivität benötigt wird, um einen krankheitsfreien Zustand zu erreichen, muss mit einer Rezidiv- und Schilddrüsenkarzinom-bedingten Sterblichkeits-Rate gerechnet werden, vor allem bei Hochrisikopatienten. N2 - Purpose: To assess the risk of differentiated thyroid cancer (DTC) recurrence, DTC-related mortality and life expectancy in relation to the number of courses of 131-I therapy (RIT) and cumulative 131-I activities required to achieve complete remission (CR). Methods: The study was a database review of 1,229 patients with DTC, 333 without and 896 with CR (negative TSHstimulated thyroglobulin and negative 131-I diagnostic wholebody scintigraphy) after one or more courses of RIT. Results: The median follow-up was 9.0 years (range 0.1–31.8 years) after CR. Recurrence rates at 5 years, 10 years and the end of follow-up were 1.0±0.3 %, 4.0±0.7 % and 6.2 ±1.1 %, and DTC-related mortality was 0.1±0.1 %, 0.5± 0.3 % and 3.4±1.1 %, respectively. Recurrence rates also increased with an increasing number of RIT courses required (p=0.001). DTC-related mortality increased from four RIT courses. In patients with CR after one RIT course, there were no differences in recurrence or DTC-related mortality rates between low-risk and high-risk patients. In patients requiring two RIT courses these rates remain elevated in high-risk patients. Recurrence and DTC-related mortality rates were only significantly elevated in those requiring a cumulative activity over 22.2 GBq (600 mCi) from multiple RIT courses for CR. Regardless of the number of RIT courses or activity needed, life expectancy was not significantly lowered. Conclusion: If more than one RIT course is needed to achieve CR, higher recurrence and DTC-related mortality rates are observed, especially in high-risk patients. Patients requiring >22.2 GBq 131-I for CR should be followed in the same way as patients in whom CR is never reached as long-term mortality rates are similar. KW - Differentiated thyroid carcinoma KW - Schilddrüsenkarzinom KW - 131-I Ablation KW - Prognose KW - Überleben KW - Differentiated thyroid carcinoma KW - 131-I ablation KW - prognosis KW - life expectancy Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-110981 N1 - Die Doktorarbeit wurde unter dem englischen Titel: "The number of 131-I therapy courses needed to archieve complete remission is an indicator of prognosis in patients with differentiated thyroid carcinoma.", publiziert. Dies entspricht nicht hundertprozentig der deutschen Übersetzung und enthält schon Ergebnisse. ER - TY - THES A1 - Kalogirou, Charis Alexis Thomas T1 - Untersuchungen zur Funktion und Expression von miR-205 und miR-221 im Prostatakarzinom unter besonderer Beachtung von miR-205 als Prognosemarker beim Hochrisiko-Patienten T1 - Analysis of expression and functional studys of miR-205 and miR-221 in high-risk prostate cancer with special attention to miR-205 as a prognostic marker in the high-risk patient N2 - Das Prostatakarzinom (PCa) ist weltweit das häufigste Malignom des Mannes mit weiter steigenden Inzidenz. Leider ist es bisher mit den gebräuchlichen Prognosefaktoren nicht möglich, diesen klinisch sehr heterogenen Tumor vor einer chirurgischen Therapie hinsichtlich des postoperativen Rezidivrisikos zu charakterisieren. Die Einführung neuer, hochsensitiver Biomarker, die diese Aufgabe zuverlässig erfüllen können, stellt vor allem für die Entwicklung individualisierter Therapieregimes von Patienten mit einem high-risk-PCa eine aktuelle Herausforderung dar. MicroRNAs rückten in den letzten Jahren als potentielle Biomarker zunehmend in den wissenschaftlichen Fokus. Sie stellen kleine RNA-Moleküle dar, welche posttranskriptionell die Genexpression in Organismen steuern und auch in der Regulation von Tumorsuppressoren und Onkogenen eine Rolle spielen. Differentielle Expressionslevels verschiedener RNAs wurden in sehr vielen Tumorentitäten, wie auch dem PCa beobachtet. Vorarbeiten aus unserem Labor zeigten, dass zwei microRNAs, miR-205 und miR-221, im PCa sehr stark unterexprimiert werden. Im Falle von mir-221 konnte zudem bereits eine Korrelation mit dem klinischen Verlauf und der Prognose des high-risk-PCa dargestellt werden. Aufbauend auf diesen Vorarbeiten sollte in einem Teilprojekt der vorliegenden Arbeit die tumorsuppressive Funktion von miR-221 im PCa untersucht werden. Mittels transienter Überexpression von miR-221 in PCa-Zelllinien konnte die Bedeutung von miR-221 als Regulator der Proliferation in PCa-Zellen beschrieben werden. Um die molekulare Wirkweise von miR-221 weiter darzustellen, wurde die posttranskriptionelle Inhibierung von p27kip1 und c-kit, zwei bekannten miR-221-Zielgenen, untersucht. In sogenannten Luciferase-Assays konnte eine direkte Interaktion von miR-221 mit definierten Sequenzen im 3‘-untranslatierten Bereich (=3‘UTR) beider Gene nachgewiesen werden. Erwartungsgemäß wurde aber in primären PCa-Tumoren, die anders wie viele andere Tumorentitäten eine reduzierte miR-221-Expression aufwiesen, keine Überexpression des potentiellen Tumorsuppressors p27kip1 beobachtet. Somit ist nachgewiesen, dass miR-221 zwar prinzipiell den Tumorsuppressor p27kip1 regulieren kann, dass allerdings dieser Mechanismus in primären PCa für die Regulation des Tumorsuppressors p27kip1 keine übergeordnete Rolle spielt. Anders verhält es sich bei dem potentiellen Onkogen c-kit. Die von mir druchgeführten Untersuchungen können erstmals eine direkte Interaktion von c-kit und miR-221 in PCa-Zellen nachweisen. Somit kann die beschriebene Proliferations-inhibierung und Apoptoseinduktion nach ektopischer miR-221-Überexpression im Zellmodell mit einer miR-221-vermittelten c-kit-Inhibierung in Zusammenhang gebracht werden. Dieses Ergebnis wird durch den Nachweise einer inversen Assoziation der mir-221- und ckit-Expression in primären PCa-Fällen untermauert (nicht gezeigte Ergebnisse). Betrachtet man diese Ergebnisse in Zusammenhang mit der bekannten tumor-progressiven Funktionen von c-kit, könnte durch die fehlende/reduzierte miR-221-Inhibierung der c-kit-Translation die Entstehung und Progression vieler PCas erklärt werden. In einem zweiten Projektansatz wurde die Bedeutung und Funktion von miR-205 als möglicher Tumorsuppressor im PCa untersucht. Dabei kann gezeigt werden, dass mir-205 ebenfalls in der Lage ist, nach transienter Überexpression die Proliferation von PCa-Zellen zu inhibieren. Um molekulare Mechanismen und Wirkweisen von mir-205 zu untersuchen, wurden im Zellmodell die Expression der Onkogene HER2/neu und HER3, beides vorausgesagte miR-205-Zielgene, analysiert. Es konnte gezeigt werden, dass in PCa-Zellen die Unterexpression von HER3 und HER/neu mit der ektopischen Überexpression von miR-205 assoziiert ist. Die HER2/neu-Expression konnte zusätzlich auch im primären Tumor mit der miR-205-Expression invers assoziiert werden, wodurch die Regulation dieses Zielgens auf nativer Ebene verifiziert wurde. Ein weiterer Fokus dieser Arbeit konzentrierte sich auf die Fragestellung, ob sich miR-205 als Prognosemarker im high-risk-PCa eignen könnte. Hierzu wurden in einem etablierten high-risk-PCa-Studienkollektiv die Expression von mir-205 analysiert und anschließend Korrelations- und Überlebensanalysen durchgeführt. Es konnte statistisch keine Assoziation zwischen der miR-205-Expression und verschiedenen Prognoseparametern, die in der Klinik präoperativ prognostische Vorraussagekraft besitzen, hergestellt werden. Allerdings fiel auf, dass Karzinome, die miR-205 relativ schwach herabregulierten, ein signifikant schlechteres prognostisches Outcome und Überlebensnachteile zeigten, im Vergleich zu Tumoren, die eine starke miR-205-Regulation aufweisen. Somit konnten im Hochrisikokollektiv mit Hilfe der miR-205-Expressionsanalyse Karzinome identifiziert werden, die ein erhöhtes Rezidivrisiko aufweisen. Die hier vorgelegten Untersuchungen stellen also erste Hinweise dar, dass miR-205 als unabhängiger prognostischer Marker im PCa Verwendung finden könnte. Zusammenfassend kann in der vorgelegten Arbeit gezeigt werden, dass die microRNAs miR-205 und miR-221 zwei tumorsuppressive RNAs im PCa darstellen. Eine mögliche zukünftige Implementation der Expressionsanalysen von miR-221 und/oder miR-205 als Progressionsmarker stellt eine vielversprechende Möglichkeit dar, in Zukunft die Prognose und vielleicht auch die Therapie des PCa zu verbessern. N2 - Analysis of expression and functional studys of miR-205 and miR-221 in high-risk prostate cancer with special attention to miR-205 as a prognostic marker in the high-risk patient KW - Prostatakrebs KW - Prostatakarzinom KW - miRNS KW - microRNA KW - Prognose Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-85549 ER - TY - THES A1 - Zeller, Julia T1 - Funktionelle Aktivierungen im Verlauf eines Jahres bei Patienten mit Alzheimer-Erkrankung und gesunden Kontrollen T1 - Functional Brain Activation in Patients suffering from Alzheimer's disease and healthy Controls over a one-year Interval N2 - Hintergrund: Die Alzheimer-Erkrankung ist die häufigste neurodegenerative Erkrankung. Da es zurzeit für sie noch keine Heilung gibt, richtet sich das Hauptaugenmerk auf eine möglichst frühe Diagnose und die Behandlung mit krankheitsverzögernden Medikamenten. Vor allem die funktionelle Bildgebung gilt im Bereich der Frühdiagnose als vielversprechend. Neben dem Gedächtnis werden die visuell-räumliche Informationsverarbeitung, exekutive Funktionen und Aufmerksamkeitsprozesse untersucht. Hierbei zeigen sich zentralnervöse Aktivierungsauffälligkeiten in kortikalen Zielregionen etwa im präfrontalen und im parietalen Kortex. Verlaufsuntersuchungen konzentrieren sich vor allem darauf aus der Gehirnaktivierung Vorhersagen über kognitive Veränderungen bei älteren Personen mit und ohne Gedächtnisstörung treffen zu können. Nur wenige Studien erfassen dabei jedoch die Gehirnaktivierung zu mehreren Messzeitpunkten. Gerade für große Stichproben und wiederholte Messungen könnte die funktionelle Nahinfrarotspektroskopie (fNIRS) sich als Alternative zur Magnetresonanztomographie anbieten. Ziel: Ziel der Studie war es, mit fNIRS und ereigniskorrelierten Potentialen funktionelle Unterschiede zwischen Alzheimer-Patienten und gleichaltrigen Kontrollen in mehreren Funktionsbereichen darzustellen und ihre Veränderung über den Zeitraum eines Jahres zu verfolgen. Zum ersten Mal sollte im Rahmen einer prospektiven Untersuchung mit fNIRS geprüft werden ob kortikale Aktivierungen zur Vorhersage von neuropsychologischen Testwerten genutzt werden können. Zusätzlich stellte sich die Frage, ob fNIRS für Verlaufsuntersuchungen an älteren Stichproben geeignet ist. Methoden: Im Rahmen der vorliegenden Arbeit wurden zum ersten Messzeitpunkt (T1) 73 Patienten und 71 Kontrollen mit vier Paradigmen in den drei Funktionsbereichen visuell-räumliche Informationsverarbeitung, exekutive Funktionen und zentralnervöse Filtermechanismen mit fNIRS und ereigniskorrelierten Potentialen gemessen. Die Probanden durchliefen eine Line Orientation Aufgabe, zwei Versionen einer Wortflüssigkeitsaufgabe (phonologisch und semantisch) und das P50-Doppelklickparadigma. Zielparameter waren dabei die aufgabenbezogene Aktivierung im parietalen Kortex, im dorsolateralen Präfrontalkortex (DLPFC) und das sensorische Gating, gemessen durch die P50-Supression nach wiederholter Reizdarbietung. Zusätzlich wurden zwei typische Tests zur Demenzdiagnostik (MMST und DemTect) erhoben. Die zweite Messung (T2) fand nach 12 Monaten statt und lief identisch zur ersten Untersuchung ab. Zu T2 konnten 14 Patienten und 51 Kontrollen erneut rekrutiert werden. Ergebnisse: Zu T1 konnte mit fNIRS ein Aktivierungsdefizit für Patienten im DLPFC während der phonologischen Wortflüssigkeitsaufgabe und im rechten Parietalkortex während der Line Orientation Aufgabe festgestellt werden. Für die semantische Wortflüssigkeitsaufgabe und das sensorische Gating zeigten sich keine zentralnervösen Unterschiede. Über das Jahr hinweg nahm die aufgabenbezogene Aktivierung der Patienten im linken DLPFC für beide Versionen der Wortflüssigkeitsaufgabe deutlich ab, während gleichaltrige Kontrollpersonen keine kortikalen Veränderungen zeigten. Zu T2 war das sensorische Gating der Patienten außerdem deutlich schlechter im Vergleich zu gesunden Kontrollen. Die Veränderungen der Oxygenierung während der Wortflüssigkeitsaufgabe konnten für gesunde Kontrollen Verschlechterungen im MMST und im DemTect vorhersagen. Vor allem ein Verlust der Lateralisierung ging mit einem Abfall in den kognitiven Tests einher. Schlussfolgerung: Spezifische Defizite in der kortikalen Aktivierung konnten bei Alzheimer-Patienten mit fNIRS beobachtet und genauer beschrieben werden. Auch die Veränderung im Verlauf eines Jahres ließ sich mit dieser Methode verfolgen. Für Längsschnittuntersuchungen, die sich mit der kortikalen Aktivierung als Prädiktor für dementielle Entwicklungen beschäftigen, bietet sich fNIRS somit als praktische Alternative zur fMRT an, zumal die gemessenen Veränderungen in der Oxygenierung auch prognostischen Wert für ältere Kontrollpersonen besaßen. Vor allem die funktionelle Lateralisierung in frontalen Kortexbereichen scheint als Prädiktor kognitiver Leistungen im Alter von Bedeutung zu sein. N2 - Background: Alzheimer’s disease is the most common form of neurodegenerative disorder. Since as of yet no cure exists, one important aim is the development of methods for the early detection of cerebral changes. Functional imaging is an especially promising approach as functional changes might occur even before neural atrophy in certain brain areas. While episodic memory is the main objective of research, other studies focus visual-spatial processing, executive function and attention. Patients suffering from Alzheimer’s disease display deviant cortical activation in prefrontal and parietal areas during tasks targeting these domains. Prospective studies try to predict cognitive decline using brain activations as predictors for future test scores. Only a few studies record functional activations repeatedly however. Functional near infrared spectroscopy (fNIRS) might be a good alternative to functional magnet resonance imaging (fMRI) when it comes to monitoring large populations in longitudinal studies. Objective: The aim of the present study was to detect and describe functional differences between patients suffering from Alzheimer’s disease and healthy elderly controls via fNIRS and event-related potentials and track them over an interval of 12 months. This is the first prospective study using fNIRS: Functional changes in oxygenated and deoxygenated haemoglobin during the first measurement will be employed to predict neuropsychological decline after one year. Methods: During the first measurement (T1) 73 AD patients and 71 age-matched controls without cognitive complaints or other neurological or psychiatric disorders completed four tasks in three cognitive domains: A line orientation task (visual-spatial processing), a phonological and a semantic verbal fluency task (executive functions) and a dual-click paradigm resulting in auditory sensory gating (attention and filter mechanisms). Regions of interest were the parietal and the dorsolateral prefrontal cortex (DLPFC) as well as the gating ratio measured via the P50 suppression in paired click stimuli. Additionally subjects underwent two common tests for cognitive functioning of dementia patients (MMSE and DemTect). The second measurement (T2) was conducted 12 months after the first and followed exactly the same protocol. At T2 14 AD-patients and 51 controls could be tested again. Results: At T1, patients suffering from Alzheimer’s disease displayed deficient activations in the right parietal cortex during Line Orientation and in the DLPFC during the phonological version of the verbal fluency task. No group differences could be found in the semantic verbal fluency paradigm and in sensory gating. Over the course of one year, patients’ activation in the left DLPFC significantly declined during both versions of the verbal fluency task whereas controls showed no cortical changes. After 12 months, the sensory gating differed between the groups with patients displaying worse values. Changes of oxygenation during the verbal fluency tasks predicted the decline in neuropsychological tests in elderly controls. The prefrontal lateralization held the best prognostic value with a positive prognosis for stronger left-sided activation. Conclusion: The present study succeeded in describing specific deficits in cortical activation concerning patients suffering from Alzheimer’s disease and healthy age-matched controls using fNIRS. Changes over the course of 12 months could also be observed. The results indicate that fNIRS is well suited as an alternative to fMRI in longitudinal studies targeting cortical changes as predictors of cognitive decline. This is underlined by the fact that cortical activations during the verbal fluency task could be used to predict neuropsychological changes in elderly controls. Therefore the functional lateralization of prefrontal activations should become a new focus in prospective studies. KW - Alzheimer-Krankheit KW - Prognose KW - Nahinfrarotspektroskopie KW - Bildgebendes Verfahren KW - Längsschnittuntersuchung KW - Alzheimer's disease KW - functional imaging KW - follow-up study KW - near-infrared spectroscopy Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-67408 ER - TY - THES A1 - Boldt, Kristina T1 - Vergleichende Untersuchung der prognostischen Relevanz von BNP, NT-proBNP, hsCRP und TNF-ɑ bei Patienten mit klinisch-anamnestischem Verdacht auf das Vorliegen einer Herzinsuffizienz in der Hausarztpraxis- : Follow-up-Untersuchung zur Grundstudie zur Objektivierung der kardiovaskulären Dysfunktion im ambulanten und hausärztlichen Bereich mittels handgehaltener Echokardiographie und dem BNP-Schnelltest (Handheld-BNP-Studie) T1 - Prognostic utility of BNP, NT-proBNP, hsCRP and TNF-ɑ in the assessment of patients with suspected heart failure in primary care: The Handheld-BNP-Study N2 - Herzinsuffizienz ist eine sehr häufige Erkrankung vor allem des höheren Lebensalters. Biomarker wie NT-proBNP, BNP, hsCRP haben neben ihrer Bedeutung für die Diagnose einer akuten Herzinsuffizienz einen großen Stellenwert in der Abschätzung der Prognose eines Patienten. Die prognostische Relevanz dieser Marker konnte auch bei nicht herzinsuffizienten, anderweitig kranken Patienten gezeigt werden. Unklar und wenig erforscht ist die Aussagekraft von Biomarkern in einem Kollektiv nicht akut dekompensierter Patienten, welche sich ambulant bei ihrem Hausarzt vorstellen. Die Handheld-BNP-Studie untersuchte im primärärztlichen Bereich das diagnostische Potential von BNP und der miniaturisierten Echokardiographie. Die vorliegende Follow-up-Studie untersucht die prognostische Relevanz von BNP sowie vergleichend den prognostischen Wert von NT-proBNP und der Kardiologendiagnose. Auch die prognostische Aussagekraft der inflammatorischen Marker hsCRP und TNF-ɑ, ebenso wie die Frage, ob durch eine Kombination der Marker die prognostische Abschätzung weiter gesteigerter werden kann, ist Gegenstand dieser Arbeit. Zuletzt wurde eine multivariate Regressionsanalyse durchgeführt, um den unabhängigen prognostischen Wert der Biomarker zu untersuchen. Es konnte gezeigt werden, dass bei diagnostisch naiven Patienten mit dem klinisch-anamnestischen Verdacht auf das Vorliegen einer Herzinsuffizienz das kardiale wie auch das nicht-kardiale Mortalitätsrisiko sowie die Rate an Hospitalisierungen gegenüber der Allgemeinbevölkerung gleichen Alters erhöht sind, unabhängig vom Vorliegen einer Herzinsuffizienz. Eine Bestimmung der Biomarker BNP, NT-proBNP, hsCRP und TNF-ɑ erwies sich in diesem Kollektiv als hilfreich, diejenigen mit erhöhtem Risiko zu erkennen. N2 - Heart failure is a very common disease especially among old people. In addition to their importance for the diagnosis of acute heart failure, biomarkers such as NT-proBNP, BNP, hsCRP and TNF-ɑ play a major role in the assessment of patients prognosis. The prognostic relevance of these markers could even be demonstrated on ill patients with a diagnosis other than heart failure. The significance of biomarkers in a group of not acutely decompensated patients, who consult their general practitioner, is unclear and little explored. The Handheld-BNP-study examined the diagnostic potential of BNP an the miniaturized echokardiography in a primary care setting. The follow-up-study at hand investigates the prognostic relevance of BNP and compares the prognostic value of NT-proBNP and the cardiologist diagnosis. The prognostic value of the inflammatory markers hsCRP and TNF-ɑ, as well as the question of wether the prognostic assessment can further be enhanced by a combination af these markers, are subject of this thesis. At last, a multivariate regression analysis was performed to investigate the independent prognostic value of biomarkers. The thesis shows that the cardiac and non-cardiac mortality risk and the hospitalization rate in diagnostically naive patients with diffuse symptoms who are potentially indicative of heart failure is high, compared to other people of similar age, irrespective of the presence of heart failure. A determination of the biomarkers BNP, NT-proBNP, hsCRP and TNF-ɑ in this cohort proved to be helpful to identify those at increased risk. KW - BNP KW - NT-proBNP KW - Herzinsuffizienz KW - Prognose KW - Hausarzt KW - BNP KW - NT-proBNP KW - Herzinsuffizienz KW - Hausarzt KW - Prognose KW - BNP KW - NT-proBNP KW - heart failure KW - primary care KW - prognosis Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-65088 ER - TY - THES A1 - Winkler, Martin Sebastian T1 - Validierung der Würzburger Narbenhernien-Klassifikation anhand der klinikeigenen Kasuistik von 1999 bis 2006 T1 - Validation of Wurzburg's incisional hernia classification on the basis of case history from 1999 until 2006 N2 - Einleitung: Narbenhernien sind mit einer Prävalenz von bis zu 20% die häufigste Komplikation nach Laparotomie. Im Jahr 2005 wurden 34.708 Narbenhernienpatienten in Deutschland operiert. Nahtrekonstruktionen weisen hohe Rezidivraten auf und die Komplexität der Bauchdeckenrekonstruktion nach einer Narbenhernie erfordert einen differenzierten Lösungsansatz. Bislang konnte kein Klassifikationssystem etabliert werden, welches das individuelle Risikoprofil des Patienten beschreibt. In der Arbeit wird eine neue Klassifikation vorgeschlagen, die sich an den morphologischen Eigenschaften orientiert. Die Relevanz der neuen Klassifikation auf den postoperativen Verlauf wurde am eigenen Patientenkollektiv überprüft. Material und Methoden: Die Untersuchung erfasst alle in der Zeit vom Januar 1999 bis zum Dezember 2006 an der Universitätsklinik Würzburg operierten Patienten mit Inzisionalen und Ventralen Hernien. Neben der Erhebung der patienteneigenen Risikofaktoren wurden der intraoperative Befund, die Operationsverfahren und der perioperative Verlauf evaluiert. Bei der Aufnahme dieser Daten werden die Bruchwertigkeit, die Bruchmorphologie, die Bruchgröße sowie die kumulativ bewerteten Risikofaktoren codiert. Anschließend wurde eine Follow-up Untersuchung mit einem Fragebogen an die Patienten und Hausärzte verteilt, die besonderen Wert auf die Entstehung eines Neurezidivs sowie chronischer Beschwerden legte. Ergebnisse: Insgesamt wurden 359 Patienten untersucht. Es gab signifikante Gruppenunterschiede zwischen Ventralhernien und den Inzisionalen Hernien. Die Untersuchungen für die Narbenhernienpopulation ergab, dass Rezidivpatienten weitaus mehr Risikofaktoren aufzeigten. Patienten mit medialen und Typ-sp (suprapubisch) Hernien befanden sich häufiger in der Rezidivsituation. Primärhernien wurden häufiger mit einem Nahtverfahren, die medialen Hernien (Typ-m) eher mit einem Netzverfahren operiert. Insgesamt versorgten Netzrekonstruktionen, speziell die IPOM-Meshes die größten Bruchflächen. Das Risiko eines Neurezidivs war bei in der Vorgeschichte bestehenden Wundkomplikationen erhöht. Ebenso, wenn im stationären Verlauf eine Komplikationen besonders eine Wundinfektionen auftraten, so war dies mit einem höheren Rezidivrisiko verbunden. Die Rekonstruktion mit Netzen führte insgesamt zu weniger Rezidiven aber vermehrt zu chronischen Komplikationen. Die Sublay und IPOM Netze stellten sich als die sichersten Verfahren heraus. Die Onlayrekonstruktion führte zu mehr Infektionen und die Underlaymeshes waren mit mehr Seromen verbunden. Die Nahtverfahren präsentierten sich mit weniger chronischen Schmerzen. Die Überprüfung der klassifizierten Merkmale erbrachte folgende Ergebnisse: Patienten mit mehrfachen Rezidiven hatten im Verlauf mehr Komplikationen und chronische Beschwerden. Bei der Morphologie zeigten die Typ-m Hernien weniger Serome und weniger Schmerzen im Verlauf. Bei den sp-Typen handelte es sich um einen morphologischen Typ, der zu mehr Infektionen, Blutungen und Schmerzen neigte. Die kleinen Typ-u (umbilikal) Hernien, sowie lateral lokalisierte Brüche präsentierten sich mit weniger chronischen Beschwerden. Insgesamt hatten größere Brüche über 50cm2 mehr Komplikationen, Neurezidive und chronische Beschwerden. Brüche über 25cm2 konnten nicht suffizient mit Nahtverfahren rekonstruiert werden. Es bestand eine Korrelation aus präoperativ bewerteten Risikofaktoren und Komplikationen. Hochrisikopatienten entwickelten zunehmend mehr Neurezidive. Diskussion: Die Klassifikation eignet sich, um Hernien und ihre Prognose abzubilden und gibt Hinweise auf mögliche Behandlungsstrategien. Es sollten die Populationen der Ventralen von den Inzisionalen Hernien abgegrenzt werden. Die Ventralen Hernien haben eine geringere Morbidität und ein besseres Risikoprofil, sie können mit Nahtverfahren effizienter versorgt werden. Bei den Operationsverfahren bestätigen sich Angaben der Literatur, dass Narbenhernien nicht mit Nahtverfahren rekonstruiert werden sollten. Der Vergleich der Netze weist analog zur Studienlage einen Vorteil der Sublay und IPOM Rekonstruktion nach. Auch wenn sich die Wertigkeit der Hernie als nicht relevant für den prognostischen Rezidivverlauf zeigte, so werden mehr Komplikationen erwartet und die Wertigkeit hat darin ihren Stellenwert. Die Abgrenzung der Morphologie von den Rekonstruktionsverfahren in Abhängigkeit von der Prognose ist schwierig. Es zeigen sich dennoch gewisse Prädispositionsstellen. Die Bruchgröße des Ausgangsbefundes ist insgesamt prognostisch relevant und zeigt, dass die Indikation zur Versorgung früh gestellt werden sollte, um Rezidive und chronische Beschwerden zu vermeiden. Die Risikofaktoren zeigen eine Korrelation mit dem Rezidivrisiko, für die Wundkomplikationen konnte deren besondere Bedeutung nachgewiesen werden. Insgesamt sind weniger die Einzelfaktoren als die multifaktorielle Betrachtung relevant. Die Klassifikation kann sich in ihrer Anwendung behaupten, sollte aber in prospektiven Studien weiter evaluiert werden. N2 - Introduction: Incisional hernias occur up to 20% of patients who have undergone laparotomy and are associated with a high morbidity and significant socioeconomic costs. In Germany there were 34.705 patients with incisional hernias in 2005. Techniques without using a mesh for reinforcement have a high number of recurrences. For reconstruction a differentiated surgical solution is desired. In the past different classification systems were discussed but. Today there is no clinical system, which describes the individual risk of hernia patients. In this dissertation a new classification is presented. This classification includes the morphology of incisional hernia. The clinical relevance is verified. Methods: All patients with incisional and ventral hernia from January 1999 until December 2006 at the University of Wurzburg were registered. In a database all risk factors and basic parameters concerning the surgical procedures were evaluated. A new code could describe the patient’s hernia. The hernia includes the number of recurrence, the hernia morphology, the size and the cumulative risk factors. A follow-up survey was sent to patients and their general practitioners. Incidence of recurrence and chronic pain and discomfort was checked. Results: 359 patients were integrated in the study. The difference between the population of ventral and incisional hernia are significant. Patients with recurrence hernia had more risk factors. Patients with medial type hernia (m-Type) and suprapubic hernia (sp-Type) were more often patients with recurrence hernia. Primary hernias were more often operated without using mesh (Suture or Mayo-Techniques), medial hernias more often with mesh repair. Mesh reconstruction especially IPOM-Meshes were used for the biggest defects. The recurrence risk was significant higher with patient having wound complication in their anamnesis. If in hospital a wound infection occur, the risk for recurrence hernia was significant higher. Mesh reconstruction were associated with less recurrence but higher chronic complications. Sublay and IPOM Meshes were the most secure techniques. Onlay reconstructions were associated with more infection and Underlay Meshes were associated with more seroma. Patients after Suture Techniques had less chronic pain. The review of all classified parameters showed: Patient with more than one recurrence hernia had more postoperative and chronic complication in follow-up. Type-m Hernias had less seroma and less pain. Type-sp (suprapubic) hernia had more infections, bleeding complications and more chronic pain. Small type-u (umbilical) hernias and lateral localized hernias were presented with less chronic pain. Hernias with size bigger than 50 square centimetres had more complications, recurrence and chronic pain. A correlation between risk factors and complications exists. High-risk patients had more recurrence hernias. Discussion: The classification is useful to describe incisional hernia and the classified characters a relevant for prognostic evidence. The classification can be helpful to make a decision for an individual therapy. Ventral hernias are different from incisional hernia and should be differentiated. Ventral hernias have less morbidity and are associated with less risk factors. It is possible to use suture techniques for ventral hernia. This dissertation could affirm data from literature; Suture techniques for incisional hernias are obsolete. Sublay and IPOM meshes are beneficial compare to other mesh reconstructions. There is no difference between primary or recurrence hernia but mot postoperative and chronic complications are expected. It is difficult to differentiate the hernia morphology from reconstruction method but there are morphologies with predisposition for recurrence and complications. The size of hernia is prognostic relevant and shows that it is important to reconstruct a hernia early to avoid recurrence and chronic pain and discomfort. The number of risk factors correlates with recurrence risk. Especially wound complications are important. In total individual risk factors are less relevant and a multifactorial analysis of risk factors is more important. The classification is useful for clinical practice but prospective studies are necessary to review the results. KW - Hernie KW - Narbenhernie KW - Risikofaktor KW - Morphologie KW - Klassifikation KW - Prognose KW - Incisional hernia KW - Risk KW - Morphology KW - Classification KW - Prognosis Y1 - 2009 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-38470 ER - TY - THES A1 - Weisensee, Tim André T1 - Nutzen von Stroke-Unit-Behandlung für die geriatrische Rehabilitationsprognose T1 - Profit of stroke unit- treatment for the pronostic of geriatric rehabilitation N2 - Die vorliegende Arbeit überprüft an einem nach Alter, Geschlecht, Barthel-Index und Mini-Mental-State-Test gematchten geriatrischen Patientenkollektiv mit erstmaligem Schlaganfall die Wirksamkeit einer vorausgegangenen Akutbehandlung an einer Stroke Unit (n=59) gegenüber einer allgemeinen (internistischen oder neurologischen) stationären Akutbehandlung (n=59) für die Prognose im Laufe einer nachfolgenden geriatrischen Rehabilitationsbehandlung. Hintergrund dieser Frage ist der erhöhte ökonomische Druck im Gesundheitswesen, der eine Effizienzprüfung einer personell, technisch und logistisch aufwändigeren und damit teureren Behandlung auf einer Spezialstation verlangt. Bei Anwendung zahlreicher funktioneller Skalen und Erhebung einiger sozioökonomischer Faktoren zeigte sich auf Signifikanzniveau, dass die auf Stroke Unit Vorbehandelten bei Aufnahme in die Rehabilitation motorisch schwerer beeinträchtigt waren (timed up and go-Test p=0,044, Lachs-Test p=0,34) und sich dann ausgeprägter (Transferleistung p=0,024) auf ein bei Rehabilitationsende schließlich vergleichbares Leistungsniveau verbesserten. Die ursprünglich geplante Langzeiteffizienzbetrachtung im Gruppenvergleich scheiterte an Datenschutzbedenken. Gesundheitsökonomisch relevant ist, dass die Vorverweildauer im Akutkrankenhaus bei Stroke Unit-Patienten sechs Tage kürzer war, die Rehabilitationsdauer allerdings vier Tage länger. Weitergehende Kostenbetrachtungen scheiterten am Unwillen zur Leistungsoffenlegung verschiedener Beteiligter im Gesundheitssystem. Eine plausible Erklärung für diese positive motorische Leistungsweiterentwicklung nach Stroke Unit-Vorbehandlung kann in einer frühzeitigeren und effektiveren Anstrengung durch Krankengymnastik, Ergotherapie, Logopädie, aktivierende Pflege, „enriched environment“ gesucht werden, die sich positiv auf die Plastizität im Gehirn als wesentliche Bedingung zur Funktionswiedergewinnung auswirken könnte, was aber noch umstritten ist und Ziel weiterer Untersuchungen sein muss. N2 - This dissertation compares 2 groups of geriatric patients during their stay in a rehabilitation clinic after they suffered a first apoplexy. The first group is a group a 59 patients who have been admitted in the hospital on a general ward after their stroke. In the second group (n=59), the patients have been admitted in a special stroke unit after the apoplexy. In order to study the profit of the stroke unit pre-treatment, the 2 groups have been compared under the following criteria: age, sex, barthel-index and mini-mental-state examination. A long term comparison of efficiency was impossible because of data protection. The stroke unit patients stayed 6 day shorter in the acute hospital but they had to stay 4 days longer during the rehabilitation treatment before leaving the clinic of rehabilitation. Le travail suivant examine l’efficacité d’un traitement d’urgence dans un service de stroke unit par rapport à un traitement d’urgence dans un service général stationnaire (médecine interne ou neurologie) sur le pronostique lors du traitement de rééducation gériatrique à venir. Afin de pouvoir établir une comparaison, un groupe de patients gériatriques ayant subi un premier AVC a été choisi et couplé selon les critères de l’âge, du sexe, de l’index de Barthel et du test « mini-metal-state ». L’intérêt de cette question est la forte pression économique dans le secteur de la santé qui exige l’examen de l’efficacité d’un traitement dans un service spécialisé dont les moyens personnels, techniques et logistiques sont plus élévés et plus chers. L’utilisation de nombreuses échelles fonctionnelles et le relevé de quelques facteurs socio-économiques ont permis de mettre en évidence de facon significative que les patients traités dans un service stroke unit étaient plus gênés sur le plan motorique lors de l’admission mais qu’à la fin de la rééducation, ils s’étaient améliorés de facon nette, atteignant finalement un niveau de performance comparable. L’observation de l’efficacité à long terme dans le groupe de comparaison initialement prévue, a finalement échoué en raison de doutes quant à la protection des données. En ce qui concerne l’aspect éco-sanitaire, il est flagrant que le séjour à l’hôpital avant la rééducation a duré 6 jours de moins chez les patients du groupe stroke unit, mais la durée de rééducation 4 jours de plus. Il a été impossible d’examiner les coûts plus en détail en raison du refus de différents acteurs du système sanitaire à mettre leurs données à disposition. Cette évolution positive de la performance motorique suite au pré-traitement stroke unit peut s’expliquer par les efforts très précoces fournis en matière de physiothérapie, d’ergothérapie, de logopédie et de soins de rééducation active (enriched environment) qui ont une influence positive sur la plasticité du cerveau, laquelle est une condition indispensable au regain de fonctions. Ceci est encore controversé et devra faire l’objet d’autres études. KW - Geriatrie KW - Stroke unit KW - Prognose KW - Rehabilitation KW - Schlaganfall KW - Geriatrics KW - stroke unit KW - rehabilitation KW - apoplexy KW - prognosis Y1 - 2007 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-24937 ER - TY - THES A1 - Hilfinger, Ute T1 - Einfluß der stadienorientierten Operation und Lymphknotendissektion auf das Follow-up von Schilddrüsenmalignomen T1 - Influcence of the staging-oriented operation and lymphadenectomy on follow-up of thyroid malignomas N2 - 169 Patienten mit Schilddrüsenmalignomen (65 männlich, 104 weiblich), im Erhebungszeitraum vom 01.01.1969 bis 01.07.1995, wurden retrospektiv bezüglich der verschiedenen Karzinomentitäten, der gewählten Operationsmethode und Operationsradikalität, sowie des postoperativen TNM- und UICC-Stadiums ausgewertet. Schwerpunkt der Auswertung lag auf Beobachtung von Überlebenszeit, Tumorletalität, Entstehung locoregionärer Rezidive (Lokalrezidive, Lymphknotenrezidive) rezidivfreie Zeit und Auftreten von Fernmetastasen im Vergleich niedriger zu höheren Tumorklassen. Die Resultate zeigten, daß papilläre Schilddrüsenkarzinome im Vergleich zu medullären und anaplastischen Karzinomen die beste, anaplastische Schilddrüsenkarzinome die schlechteste Prognose aufweisen. Rezidive traten bei allen Schilddrüsenmalignomen auf, jedoch fand sich ein Einfluß des histologischen Typ auf die Rezidivhäufigkeit in Abhängigkeit vom Stadium. Statistisch signifikante Unterschiede fanden sich im Vergleich R0- versus R1/R2-Resektion, so daß beim Schilddrüsenkarzinom unbedingt die vollständige Tumorentfernung angestrebt werden muß. Die Lymphadenektomie bietet beim differenzierten Karzinom im Stadium N0 keinen Vorteil, hingegen sollte im Stadium N1 Kompartment-orientiert vorgegangen werden. Aufgrund der frühen Metastasierung in die Lymphknoten ist beim medullären Schilddrüsenkarzinom eine Lymphknotendissektion der Kompartimente I – III unabhängig vom Stadium, sowohl bei Lymphknotenbefall, als auch Lymphknoten-negativen Patienten anzustreben, einschließlich der Ausräumung des Kompartment IV bei vorliegenden Lymphknotenfiliae im antero-superioren Mediastinum. Aus den Ergebnissen kann abgeleitet werden, daß Thyreoidektomie en Prinzip bei allen Malignomen erfolgen sollte, um okkulte Tumoranteile und eventuell vorliegende Mikrometastasen zu entfernen. Thyreoidektomie beim differenzierten Schilddrüsenkarzinom, um die Möglichkeit der Radiojod-Therapie (RJT) zur Ablation des möglich verbliebenen Schilddrüsengewebes und möglicher bzw. vorhandener Filiae zu verbessern. Ausnahme ist ein, nach beidseitiger subtotaler Schilddrüsenresektion zufällig gefundenes solitäres okkultes papilläres Mikrokarzinom (pT1a), sofern der Tumor im Gesunden reseziert ist und Hinweise auf Lymphknotenfiliae fehlen. Selektive Lymphadenektomieverfahren werden nur beim differenzierten Schilddrüsenkarzinom im Stadium I und II nach UICC angewandt. Durchführung einer modifiziert radikalen Neck-Dissektion ist bei allen medullären Schilddrüsenkarzinomen unabhängig vom Stadium, sowie bei papillärem und follikulärem Schilddrüsenkarzinom im Stadium III und IV indiziert. Bei differenzierten Schilddrüsenkarzinomen erbringt die postoperative RJT einen signifikanten Vorteil in Rezidivrate und Prognose. N2 - 169 patients with thyroid malignomas (65 male, 104 female), in the elevation period of 01/01/1969 to 07/01/1995 were retrospectively evaluated, referring to the different groups of thyroid carcinoma, the post-surgical TNM system (pTNM) and special attention to the stages I - IV of UICC. Main focus of the analysis lay on observation of the survival time, lethality of tumor, origin of loco regional recurrence (local recurrence, recurrence in the lymph nodes), recurrence-free time and appearance of distant metastases in comparison of lower to higher tumor classes. The results show that papillary thyroid carcinoma in comparison to medullary and anaplastic carcinomas have the best, anaplastic carcinomas the worst prognosis. Recurrence appeared for all thyroid malignomas, however, an influence of the histologic type on the frequency of recurrence was found as a function of stage. Statistically significant differences were found in the comparison of R0- versus R1/R2 resection, so that for the thyroid carcinoma absolutely the complete resection of the tumour must be aimed. The lymphadenectomie offers no advantage for the differentiated thyroid carcinomas in the stage N0, whereas lymphadenectomy should be carried out compartment-oriented in the stage N1. On account of the early metastasing in the lymph nodes for the medullary carcinoma, with lymph node maifestation, as well as lymph node-negative patients, a lymph node dissection of the compartment I - III independently of stage is necessary, including the removal of the compartment IV with present lymph node metastasis in the antero-superior mediastinum. From the results can be deduced that thyreoidectomy en principle should take place for all thyroid malignomas to remove occult tumor portions and possibly present micrometastases. Thyreoidektomie for the differentiated thyroid carcinoma to improve the possibility of the radio iodine therapy (RJT) for the ablation possibly remained thyroid tissue and possible or existing metastases. Exception is a solitary occult papillary microcarcinoma (pT1a) after subtotal thyroid resection on both sides, which was found accidental, if the tumour is removed in the healthy and an indication for lymph node metastases is absent. Selective procedures of lymph node dissection are used exclusively for differentiated thyroid carcinoma in the stage I and II of UICC. Implementation of a modified radical neck-dissektion is indicated for any medullary thyroid carcinoma independent of stage and for papillary and follicular thyroid carcinomas in the stage III and IV. For differentiated thyroid carcinomas the postoperative RJT produces a significant advantage in recurrence rate and prognosis. KW - Schilddrüsenkarzinom KW - selektive und systematische Lymphadenektomie KW - Radikalität KW - Therapieergebnisse KW - Überlebenswahrscheinlichkeit KW - Rezidivrate KW - Prognose KW - thyroid cancer KW - radicality KW - selective and systematic lymphadenectomy KW - outcome of therapy KW - survival rate KW - rate of recurrence KW - prognosis Y1 - 2006 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-24251 ER - TY - THES A1 - Vater, Daniel T1 - Die Prognose von Kindern mit im Kleinkindesalter diagnostizierten Störungen der Sprachentwicklung T1 - Prognosis of children with in early childhood identified language impaiment N2 - In der vorliegenden Studie wurde an 41 Patienten im Alter von vier bis elf Jahren mit expressiver Sprachentwicklungsstörung eine detaillierte Fragebogenerhebung des sprachlichen, intellektuellen und motorischen Entwicklungsstandes vorgenommen. Gut die Hälfte dieser Kinder (51,2%), die definierten Risikogruppen zugeordnet wurden, nahm im Verlauf der Studie an einer eingehenden Nachuntersuchung teil. Dabei wurde anhand standardisierter Tests erneut eine Ermittlung der Intelligenz sowie sprachlicher und neuromotorischer Fähigkeiten und Fertigkeiten vorgenommen. Geschlechtsspezifische Unterschiede zwischen den Leistungen von Jungen und Mädchen zeigten sich dabei nicht. Prä- und perinatale Risikofaktoren ließen sich nicht unmittelbar mit schlechteren Leistungen in den Untersuchungen in Verbindung bringen. Frühgeburtlichkeit als möglicher Risikofaktor stellt jedoch vor allem in Kombination mit weiteren Risikofaktoren einen ungünstigeren Verlauf dar. Manifeste Epilepsien stellen anhand der erhobenen Daten keinen ungünstigen Einfluss auf den Verlauf der Sprachentwicklungsstörung dar. Ausgenommen davon sind sicher epilepsiebedingte Sprachstörungen, wie z. B. Landau-Kleffner-Syndrom. Wie bereits in anderen Studien belegt, zeigte sich auch in dieser Studie, dass zwischen orofacialen Problemen im Sinne minimaler neurologischer Auffälligkeiten und der Prognose sprachentwicklungsgestörter Kinder kein Zusammenhang besteht. Veränderungen im psychosozialen Umfeld der Kinder stellen einen Risikofaktor für Sprachentwicklungsstörungen dar. Das Vorliegen weiterer Risikofaktoren wirkt sich ungünstig auf die Leistungen aus. Ein Einfluss der psychosozialen Umstände auf die Prognose der Sprachentwicklungsstörung ist vorhanden, kann jedoch nur in einem multivarianten Kontext interpretiert werden. Der Nachweis neuromotorischer Defizite bei Kindern mit Sprachentwicklungsstörungen erwies sich auch in dieser Studie als prognostisch ungünstiges Zeichen. Eine Persistenz motorischer Auffälligkeiten bei diesen Patienten konnte belegt werden. Wie auch in anderen Studien zeigt sich, dass Patienten mit Sprachentwicklungsstörungen häufiger persistierende kognitive Defizite aufweisen. Es konnte ein Zusammenhang zwischen dem Auftreten psychischer und emotionaler Auffälligkeiten und Sprachentwicklungsstörungen gezeigt werden. Eine abschließende Aussage über die schulischen Leistungen sprachentwicklungsgestörter Kinder erlauben die erhobenen Daten nicht. Sie zeigen jedoch einen deutlichen Trend für ein erhöhtes Risiko schlechterer schulischer Leistungen an. Ein positiver Effekt therapeutischer Maßnahmen auf die Entwicklung sprachentwicklungsgestörter Kinder lässt sich nicht belegen. Die Aussage über die Prognose der Patienten wird durch die hohe Komorbidität weiterer Entwicklungsstörungen und somit den Bedarf unterschiedlichster Therapieformen erschwert. Kinder mit primär ausgeprägteren Symptomen haben insgesamt mehr und früher Therapie- und Fördermaßnahmen erhalten, bleiben aber unterdurchschnittlich. N2 - The parents of 41 patients aged four to eleven years with an expressive language disorder received a questionaire with questions about their children´s speech, intelectual and motor development. 51,2% of these patients were defined to different groups and were re-examined in this study. Standardised tests about intelligence, language status and motor development were used in this examination. There were no significant differences between the benefit of boys and girls. We could present that changes in the psycho-social environment of the children is connected with a higher risk for language disorders. Further risk factors have an effect on the benefit. Neuromotor deficites on children with language disorders could be presented as a prognistical negative sign. As already shown in other studies we found out that patients with language impairment tend to have more often persisting kognitive deficiencies. There is a definite trend on these children for a higher risk of school problems. A positve effect of therapeutical methods on the development of children with language impairment could not be evidenced. KW - Sprache KW - Sprachentwicklungsstörung KW - Sprachentwicklungsverzögerung KW - Prognose KW - language KW - language impairment KW - language delay KW - prognosis Y1 - 2005 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-16489 ER - TY - THES A1 - Ahnert, Jutta T1 - Motorische Entwicklung vom Vorschul- bis ins frühe Erwachsenenalter - Einflussfaktoren und Prognostizierbarkeit T1 - Motor development from pre-school age to early adulthood - influencing factors and predictability N2 - Langfristige Prognosen sportmotorischer Leistungen sowie die Kenntnis relevanter Einflussfaktoren auf die motorische Entwicklung gewinnen angesichts des veränderten Bewegungsverhaltens und der Zunahme motorischer Defizite von Kindern und Jugendlichen immer stärker an Bedeutung. Der bisherige Forschungsstand zur Stabilität und Vorhersage sportlicher Leistungsfähigkeit beschränkt sich bisher jedoch fast ausschließlich auf retrospektive Studien oder aber auf Längsschnittstudien, die nur einen begrenzten Lebensabschnitt erfassen. Im Vordergrund der vorliegenden multivariaten Längsschnittstudie steht die empirische Analyse potentieller personinterner und personexterner Einflussfaktoren auf die Entwicklung motorischer – insbesondere koordinativer - Fähigkeiten vom Vorschul- bis ins frühe Erwachsenenalter. Außerdem sollte versucht werden, die Ausprägung sportlicher Aktivität und motorischer Fähigkeiten im frühen Erwachsenenalter möglichst gut durch potentielle Prädiktoren aus der Kindheit vorherzusagen. Als theoretischer Rahmen wurde ausgehend von einem fähigkeitsorientierten Ansatz das transaktionale Handlungsmodell von Baur (1989, 1994) ausgewählt, das sowohl endogene als auch exogene Einflussfaktoren auf die motorische Entwicklung berücksichtigt. Die Daten zur motorischen, somatischen und psychischen Entwicklung wurden im Rahmen der Münchner Längsschnittstudie zur Genese individueller Kompetenzen (LOGIK) an 152 Mädchen und Jungen im Alter von 4, 5, 6, 8, 10, 12 und 23 Jahren erhoben. Es zeigen sich bereits im Vorschulalter substantielle Stabilitätskoeffizienten zu den motorischen Leistungen im frühen Erwachsenenalter, die ab dem Grundschulalter auf mittelhohe Werte ansteigen. Als bedeutsame Einflussfaktoren auf die motorische Entwicklung erweisen sich neben der sportlichen Aktivität und dem BMI auch die nonverbale Intelligenz und das athletische Selbstkonzept. In Abhängigkeit von der Schullaufbahn, dem sozioökonomischen Status sowie der Sportvereinszugehörigkeit können Unterschiede im motorischen Entwicklungsverlauf nur zum Teil nachgewiesen werden. Einen nachhaltigen Einfluss auf die motorische Entwicklung bis ins frühe Erwachsenenalter besitzt dagegen das frühe sportive Anregungsniveau im Elternhaus. Mittels schrittweiser Regression können unter Einbezug motorischer, somatischer, kognitiver, persönlichkeitsbezogener und soziodemographischer Merkmale im Vorschulalter bereits bis zu 31%, ab dem Grundschulalter bis zu 46% der Varianz motorischer Leistungen mit 23 J. aufgeklärt werden. Für eine befriedigende Prognose späterer motorischer Leistungen sollten deshalb neben den motorischen Leistungskomponenten auch somatische, kognitive, persönlichkeitsbezogene und sozialisationsbedingte Einflüsse berücksichtigt werden. Die relativ hohe Stabilität motorischer Fähigkeiten ab dem Grundschulalter deutet darauf hin, dass bereits in der Kindheit die Grundlagen für die weitere motorische Entwicklung gelegt werden. Ein effizienter Ansatzpunkt zur Intervention scheint hier vor allem die Förderung von sportlicher Aktivität und Sportinteresse im Elternhaus zu sein. N2 - The importance of long-time prediction of basic motor skills as well as the knowledge of relevant factors with influence on motor development increases rapidly, considering the modified movement behaviour and the increase of motor deficits in children and juveniles. So far, current research on the stability and predictability of athletic fitness is limited almost solely to retrospective studies or to results of short-term longitudinal studies of only a few years. In the centre of the multivariate long-time study under consideration was the analysis of potential internal and external factors influencing the development of motor – especially coordinative - abilities from pre-school age until the time of early adulthood. Another aim was to predict the extent of physical activity and motor abilities in early adulthood as good as possible with the help of potential predictors from childhood. The transactional model of motor development (Baur, 1989; 1994), which takes both endogenous and exogenous factors with influence on the motor development, into consideration, was selected as the theoretical framework. The data on the motor, somatic and psychological development was gathered in the “LOGIK” study (Longitudinal Study on the Genesis of Individual Competencies) at the Max Planck Institute for Psychological Research in Munich with the help of 152 girls and boys at the age of 4, 5, 6, 8, 10, 12, and 23. Already at pre-school age substantial stability coefficients for motor skills in early adulthood are visible, which increase from preschool age onwards to average figures. A part from the physical activity and the BMI, also nonverbal intelligence and the athletic self-concept have proven to be significant factors influencing motor development. Differences in motor development as a function of school career, socio-economic status and membership in a sport club can only be partly proven. However early sporty impulses by the family have a lasting influence on the development of motor abilities until the time of early adulthood. With the help of gradual regression in connection with motor, somatic, cognitive and sociodemographic features and features related to personality you can explain 31% (beginning at preschool age) or even 46% (beginning at primary school age) of the variance of motor performance at the age of 23. In order to get a satisfying prognosis for motor performance in years to come you should also, in addition to motor performance factors, take somatic and cognitive influences and influences having to do with character and socialisation into consideration. There is every indication that, because of the relative high stability of motor abilities from primary age onwards, the foundation for further motor development is laid already in childhood. Concerning this aspect, an efficient starting point for intervention seems to be especially the stimulation and encouragement of physical activity and interest in sport in a family. KW - Motorische Entwicklung KW - Jugend KW - Kind KW - Motorische Entwicklung KW - Bewegungssozialisation KW - Längsschnittstudie KW - Prognose KW - LOGIK-Studie KW - motor development KW - sport socialization KW - longitudinal study KW - prognosis KW - LOGIK-study Y1 - 2005 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-16346 ER - TY - THES A1 - Bauer, Andrea T1 - Prognostische und therapeutische Aspekte von Thymomen : eine retrospektive Studie von 582 Fällen T1 - Prognostic and therapeutic aspects of thymomas: a retrospective study of 582 cases N2 - Thymome sind seltene epitheliale Thymustumoren, die in der überwiegenden Zahl der Fälle die Fähigkeit zur Reifung und zum Export von T-Zellen behalten haben. Diese Fähigkeit ist als Ursache für die häufige Asoziation dieser Tumoren mit Autoimmunphänomenen (z.B Myasthenia gravis)anzunehmen. Die vorgelegte Studie zeigt die prognostische Relevanz der derzeit gültigen histologischen WHO-Klassifizierung von Thymomen. Das biologische Verhalten der einzelnen Thymomtypen korreliert dabei mit dem Ausmaß zytogenetischer Veränderungen. Wenige klinische und histologische Parameter wie der histologische Subtyp, Tumorstadium nach Masaoka sowie der Resektionsstatus reichen aus, um den Verlauf eines bestimmten Thymoms mit genügender Zuverlässigkeit prognostizieren zu können. Dies konnte in Übereinstimmung mit früheren Arbeiten in unserer Studie gezeigt werden. Somit müssen vor allem diese drei Parameter berücksichtigt werden, um eine adäquate Therapie einleiten zu können. Angaben zu Alters- und Geschlechtsverteilung können diese Befunde ergänzen, haben jedoch keine prognostische Signifikanz für die Wahl der Therapie. Die erhobenen Befunde der vorgelegten Follow-up Studie können als Grundlage prospektiver klinischer Therapiestudien dienen. Im Zentrum der Bemühungen sollte hierbei nach unseren Ergebnissen die Therapie von „high-risk“ Thymomen des Typ B und C stehen, bei denen eine primäre vollständige Resektion nicht möglich ist, oder bei denen zum Zeitpunkt der Operation bereits Metastasen bestehen. Therapieoptionen mit multimodalen Therapiestrategien müssen dafür noch weiter modifiziert und über längere Zeiträume erprobt werden. Zudem sollten klinische Studien mit Somatostatin-Analoga als neue Therapiemöglichkeit gefördert werden. Aufgrund der äußerst niedrigen Inzidenz von Thymomen und der niedrigen Frequenz von Patienten mit diesen ungünstigen Thymomverläufen werden diese Versuche nationale oder internationale Bemühungen erfordern. N2 - Thymomas are rare epithelial neoplasms of the thymus with considerable histologic herterogenity. The pathogenesis of paraneoplastic Myasthenia gravis has been linked to the capacity of thymomas to mature and export native T cells into the blood. This retrospective study focused on the correlation of WHO-defined thymoma histotypes with survival and tumor recurrence in a large cohort of patients recieving different modes treatment. Long-term outcome of thymoma patients is related to tumor stage,WHO histological subtyp, completeness of surgical removal and type of treatment. KW - Thymom KW - Prognose KW - Therapie KW - WHO KW - Masaoka KW - thymoma KW - prognosis KW - therapy KW - WHO KW - Masaoka Y1 - 2004 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-12041 ER - TY - THES A1 - Hertig, Elke T1 - Niederschlags- und Temperaturabschätzungen für den Mittelmeerraum unter anthropogen verstärktem Treibhauseffekt T1 - Assessment of Mediterranean precipitation and temperature under increased greenhouse warming conditions N2 - Unter Einbezug von modellsimulierten großskaligen Geopotential-, Feuchte- und Meeresoberflächentemperaturfeldern für Szenarien eines anthropogen verstärkten Treibhauseffekts wird der Niederschlag bzw. die Temperatur im Mittelmeerraum für das 21. Jahrhundert mit der Methode des statistischen Downscalings abgeschätzt. Die als Gitterfelder mit 0.5° räumlicher Auflösung vorliegenden Niederschlags- und Temperaturdaten des CRU-(Climatic Research Unit in Norwich) Datensatzes werden jeweils mittels s-modaler Hauptkomponentenanalyse in Regionen unterteilt. Die resultierenden Zeitreihen der regionalen Variationszentren offenbaren dabei unterschiedliche Niederschlags- und Temperaturverhältnisse in den verschiedenen mediterranen Teilregionen im Untersuchungszeitraum 1948-1998. Als großskalige Einflussgrößen dienen Reanalysedaten des NCEP/NCAR (National Centers for Environmental Prediction/ National Center for Atmospheric Research) der geopotentiellen Höhen der 1000hPa-und 500hPa-Niveaus und der spezifischen Feuchte im 1000hPa-Niveau. Als ozeanische Einflussgrößen werden Meeresoberflächentemperaturdaten des Nordatlantiks und des Mittelmeers verwendet. Zur Dimensionsreduktion und zur Beseitigung linearer Abhängigkeiten gehen die verschiedenen Prädiktorfelder ebenfalls, jeweils getrennt, in s-modale Hauptkomponentenanalysen ein. Anschließend wird der Verlauf des Niederschlags bzw. der Temperatur der regionalen Variationszentren in den Monaten Oktober bis Mai 1948-1998 mit der großräumigen atmosphärischen und ozeanischen Variabilität im gleichen Zeitraum verknüpft. Dies geschieht in mehreren Kalibrierungsabschnitten unter Verwendung von Kanonischen Korrelationsanalysen und multiplen Regressionsanalysen. Die erstellten statistischen Zusammenhänge werden dann in von der Kalibrierung unabhängigen Verifikationszeiträumen überprüft. Die erzielten Modellgüten in den Verifikationsperioden werden herangezogen, um die besten statistischen Modelle für die Zukunftsabschätzungen auszuwählen. Dabei zeigt sich, dass für den mediterranen Niederschlag die besten Modellgüten im Allgemeinen mit der Prädiktorenkombination 1000hPa-/500hPa-Geopotential und spezifische Feuchte erzielt werden können. Die Temperatur im Mittelmeerraum lässt hingegen den stärksten Zusammenhang mit Werten der 1000hPa-/500hPa-geopotentiellen Höhen erkennen. Durch Einsetzen von modellsimulierten Werten der Prädiktoren in die Regressions-bzw. Kanonischen Korrelationsgleichungen wird schließlich die Reaktion der regionalen Klimavariablen Niederschlag bzw. Temperatur auf Veränderungen der großskaligen Zirkulations-, Feuchte- und Meeresoberflächentemperaturanomalien unter Bedingungen eines anthropogen verstärkten Treibhauseffektes abgeschätzt. Je nach verwendeter Methode und einbezogener Prädiktorenkombination zeigen sich teils erhebliche Unterschiede in den Abschätzungsergebnissen. So wird zum Beispiel bei den bedingten Abschätzungen für das 21. Jahrhundert der zukünftige Niederschlagsverlauf zum Teil erheblich abgewandelt, wenn modellsimulierte Feuchtewerte zusätzlich zu den Geopotentialinformationen einbezogen werden. Für die bedingten Abschätzungen des regionalen Klimas im Mittelmeerraum im 21. Jahrhundert werden Prädiktoren-Modellergebnisse zweier verschiedener IPCC- (Intergovernmental Panel on Climate Change) Emissionsszenarien herangezogen. Zum einen werden modellsimulierte Werte nach IS92a- Szenario herangezogen, zum anderen solche nach jüngstem SRESB2-Szenario. Aus beiden verwendeten Szenarienrechnungen gehen im Allgemeinen gleichförmige Tendenzen bei der Entwicklung der Niederschlagssummen im Mittelmeerraum unter anthropogener Verstärkung des Treibhauseffektes im 21. Jahrhundert hervor. Unter Verwendung von Prädiktorenwerten des Hamburger Klimamodells ECHAM4 nach SRESB2-Szenario (großskalige Einflussgrößen: 1000hPa-/500hPa-geopotentielle Höhen und 1000hPa-spezifische Feuchte) ergibt sich für den westlichen und nördlichen Mittelmeerraum bei einer anthropogenen Verstärkung des Treibhauseffektes eine Verkürzung mit gleichzeitiger Intensitätszunahme der "feuchten" Jahreszeit. Dies äußert sich darin, dass im Winter in diesen Regionen Niederschlagszunahmen im Zeitraum 2071-2100 im Vergleich zu 1990-2019 abgeschätzt werden, während im Herbst und Frühjahr Niederschlagsrückgänge überwiegen. In den östlichen und südlichen Teilen des Mittelmeerraumes zeigen sich hingegen für die Monate Oktober bis Mai fast ausschließlich negative Niederschlagstendenzen unter Bedingungen eines anthropogen verstärkten Treibhauseffektes. Für die Temperatur wird unter Verwendung von Modellwerten der großskaligen Einflussgrößen 1000hPa-/500hPa-geopotentielle Höhen unter SRESB2-Szenariobedingungen ein Temperaturanstieg im gesamten Mittelmeerraum für alle untersuchten Monate (Oktober bis Mai) im Zeitraum 2071 bis 2100 im Vergleich zum Abschnitt 1990-2019 abgeschätzt. Die Erhöhung ist im Herbst und zu Beginn des Frühjahrs insgesamt am stärksten ausgeprägt. N2 - Mediterranean precipitation and temperature are assessed for the 21st century under enhanced greenhouse warming conditions by means of statistical downscaling from simulated large- scale predictor fields of 1000hPa-/500hPa- geopotential heights, 1000hPa- specific humidity and sea surface temperatures of the North Atlantic and the Mediterranean. Based on highly resolved gridded data covering the Mediterranean area homogeneously (CRU05 dataset, Climatic Research Unit in Norwich), precipitation and temperature regions are derived by s-mode principal component analyses (PCA). Resulting time series of the regional centres of variation reveal different precipitation and temperature conditions in the various Mediterranean regions for the period 1948-1998. As large-scale predictors 1000hPa-/500hPa-geopotential heights, as well as 1000hPa-specific humidity grids are selected from the NCEP/NCAR-reanalysis project (National Centers for Environmental Prediction/ National Center for Atmospheric Research). Sea surface temperatures of the North Atlantic and of the Mediterranean operate as oceanic predictors. S-mode PCA is also applied to the different predictor fields to remove linear dependencies between variables and to reduce the dimensions of the data. In a next step precipitation/temperature time series of the regional centres of variation for October to May 1948-1998 are linked to the large-scale atmospheric and oceanic circulation in the same period. Canonical correlation analysis and multiple regression analysis are used to establish predictor- predictand- relationships in different calibration periods. Independant periods of time are used to verify the quality of the statistical models. The different quality of the models in the verification periods is used to select the best-performing models for the assessment of future precipitation and temperature. Thereby it is revealed that for Mediterranean precipitation the best performance is achieved with the predictor combination 1000hPa-/500hPa- geopotential heights and specific humidity, whereas Mediterranean temperature shows the strongest connection to the 1000hPa-/500hPa-geopotential heights. The established statistical relationships are subsequently used to predict the response of future precipitation and temperature in the Mediterranean region from climate model changes of the large- scale circulation, humidity, and sea surface temperature anomalies. Considerable differences appear, depending on statistical methods and types of predictors used. Thus the additional inclusion of model-simulated specific humidity values into the predictor fields can result in a substantially modified progression of future precipitation amounts. Model results based on two different IPCC- (Intergovernmental Panel on Climate Change) emission scenarios are used for the conditional assessment of Medi-terranean climate changes in the 21st century. On the one hand model-simulated values according to the IS92a- scenario are used, on the other hand latest SRESB2- scenario values. Both scenario computations yield uniform tendencies of future precipitation amounts in the Mediterranean under increased greenhouse warming conditions. Using ECHAM4- model data according to the SRESB2- scenario (large-scale predictors: 1000hPa-/500hPa-geopotential heights and 1000hPa-specific humidity), a shortening and at the same time an intensity increase of the wet season arises for the western and northern Mediterranean regions. Thus the models predict precipitation increases in winter for the period 2071-2100 compared to 1990-2019, whereas precipitation decreases dominate in fall and spring. The eastern and southern parts of the Mediterranean exhibit mainly negative precipitation tendencies from October to May under enhanced greenhouse warming conditions. Mediterranean temperature shows an increase for the whole Mediterranean area in all analysed months from October to May for the period 2071-2100 compared to 1990-2019 under SRESB2- scenario conditions. Overall the temperature rise is most pronounced during fall and at the beginning of spring. KW - Mittelmeerraum KW - Treibhauseffekt KW - Niederschlag KW - Temperatur KW - Prognose KW - Mediterraner Niederschlag KW - Mediterrane Temperatur KW - Statistisches Downscaling KW - anthropogener Treibhauseffekt KW - Mediterranean precipitation KW - Mediterranean temperature KW - Statistical Downscaling KW - increased greenhouse warming Y1 - 2004 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-8740 ER - TY - THES A1 - Stettner, Georg Martin T1 - Immunhistologische und morphometrische Untersuchung der Ependymome im Kindesalter in Korrelation zu den klinischen Befunden T1 - Immunohistochemical and morphometric investigation of ependymomas of childhood and correlation with clinical findings N2 - In der vorliegenden Arbeit wurden der klinische Verlauf der Tumorerkrankung von 40 Kindern, die an einem Ependymom erkrankten, erfasst und 58 Tumorproben mittels immunhistochemischer Methoden untersucht. Im Mittelpunkt dieser Untersuchungen standen die Überprüfung der p53-Akkumulation, der Proliferationsaktivität mit Hilfe des Antikörpers MIB-1 sowie der Expression von HLA-DR durch Tumorzellen und eine Einschätzung der prognostischen Aussagekraft dieser Faktoren. Weiterhin wurde die EMA-Expression untersucht und eine Schwerpunkt auf die Analyse von Verteilung und Proliferationsaktivität der Zellen des Mikroglia(MG)/Makrophagen-Systems in kindlichen Ependymomen gelegt. Das mittlere Alter bei Diagnosestellung lag bei 61 Monaten (8 Monate bis 15 4/12 Jahre, Median: 41 Monate), eine Geschlechtspräferenz lag nicht vor. 22,5% der Primärtumoren waren supratentoriell, 60% infratentoriell und 17,5% spinal lokalisiert. 52,5% der Primärtumoren waren anaplastische Ependymome (WHO Grad III), 40% Ependymome (WHO Grad II), 7,5% myxopapilläre Ependymome (WHO Grad I). Eine totale Resektion konnte in 30,8% bei Primärtumoren und in 27,3% bei Rezidivtumoren erzielt werden. Das mittlere Nachbeochtungsintervall betrug 52 Monate (6-163 Monate), das mittlere progrssionsfreie Interval (PFS) 28 Monate und der mittlere Überlebenszeitraum (OS) 64 Monate. Tumorrezidive entwickelten sich mit einer Ausnahme eines Spätrezidives nach 84 Monaten innerhalb von 36 Monaten nach der operativen Tumorentfernung. Von den klinischen Variablen weist einzig das Resektionsausmaß eine prognostische Bedeutung auf (total vs. inkomplett: p=0.035 bezüglich des mittleren PFS, p=0.12 bezüglich des mittleren OS). Alle anderen klinischen Variablen, einschließlich des Tumorgrades nach WHO, zeigen keinen Einfluss auf den Verlauf der Tumorerkrankung. p53-Akkumulation kommt in 56,9% der untersuchten Tumorproben vor und korreliert mit dem Tumorgrad nach WHO, dem MIB-1 Labeling Index (LI) und der Lokalisation. Der MIB-1 LI zeigt eine große Streubreite (1,4% - 63,3%) und weist entsprechend des untersuchten Patientenkollektivs im Gegensatz zu Ependymomen des Erwachsenenalters einen hohen Mittelwert und Median auf (21,8% bzw. 19,8%). Der MIB-1 LI korreliert statistisch signifikant mit dem WHO-Graduierungssystem, der Lokalisation und wie bereits erwähnt mit der p53-Akkumulation. Unter den immunhistochemisch untersuchten Variablen kommt lediglich dem MIB-1 LI im untersuchten Patientenkollektiv eine gewisse prognostische Aussagekraft zu. Statistische Signifikanz wird allerdings nicht erreicht (MIB-1 LI <10% vs. MIB-1 LI >10%: p=0.17 bezüglich des mittleres PFS). Erstmals wurde in 80,4% der untersuchten ependymalen Tumoren auch eine Proliferation von Zellen des MG/Makrophagen-Systems nachgewiesen. Bei weitgehend konstant niedriger absoluter Anzahl proliferierender Zellen des MG/Makrophagen-Systems existiert kein Unterschied diesbezüglich zwischen den Tumorgraden wie kürzlich bei astrozytären Tumoren nachgewiesen. Die Verteilung der Zellen des MG/Makrophagen-Systems zeigte bei sehr heterogenem Verteilungsmuster häufig eine septale Anordnung insbesondere der amöboiden MG und der Makrophagen. Es existieren unterschiedliche Verteilungsmuster mikroglialer Zellen und Makrophagen, die sich aber anderen Parametern nicht zuordnen lassen mit der Ausnahme der MG/Makrophagen-Zelldichte in Primärtumoren. Obwohl eine HLA-DR Expression durch Tumorzellen auch in anderen Neoplasien des ZNS häufig vorkommt, wurden Ependymome diesbezüglich bisher nicht untersucht. In 52,6% aller Tumorproben finden sich in der vorliegenden Arbeit HLA-DR exprimierende Tumorzellen. Eine EMA-Expression zeigt sich in 84,5% der untersuchten Fälle und ist damit ein Charakteristikum ependymaler Neoplasien, das auch als differentialdiagnostisches Kriterium angesehen werden kann. Die Ergebnisse der vorliegenden Arbeit bekräftigen den hohen prognostischen Stellenwert einer totalen Resektion in der Therapie ependymaler Tumoren des Kindesalters. Weiterhin wird die Bedeutung der Proliferationsaktivität für den klinischen Verlauf der Tumorerkrankung unterstrichen. Von großem wissenschaftlichem Interesse ist weiterhin die Klärung der Ursache und Bedeutung der häufig anzutreffenden p53-Akkumulation sowie der immunologischen Bedeutung der Zellen des MG/Makrophagen-Systems im Rahmen der Tumorabwehr. N2 - In this dissertation the tumor’s clinical course of 40 children, who developed an ependymoma, was observed and 58 tumor samples were investigated by immunohistochemical methods. p53-accumulation, proliferation (detected by the antibody MIB-1) as well as the expression of HLA-DR by tumor cells and the prognostic value of these factors had been the focus of interest. Furthermore the EMA-expression and the distribution and proliferative activity of cells belonging to the microglia(MG)/macrophage-system in childhood ependymomas was investigated. The mean age at the time of diagnosis was 61 months (8 months to 15 4/12 years, median 41 months), the male/female ratio was balanced. 22,5% of primary tumors were located supratentorial, 60% infratentorial and 17,5% spinal. 52,5% of primary tumors were anaplastic ependymomas (WHO grade III), 40% ependymomas (WHO grade II) and 7,5% myxopapillary ependymomas (WHO grade I). A total resection was achieved in 30,8% of the primary tumors and in 27,3% of recurrent tumors. The mean follow-up was 52 months (6-163 months), the median progression free survival (PFS) and the overall survival (OS) 28 and 64 months respectively. All recurrences developed within 36 months after surgery with one exception, where a recurrence occurred after 84 months. Out of the clinical parameters a prognostic value was only seen in the extent of resection (total vs. subtotal resection: p=0.035 related to the median PFS and p=0.12 related to the median OS respectively). None of the other clinical parameters including tumor grade was correlated to the course of the disease. p53-accumulation was shown in 56,9% and there were correlations with WHO-tumor grade, MIB-1 labeling index (LI) and tumor localization. There was a wide range in MIB-1 LI (1,4% - 63,3%) with a higher mean and median (21,8% and 19,8% respectively) as reported in investigations in ependymomas of adults. There were significant correlations of MIB-1 LI with WHO-tumor grade, tumor localization and p53-accumulation as above mentioned. Out of the immunohistochemical investigated factors in this study only the MIB-1 LI was of prognostic relevance, but without statistical significance (MIB-1 LI <10% vs. MIB-1 LI >10%: p=0.17 related to the median PFS). None of the other immunohistochemical investigated factors mentioned below was related to the outcome in this study. For the first time proliferation of cells belonging to the MG/macrophage-system was documented in 80,4% of ependymal neoplasm. But there was no difference between different tumor grades in relative or absolute counts of proliferating microglial cells as previously shown in astrocytic tumors. The distribution of cells belonging to the MG/macrophage-system show a very heterogeneous pattern with a likely septal arrangement of ameboid microglia and macrophages in particular. Different distribution pattern of subgroups of the microglial cells and macrophages exist, but there is no relation to other variables except the density of microglial cells and macrophages in primary tumors. Although the HLA-DR expression in CNS neoplasms is a well known phenomenon, this is the first report of HLA-DR expression in ependymomas in 52,6% of all tumor samples. As a characteristic of ependymal neoplasms an EMA-expression was detected in 84,5%. EMA-expression can therefore be used as a criteria in differential diagnosis. The results of this study confirm the prognostic importance of a total resection of childhood ependymomas. Furthermore the relevance of proliferative activity related to the clinical course was emphasized. Further studies are needed to explain the reason and meaning of p53-accumulation and to define the role of the MG/microphage-system in the immunological tumor defense. KW - Ependymom KW - Kindesalter KW - Immunhistologie KW - Prognose KW - ependymoma KW - childhood KW - immunohistochemistry KW - prognostic factors Y1 - 2003 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-6932 ER - TY - THES A1 - Hanke, Maria Annegret T1 - Die Notwendigkeit der Doppelfärbung für Zytokeratin und DNA in der Durchflusszytometrie sowie ihre Bedeutung für die durchflusszytometrische Erfassung von p53 am Beispiel des Mammakarzinoms T1 - Necessity of double-staining for Cytokeratin and DNA and importance of detection of p53 in flow cytometry from breast cancer N2 - Die DNA-Durchflusszytometrie ist eine anerkannte Methode zur Erfassung genetischer Abweichungen und Änderungen der Proliferationsfraktion von Tumorzellen. Die Aufarbeitung von Tumorzellen mit vorhandenen Begleitpopulationen bewirkt allerdings bei der Einfachfärbung der DNA eine Ungenauigkeit der Zellzyklusanalyse. In dieser Arbeit wurde der Einfluss der Begleitpopulationen auf die Analyse von Ploidie und Zellzyklus mit Hilfe der DNA-Zytokeratin-Doppelfärbung am Mammakarzinom untersucht. Zum anderen wird auf Zusammenhänge zwischen p53, Proliferation und Ploidie von Mammakarzinomen eingegangen. Von 28 untersuchten Fällen waren 26 für die DNA-Zytokeratin-Doppelfärbung komplett auswertbar. Bei 9 dieser 26 ausgewerteten Fälle konnte immunhistochemisch p53 nachgewiesen werden. Die Zellen wurden aus Gefriermaterial mechanisch vereinzelt und mit Propidium Jodid und FITC-konjugiertem anti-Zytokeratin-Antikörper bzw. anti-p53-Antikörper gefärbt. Die Messungen wurden mit einem FACScan durchgeführt. Die Auswertung erfolgte mit Hilfe der Multicycle Software AV. Die Auswertung der Zytokeratin-Doppelfärbung ergab im Vergleich zur Einfachfärbung einen Anstieg sowohl des Anteiles aneuploider Tumoren als auch des mittleren DNA-Index. Die Proliferationsrate, insbesondere die S-Phasen-Fraktion erhöhte sich ebenfalls signifikant. Die vergleichenden Zellzyklusanalysen der Zytokeratin-positiven und der p53-positiven Tumorzellen zeigte eine geringere Proliferationsfraktion der p53-positiven Zellen, verglichen mit den p53-negativen Tumorzellen. Der überwiegende Anteil der p53-positiven Zellen zeigte eine Aneuploidie. Weiterhin ergaben sich in dieser Untersuchung Hinweise auf eine Zellzyklusabhängige Expression des p53-Proteins. Durch die Nutzung der Doppelfärbung für DNA und Zytokeratin in der Durchflusszytometrie gelingt die exaktere Wiedergabe der Biologie von Tumoren. Es ist zu erwarten, dass dies die prognostische Aussagekraft der DNA-flowzytometrischen Parameter Ploidie und Proliferationsfraktion erhöht. N2 - DNA flow cytometry is a well established technique in tumor pathology for the assessment of prognostic factors, genetic alteration and the determination of the proliferative fractions. However, it suffers from a contamination of non-tumor cells. This doctoral thesis investigated by cytokeratin-DNA double staining flow cytometry of breast cancers the influence of non-tumor cells on these parameters. In addition to that the connection between p53, proliferation and ploidy of breast cancer cells was discussed. 26 out of 28 cases of breast cancer were investigated whis cytokeratin-DNA double staining. In 9 out of those 26 p53 was detectable. Tumor cell nuclei from fresh frozen tumor tissues were mechanically separated, stained with propidium iodide and fluorescein isothiocyanate conjugated cytokeratin antibody and than measured by a FACScan. Statistical analysis was done by Multicycle software AV. A significant difference (p<0,001) was shown for the proportion of anoiploid tumors and the DNA-index, which were increased for the gated populations. Further more a significant increase was shown for the mean SPF. In comparison between p53-negative and -positive tumor cells, the positive-cells had a lower proliferation fraction. The most of p53-positive cells were aneuploid. There was a indication to suspect a cellcycle-dependent expression of p53-protein. By using cytokeratin-DNA double staining in flow cytometry reflection of tumor biology is more exactly. This is why this methode increases the prognostic value of cellcycle parameters like ploidy and proliferation fraction. KW - Durchflusszytometrie KW - nukleare DNA-Inhalt KW - Zytokeratin KW - Brustkrebs KW - Aneuploidie KW - S-Phase-Fraktion KW - Prognose KW - p53 KW - flow cytometry KW - nuclear DNA content KW - cytokeratin KW - breast carcinoma KW - aneuploidy KW - S-phase fraction KW - prognosis KW - p53 Y1 - 2000 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-1181814 ER -