Refine
Has Fulltext
- yes (25)
Is part of the Bibliography
- yes (25) (remove)
Year of publication
Document Type
- Doctoral Thesis (22)
- Journal article (3)
Keywords
- Prognose (25) (remove)
Institute
- Medizinische Klinik und Poliklinik I (4)
- Pathologisches Institut (4)
- Institut für Psychologie (bis Sept. 2007) (3)
- Graduate School of Life Sciences (2)
- Institut für Informatik (2)
- Klinik und Poliklinik für Allgemein-, Viszeral-, Gefäß- und Kinderchirurgie (Chirurgische Klinik I) (2)
- Institut für Geographie (1)
- Institut für Mathematik (1)
- Institut für Psychologie (1)
- Institut für Virologie und Immunbiologie (1)
Sonstige beteiligte Institutionen
Zusammenfassung:
Unsere Arbeit bestätigt die aus kleineren Studien bekannte hohe Expression der Chemokinrezeptoren CXCR4 und CXCR7 in der normalen Nebenniere und in der Mehrheit der Nebennierenkarzinome. Das auf mRNA Ebene bestätigte Vorkommen beider Chemokinrezeptoren im gesunden Nebennierengewebe deutet auf eine überwiegend für die normale Nebennierenphysiologie wichtige Rolle dieser Chemokinrezeptoren hin. Eine eventuell dennoch bestehende pathophysiologische Relevanz der Rezeptoren wurde ergänzend überprüft und ergab keinen signifikanten Einfluss auf die Prognose des Nebennierenkarzinoms.
Herzinsuffizienz ist eine sehr häufige Erkrankung vor allem des höheren Lebensalters. Biomarker wie NT-proBNP, BNP, hsCRP haben neben ihrer Bedeutung für die Diagnose einer akuten Herzinsuffizienz einen großen Stellenwert in der Abschätzung der Prognose eines Patienten. Die prognostische Relevanz dieser Marker konnte auch bei nicht herzinsuffizienten, anderweitig kranken Patienten gezeigt werden. Unklar und wenig erforscht ist die Aussagekraft von Biomarkern in einem Kollektiv nicht akut dekompensierter Patienten, welche sich ambulant bei ihrem Hausarzt vorstellen. Die Handheld-BNP-Studie untersuchte im primärärztlichen Bereich das diagnostische Potential von BNP und der miniaturisierten Echokardiographie. Die vorliegende Follow-up-Studie untersucht die prognostische Relevanz von BNP sowie vergleichend den prognostischen Wert von NT-proBNP und der Kardiologendiagnose. Auch die prognostische Aussagekraft der inflammatorischen Marker hsCRP und TNF-ɑ, ebenso wie die Frage, ob durch eine Kombination der Marker die prognostische Abschätzung weiter gesteigerter werden kann, ist Gegenstand dieser Arbeit. Zuletzt wurde eine multivariate Regressionsanalyse durchgeführt, um den unabhängigen prognostischen Wert der Biomarker zu untersuchen. Es konnte gezeigt werden, dass bei diagnostisch naiven Patienten mit dem klinisch-anamnestischen Verdacht auf das Vorliegen einer Herzinsuffizienz das kardiale wie auch das nicht-kardiale Mortalitätsrisiko sowie die Rate an Hospitalisierungen gegenüber der Allgemeinbevölkerung gleichen Alters erhöht sind, unabhängig vom Vorliegen einer Herzinsuffizienz. Eine Bestimmung der Biomarker BNP, NT-proBNP, hsCRP und TNF-ɑ erwies sich in diesem Kollektiv als hilfreich, diejenigen mit erhöhtem Risiko zu erkennen.
These days, we are living in a digitalized world. Both our professional and private lives are pervaded by various IT services, which are typically operated using distributed computing systems (e.g., cloud environments). Due to the high level of digitalization, the operators of such systems are confronted with fast-paced and changing requirements. In particular, cloud environments have to cope with load fluctuations and respective rapid and unexpected changes in the computing resource demands. To face this challenge, so-called auto-scalers, such as the threshold-based mechanism in Amazon Web Services EC2, can be employed to enable elastic scaling of the computing resources. However, despite this opportunity, business-critical applications are still run with highly overprovisioned resources to guarantee a stable and reliable service operation. This strategy is pursued due to the lack of trust in auto-scalers and the concern that inaccurate or delayed adaptations may result in financial losses.
To adapt the resource capacity in time, the future resource demands must be "foreseen", as reacting to changes once they are observed introduces an inherent delay. In other words, accurate forecasting methods are required to adapt systems proactively. A powerful approach in this context is time series forecasting, which is also applied in many other domains. The core idea is to examine past values and predict how these values will evolve as time progresses. According to the "No-Free-Lunch Theorem", there is no algorithm that performs best for all scenarios. Therefore, selecting a suitable forecasting method for a given use case is a crucial task. Simply put, each method has its benefits and drawbacks, depending on the specific use case. The choice of the forecasting method is usually based on expert knowledge, which cannot be fully automated, or on trial-and-error. In both cases, this is expensive and prone to error.
Although auto-scaling and time series forecasting are established research fields, existing approaches cannot fully address the mentioned challenges: (i) In our survey on time series forecasting, we found that publications on time series forecasting typically consider only a small set of (mostly related) methods and evaluate their performance on a small number of time series with only a few error measures while providing no information on the execution time of the studied methods. Therefore, such articles cannot be used to guide the choice of an appropriate method for a particular use case; (ii) Existing open-source hybrid forecasting methods that take advantage of at least two methods to tackle the "No-Free-Lunch Theorem" are computationally intensive, poorly automated, designed for a particular data set, or they lack a predictable time-to-result. Methods exhibiting a high variance in the time-to-result cannot be applied for time-critical scenarios (e.g., auto-scaling), while methods tailored to a specific data set introduce restrictions on the possible use cases (e.g., forecasting only annual time series); (iii) Auto-scalers typically scale an application either proactively or reactively. Even though some hybrid auto-scalers exist, they lack sophisticated solutions to combine reactive and proactive scaling. For instance, resources are only released proactively while resource allocation is entirely done in a reactive manner (inherently delayed); (iv) The majority of existing mechanisms do not take the provider's pricing scheme into account while scaling an application in a public cloud environment, which often results in excessive charged costs. Even though some cost-aware auto-scalers have been proposed, they only consider the current resource demands, neglecting their development over time. For example, resources are often shut down prematurely, even though they might be required again soon.
To address the mentioned challenges and the shortcomings of existing work, this thesis presents three contributions: (i) The first contribution-a forecasting benchmark-addresses the problem of limited comparability between existing forecasting methods; (ii) The second contribution-Telescope-provides an automated hybrid time series forecasting method addressing the challenge posed by the "No-Free-Lunch Theorem"; (iii) The third contribution-Chamulteon-provides a novel hybrid auto-scaler for coordinated scaling of applications comprising multiple services, leveraging Telescope to forecast the workload intensity as a basis for proactive resource provisioning. In the following, the three contributions of the thesis are summarized:
Contribution I - Forecasting Benchmark
To establish a level playing field for evaluating the performance of forecasting methods in a broad setting, we propose a novel benchmark that automatically evaluates and ranks forecasting methods based on their performance in a diverse set of evaluation scenarios. The benchmark comprises four different use cases, each covering 100 heterogeneous time series taken from different domains. The data set was assembled from publicly available time series and was designed to exhibit much higher diversity than existing forecasting competitions. Besides proposing a new data set, we introduce two new measures that describe different aspects of a forecast. We applied the developed benchmark to evaluate Telescope.
Contribution II - Telescope
To provide a generic forecasting method, we introduce a novel machine learning-based forecasting approach that automatically retrieves relevant information from a given time series. More precisely, Telescope automatically extracts intrinsic time series features and then decomposes the time series into components, building a forecasting model for each of them. Each component is forecast by applying a different method and then the final forecast is assembled from the forecast components by employing a regression-based machine learning algorithm. In more than 1300 hours of experiments benchmarking 15 competing methods (including approaches from Uber and Facebook) on 400 time series, Telescope outperformed all methods, exhibiting the best forecast accuracy coupled with a low and reliable time-to-result. Compared to the competing methods that exhibited, on average, a forecast error (more precisely, the symmetric mean absolute forecast error) of 29%, Telescope exhibited an error of 20% while being 2556 times faster. In particular, the methods from Uber and Facebook exhibited an error of 48% and 36%, and were 7334 and 19 times slower than Telescope, respectively.
Contribution III - Chamulteon
To enable reliable auto-scaling, we present a hybrid auto-scaler that combines proactive and reactive techniques to scale distributed cloud applications comprising multiple services in a coordinated and cost-effective manner. More precisely, proactive adaptations are planned based on forecasts of Telescope, while reactive adaptations are triggered based on actual observations of the monitored load intensity. To solve occurring conflicts between reactive and proactive adaptations, a complex conflict resolution algorithm is implemented. Moreover, when deployed in public cloud environments, Chamulteon reviews adaptations with respect to the cloud provider's pricing scheme in order to minimize the charged costs. In more than 400 hours of experiments evaluating five competing auto-scaling mechanisms in scenarios covering five different workloads, four different applications, and three different cloud environments, Chamulteon exhibited the best auto-scaling performance and reliability while at the same time reducing the charged costs. The competing methods provided insufficient resources for (on average) 31% of the experimental time; in contrast, Chamulteon cut this time to 8% and the SLO (service level objective) violations from 18% to 6% while using up to 15% less resources and reducing the charged costs by up to 45%.
The contributions of this thesis can be seen as major milestones in the domain of time series forecasting and cloud resource management. (i) This thesis is the first to present a forecasting benchmark that covers a variety of different domains with a high diversity between the analyzed time series. Based on the provided data set and the automatic evaluation procedure, the proposed benchmark contributes to enhance the comparability of forecasting methods. The benchmarking results for different forecasting methods enable the selection of the most appropriate forecasting method for a given use case. (ii) Telescope provides the first generic and fully automated time series forecasting approach that delivers both accurate and reliable forecasts while making no assumptions about the analyzed time series. Hence, it eliminates the need for expensive, time-consuming, and error-prone procedures, such as trial-and-error searches or consulting an expert. This opens up new possibilities especially in time-critical scenarios, where Telescope can provide accurate forecasts with a short and reliable time-to-result.
Although Telescope was applied for this thesis in the field of cloud computing, there is absolutely no limitation regarding the applicability of Telescope in other domains, as demonstrated in the evaluation. Moreover, Telescope, which was made available on GitHub, is already used in a number of interdisciplinary data science projects, for instance, predictive maintenance in an Industry 4.0 context, heart failure prediction in medicine, or as a component of predictive models of beehive development. (iii) In the context of cloud resource management, Chamulteon is a major milestone for increasing the trust in cloud auto-scalers. The complex resolution algorithm enables reliable and accurate scaling behavior that reduces losses caused by excessive resource allocation or SLO violations. In other words, Chamulteon provides reliable online adaptations minimizing charged costs while at the same time maximizing user experience.
Prognostische und therapeutische Aspekte von Thymomen : eine retrospektive Studie von 582 Fällen
(2004)
Thymome sind seltene epitheliale Thymustumoren, die in der überwiegenden Zahl der Fälle die Fähigkeit zur Reifung und zum Export von T-Zellen behalten haben. Diese Fähigkeit ist als Ursache für die häufige Asoziation dieser Tumoren mit Autoimmunphänomenen (z.B Myasthenia gravis)anzunehmen. Die vorgelegte Studie zeigt die prognostische Relevanz der derzeit gültigen histologischen WHO-Klassifizierung von Thymomen. Das biologische Verhalten der einzelnen Thymomtypen korreliert dabei mit dem Ausmaß zytogenetischer Veränderungen. Wenige klinische und histologische Parameter wie der histologische Subtyp, Tumorstadium nach Masaoka sowie der Resektionsstatus reichen aus, um den Verlauf eines bestimmten Thymoms mit genügender Zuverlässigkeit prognostizieren zu können. Dies konnte in Übereinstimmung mit früheren Arbeiten in unserer Studie gezeigt werden. Somit müssen vor allem diese drei Parameter berücksichtigt werden, um eine adäquate Therapie einleiten zu können. Angaben zu Alters- und Geschlechtsverteilung können diese Befunde ergänzen, haben jedoch keine prognostische Signifikanz für die Wahl der Therapie. Die erhobenen Befunde der vorgelegten Follow-up Studie können als Grundlage prospektiver klinischer Therapiestudien dienen. Im Zentrum der Bemühungen sollte hierbei nach unseren Ergebnissen die Therapie von „high-risk“ Thymomen des Typ B und C stehen, bei denen eine primäre vollständige Resektion nicht möglich ist, oder bei denen zum Zeitpunkt der Operation bereits Metastasen bestehen. Therapieoptionen mit multimodalen Therapiestrategien müssen dafür noch weiter modifiziert und über längere Zeiträume erprobt werden. Zudem sollten klinische Studien mit Somatostatin-Analoga als neue Therapiemöglichkeit gefördert werden. Aufgrund der äußerst niedrigen Inzidenz von Thymomen und der niedrigen Frequenz von Patienten mit diesen ungünstigen Thymomverläufen werden diese Versuche nationale oder internationale Bemühungen erfordern.
Langfristige Prognosen sportmotorischer Leistungen sowie die Kenntnis relevanter Einflussfaktoren auf die motorische Entwicklung gewinnen angesichts des veränderten Bewegungsverhaltens und der Zunahme motorischer Defizite von Kindern und Jugendlichen immer stärker an Bedeutung. Der bisherige Forschungsstand zur Stabilität und Vorhersage sportlicher Leistungsfähigkeit beschränkt sich bisher jedoch fast ausschließlich auf retrospektive Studien oder aber auf Längsschnittstudien, die nur einen begrenzten Lebensabschnitt erfassen. Im Vordergrund der vorliegenden multivariaten Längsschnittstudie steht die empirische Analyse potentieller personinterner und personexterner Einflussfaktoren auf die Entwicklung motorischer – insbesondere koordinativer - Fähigkeiten vom Vorschul- bis ins frühe Erwachsenenalter. Außerdem sollte versucht werden, die Ausprägung sportlicher Aktivität und motorischer Fähigkeiten im frühen Erwachsenenalter möglichst gut durch potentielle Prädiktoren aus der Kindheit vorherzusagen. Als theoretischer Rahmen wurde ausgehend von einem fähigkeitsorientierten Ansatz das transaktionale Handlungsmodell von Baur (1989, 1994) ausgewählt, das sowohl endogene als auch exogene Einflussfaktoren auf die motorische Entwicklung berücksichtigt. Die Daten zur motorischen, somatischen und psychischen Entwicklung wurden im Rahmen der Münchner Längsschnittstudie zur Genese individueller Kompetenzen (LOGIK) an 152 Mädchen und Jungen im Alter von 4, 5, 6, 8, 10, 12 und 23 Jahren erhoben. Es zeigen sich bereits im Vorschulalter substantielle Stabilitätskoeffizienten zu den motorischen Leistungen im frühen Erwachsenenalter, die ab dem Grundschulalter auf mittelhohe Werte ansteigen. Als bedeutsame Einflussfaktoren auf die motorische Entwicklung erweisen sich neben der sportlichen Aktivität und dem BMI auch die nonverbale Intelligenz und das athletische Selbstkonzept. In Abhängigkeit von der Schullaufbahn, dem sozioökonomischen Status sowie der Sportvereinszugehörigkeit können Unterschiede im motorischen Entwicklungsverlauf nur zum Teil nachgewiesen werden. Einen nachhaltigen Einfluss auf die motorische Entwicklung bis ins frühe Erwachsenenalter besitzt dagegen das frühe sportive Anregungsniveau im Elternhaus. Mittels schrittweiser Regression können unter Einbezug motorischer, somatischer, kognitiver, persönlichkeitsbezogener und soziodemographischer Merkmale im Vorschulalter bereits bis zu 31%, ab dem Grundschulalter bis zu 46% der Varianz motorischer Leistungen mit 23 J. aufgeklärt werden. Für eine befriedigende Prognose späterer motorischer Leistungen sollten deshalb neben den motorischen Leistungskomponenten auch somatische, kognitive, persönlichkeitsbezogene und sozialisationsbedingte Einflüsse berücksichtigt werden. Die relativ hohe Stabilität motorischer Fähigkeiten ab dem Grundschulalter deutet darauf hin, dass bereits in der Kindheit die Grundlagen für die weitere motorische Entwicklung gelegt werden. Ein effizienter Ansatzpunkt zur Intervention scheint hier vor allem die Förderung von sportlicher Aktivität und Sportinteresse im Elternhaus zu sein.