Refine
Has Fulltext
- yes (26)
Is part of the Bibliography
- yes (26)
Year of publication
Document Type
- Doctoral Thesis (23)
- Journal article (3)
Keywords
- Prognose (26) (remove)
Institute
- Medizinische Klinik und Poliklinik I (4)
- Pathologisches Institut (4)
- Institut für Psychologie (bis Sept. 2007) (3)
- Graduate School of Life Sciences (2)
- Institut für Informatik (2)
- Klinik und Poliklinik für Allgemein-, Viszeral-, Gefäß- und Kinderchirurgie (Chirurgische Klinik I) (2)
- Institut für Geographie (1)
- Institut für Geographie und Geologie (1)
- Institut für Mathematik (1)
- Institut für Psychologie (1)
Sonstige beteiligte Institutionen
The seasonal snow cover in the European Alps plays a crucial role in the region's climate, ecology, and economy. It affects the local climate through its high albedo, protects permafrost, provides habitats, and acts as a water reservoir that feeds European rivers. However, these functions are threatened by climate change. Analyzing snow cover dynamics is essential to predict future developments and assess related ecological and economic impacts.
This study explores the potential of long Earth Observation (EO) time series for modeling and predicting the snow line elevation (SLE) in the Alps. Based on approximately 15,000 Landsat satellite images, SLE time series were generated for the years 1985 to 2022. Various univariate forecasting models were evaluated, with the best results achieved by Random Forests, Telescope, and Seasonal ARIMA. A newly developed approach combines the best models into a robust ensemble, achieving an average Nash-Sutcliffe efficiency (NSE) of 0.8 in catchments with strong seasonal signals.
Forecasts for 2030 indicate significant upward shifts in the SLE, particularly in the Western and Southern Alps. Given the variability in results, a multivariate modeling approach using climate variables is recommended to improve prediction accuracy. This study lays the groundwork for future models that could potentially project SLE dynamics through the end of the 21st century under various climate scenarios, which is highly relevant for climate policy in the Alpine region.
Machine-Learning-Based Identification of Tumor Entities, Tumor Subgroups, and Therapy Options
(2023)
Molecular genetic analyses, such as mutation analyses, are becoming increasingly important in the tumor field, especially in the context of therapy stratification. The identification of the underlying tumor entity is crucial, but can sometimes be difficult, for example in the case of metastases or the so-called Cancer of Unknown Primary (CUP) syndrome. In recent years, methylome and transcriptome utilizing machine learning (ML) approaches have been developed to enable fast and reliable tumor and tumor subtype identification. However, so far only methylome analysis have become widely used in routine diagnostics.
The present work addresses the utility of publicly available RNA-sequencing data to determine the underlying tumor entity, possible subgroups, and potential therapy options. Identification of these by ML - in particular random forest (RF) models - was the first task. The results with test accuracies of up to 99% provided new, previously unknown insights into the trained models and the corresponding entity prediction. Reducing the input data to the top 100 mRNA transcripts resulted in a minimal loss of prediction quality and could potentially enable application in clinical or real-world settings.
By introducing the ratios of these top 100 genes to each other as a new database for RF models, a novel method was developed enabling the use of trained RF models on data from other sources.
Further analysis of the transcriptomic differences of metastatic samples by visual clustering showed that there were no differences specific for the site of metastasis. Similarly, no distinct clusters were detectable when investigating primary tumors and metastases of cutaneous skin melanoma (SKCM).
Subsequently, more than half of the validation datasets had a prediction accuracy of at least 80%, with many datasets even achieving a prediction accuracy of – or close to – 100%.
To investigate the applicability of the used methods for subgroup identification, the TCGA-KIPAN dataset, consisting of the three major kidney cancer subgroups, was used. The results revealed a new, previously unknown subgroup consisting of all histopathological groups with clinically relevant characteristics, such as significantly different survival. Based on significant differences in gene expression, potential therapeutic options of the identified subgroup could be proposed.
Concludingly, in exploring the potential applicability of RNA-sequencing data as a basis for therapy prediction, it was shown that this type of data is suitable to predict entities as well as subgroups with high accuracy. Clinical relevance was also demonstrated for a novel subgroup in renal cell carcinoma. The reduction of the number of genes required for entity prediction to 100 genes, enables panel sequencing and thus demonstrates potential applicability in a real-life setting.
Herzinsuffizienz ist eine sehr häufige Erkrankung im hohen Lebensalter mit zudem signifikant hoher Mortalität - vergleichbar mit der Mortalität häufiger Krebsarten. Biomarker wie die natriuretischen Peptide sind von großer Wichtigkeit hinsichtlich der Diagnosestellung und Prognoseabschätzung. Auch inflammatorische Marker, Copeptin sowie Mid-regionales Adrenomedullin (MR-proADM) haben eine wichtige Rolle sowohl in der Diagnosestellung der Herzinsuffizienz als auch in der Prognoseabschätzung eingenommen. Die Aussagekraft der Biomarker in einem diagnostisch naiven Kollektiv mit dem klinisch-anamnestischen Verdacht auf das Vorliegen einer Herzinsuffizienz ist jedoch bisher kaum untersucht worden.
Die Handheld-BNP-Studie schloss diagnostisch naive Patienten ein, die sich mit Symptomen passend zu einer Herzinsuffizienz beim Hausarzt vorstellten. Binnen 14 Tagen erfolgte die Referenzdiagnose durch einen niedergelassenen Kardiologen. Ziel war es, die diagnostische Aussagekraft von BNP und der miniaturisierten Echokardiographie im primärärztlichen Bereich zu überprüfen. Die vorliegenden Follow-Up-II-Untersuchung untersuchte die prognostische Aussagekraft moderner Biomarker (N-terminales B-natriuretisches Peptid (NT-proBNP), Mid-regionales atriales natriuretisches Peptid (MR-proANP), Mid-regionales Adrenomedullin (MR-proADM), Copeptin, Tumornekrosefaktor Alpha (TNF- α) und hochsensitives C-reaktives Protein (hsCRP)). Die Endpunkte waren Tod jeder Ursache sowie kardiovaskulärer Tod.
Insgesamt traten in unseren Analysen die natriuretischen Peptide mit ihrer prognostischen Aussagekraft hervor. In den univariaten Analysen zeigte sich das NT-proBNP als wichtigster Biomarker und in den multivariaten Analysen das MR-proANP.
Bei diagnostisch naiven Patienten, die sich mit Herzinsuffizienzsymptomen bei ihrem Hausarzt vorstellen, besteht ein hohes Mortalitätsrisiko. Um diese Patienten adäquat zu selektieren, eine leitliniengerechte Therapie einzuleiten und um das Fortschreiten der Erkrankung aufzuhalten, ist eine frühzeitige Diagnosestellung beim Kardiologen wichtig. Natriuretische Peptide sind prädiktiv, jedoch stellt das MR-proANP aufgrund fehlender generalisierter Verfügbarkeit keine realistische Option im primärärztlichen Bereich dar. Das NT-proBNP hat eine flächendeckende Verfügbarkeit und wird mittlerweile in den Herzinsuffizienz-Leitlinien der ESC bei der Verdachtsdiagnose Herzinsuffizienz standardmäßig empfohlen.
The importance of proactive and timely prediction of critical events is steadily increasing, whether in the manufacturing industry or in private life. In the past, machines in the manufacturing industry were often maintained based on a regular schedule or threshold violations, which is no longer competitive as it causes unnecessary costs and downtime. In contrast, the predictions of critical events in everyday life are often much more concealed and hardly noticeable to the private individual, unless the critical event occurs. For instance, our electricity provider has to ensure that we, as end users, are always supplied with sufficient electricity, or our favorite streaming service has to guarantee that we can watch our favorite series without interruptions. For this purpose, they have to constantly analyze what the current situation is, how it will develop in the near future, and how they have to react in order to cope with future conditions without causing power outages or video stalling.
In order to analyze the performance of a system, monitoring mechanisms are often integrated to observe characteristics that describe the workload and the state of the system and its environment. Reactive systems typically employ thresholds, utility functions, or models to determine the current state of the system. However, such reactive systems cannot proactively estimate future events, but only as they occur. In the case of critical events, reactive determination of the current system state is futile, whereas a proactive system could have predicted this event in advance and enabled timely countermeasures. To achieve proactivity, the system requires estimates of future system states. Given the gap between design time and runtime, it is typically not possible to use expert knowledge to a priori model all situations a system might encounter at runtime. Therefore, prediction methods must be integrated into the system. Depending on the available monitoring data and the complexity of the prediction task, either time series forecasting in combination with thresholding or more sophisticated machine and deep learning models have to be trained.
Although numerous forecasting methods have been proposed in the literature, these methods have their advantages and disadvantages depending on the characteristics of the time series under consideration. Therefore, expert knowledge is required to decide which forecasting method to choose. However, since the time series observed at runtime cannot be known at design time, such expert knowledge cannot be implemented in the system. In addition to selecting an appropriate forecasting method, several time series preprocessing steps are required to achieve satisfactory forecasting accuracy. In the literature, this preprocessing is often done manually, which is not practical for autonomous computing systems, such as Self-Aware Computing Systems. Several approaches have also been presented in the literature for predicting critical events based on multivariate monitoring data using machine and deep learning. However, these approaches are typically highly domain-specific, such as financial failures, bearing failures, or product failures. Therefore, they require in-depth expert knowledge. For this reason, these approaches cannot be fully automated and are not transferable to other use cases. Thus, the literature lacks generalizable end-to-end workflows for modeling, detecting, and predicting failures that require only little expert knowledge.
To overcome these shortcomings, this thesis presents a system model for meta-self-aware prediction of critical events based on the LRA-M loop of Self-Aware Computing Systems. Building upon this system model, this thesis provides six further contributions to critical event prediction. While the first two contributions address critical event prediction based on univariate data via time series forecasting, the three subsequent contributions address critical event prediction for multivariate monitoring data using machine and deep learning algorithms. Finally, the last contribution addresses the update procedure of the system model. Specifically, the seven main contributions of this thesis can be summarized as follows:
First, we present a system model for meta self-aware prediction of critical events. To handle both univariate and multivariate monitoring data, it offers univariate time series forecasting for use cases where a single observed variable is representative of the state of the system, and machine learning algorithms combined with various preprocessing techniques for use cases where a large number of variables are observed to characterize the system’s state. However, the two different modeling alternatives are not disjoint, as univariate time series forecasts can also be included to estimate future monitoring data as additional input to the machine learning models. Finally, a feedback loop is incorporated to monitor the achieved prediction quality and trigger model updates.
We propose a novel hybrid time series forecasting method for univariate, seasonal time series, called Telescope. To this end, Telescope automatically preprocesses the time series, performs a kind of divide-and-conquer technique to split the time series into multiple components, and derives additional categorical information. It then forecasts the components and categorical information separately using a specific state-of-the-art method for each component. Finally, Telescope recombines the individual predictions. As Telescope performs both preprocessing and forecasting automatically, it represents a complete end-to-end approach to univariate seasonal time series forecasting. Experimental results show that Telescope achieves enhanced forecast accuracy, more reliable forecasts, and a substantial speedup. Furthermore, we apply Telescope to the scenario of predicting critical events for virtual machine auto-scaling. Here, results show that Telescope considerably reduces the average response time and significantly reduces the number of service level objective violations.
For the automatic selection of a suitable forecasting method, we introduce two frameworks for recommending forecasting methods. The first framework extracts various time series characteristics to learn the relationship between them and forecast accuracy. In contrast, the other framework divides the historical observations into internal training and validation parts to estimate the most appropriate forecasting method. Moreover, this framework also includes time series preprocessing steps. Comparisons between the proposed forecasting method recommendation frameworks and the individual state-of-the-art forecasting methods and the state-of-the-art forecasting method recommendation approach show that the proposed frameworks considerably improve the forecast accuracy.
With regard to multivariate monitoring data, we first present an end-to-end workflow to detect critical events in technical systems in the form of anomalous machine states. The end-to-end design includes raw data processing, phase segmentation, data resampling, feature extraction, and machine tool anomaly detection. In addition, the workflow does not rely on profound domain knowledge or specific monitoring variables, but merely assumes standard machine monitoring data. We evaluate the end-to-end workflow using data from a real CNC machine. The results indicate that conventional frequency analysis does not detect the critical machine conditions well, while our workflow detects the critical events very well with an F1-score of almost 91%.
To predict critical events rather than merely detecting them, we compare different modeling alternatives for critical event prediction in the use case of time-to-failure prediction of hard disk drives. Given that failure records are typically significantly less frequent than instances representing the normal state, we employ different oversampling strategies. Next, we compare the prediction quality of binary class modeling with downscaled multi-class modeling. Furthermore, we integrate univariate time series forecasting into the feature generation process to estimate future monitoring data. Finally, we model the time-to-failure using not only classification models but also regression models. The results suggest that multi-class modeling provides the overall best prediction quality with respect to practical requirements. In addition, we prove that forecasting the features of the prediction model significantly improves the critical event prediction quality.
We propose an end-to-end workflow for predicting critical events of industrial machines. Again, this approach does not rely on expert knowledge except for the definition of monitoring data, and therefore represents a generalizable workflow for predicting critical events of industrial machines. The workflow includes feature extraction, feature handling, target class mapping, and model learning with integrated hyperparameter tuning via a grid-search technique. Drawing on the result of the previous contribution, the workflow models the time-to-failure prediction in terms of multiple classes, where we compare different labeling strategies for multi-class classification. The evaluation using real-world production data of an industrial press demonstrates that the workflow is capable of predicting six different time-to-failure windows with a macro F1-score of 90%. When scaling the time-to-failure classes down to a binary prediction of critical events, the F1-score increases to above 98%.
Finally, we present four update triggers to assess when critical event prediction models should be re-trained during on-line application. Such re-training is required, for instance, due to concept drift. The update triggers introduced in this thesis take into account the elapsed time since the last update, the prediction quality achieved on the current test data, and the prediction quality achieved on the preceding test data. We compare the different update strategies with each other and with the static baseline model. The results demonstrate the necessity of model updates during on-line application and suggest that the update triggers that consider both the prediction quality of the current and preceding test data achieve the best trade-off between prediction quality and number of updates required.
We are convinced that the contributions of this thesis constitute significant impulses for the academic research community as well as for practitioners. First of all, to the best of our knowledge, we are the first to propose a fully automated, end-to-end, hybrid, component-based forecasting method for seasonal time series that also includes time series preprocessing. Due to the combination of reliably high forecast accuracy and reliably low time-to-result, it offers many new opportunities in applications requiring accurate forecasts within a fixed time period in order to take timely countermeasures. In addition, the promising results of the forecasting method recommendation systems provide new opportunities to enhance forecasting performance for all types of time series, not just seasonal ones. Furthermore, we are the first to expose the deficiencies of the prior state-of-the-art forecasting method recommendation system.
Concerning the contributions to critical event prediction based on multivariate monitoring data, we have already collaborated closely with industrial partners, which supports the practical relevance of the contributions of this thesis. The automated end-to-end design of the proposed workflows that do not demand profound domain or expert knowledge represents a milestone in bridging the gap between academic theory and industrial application. Finally, the workflow for predicting critical events in industrial machines is currently being operationalized in a real production system, underscoring the practical impact of this thesis.
These days, we are living in a digitalized world. Both our professional and private lives are pervaded by various IT services, which are typically operated using distributed computing systems (e.g., cloud environments). Due to the high level of digitalization, the operators of such systems are confronted with fast-paced and changing requirements. In particular, cloud environments have to cope with load fluctuations and respective rapid and unexpected changes in the computing resource demands. To face this challenge, so-called auto-scalers, such as the threshold-based mechanism in Amazon Web Services EC2, can be employed to enable elastic scaling of the computing resources. However, despite this opportunity, business-critical applications are still run with highly overprovisioned resources to guarantee a stable and reliable service operation. This strategy is pursued due to the lack of trust in auto-scalers and the concern that inaccurate or delayed adaptations may result in financial losses.
To adapt the resource capacity in time, the future resource demands must be "foreseen", as reacting to changes once they are observed introduces an inherent delay. In other words, accurate forecasting methods are required to adapt systems proactively. A powerful approach in this context is time series forecasting, which is also applied in many other domains. The core idea is to examine past values and predict how these values will evolve as time progresses. According to the "No-Free-Lunch Theorem", there is no algorithm that performs best for all scenarios. Therefore, selecting a suitable forecasting method for a given use case is a crucial task. Simply put, each method has its benefits and drawbacks, depending on the specific use case. The choice of the forecasting method is usually based on expert knowledge, which cannot be fully automated, or on trial-and-error. In both cases, this is expensive and prone to error.
Although auto-scaling and time series forecasting are established research fields, existing approaches cannot fully address the mentioned challenges: (i) In our survey on time series forecasting, we found that publications on time series forecasting typically consider only a small set of (mostly related) methods and evaluate their performance on a small number of time series with only a few error measures while providing no information on the execution time of the studied methods. Therefore, such articles cannot be used to guide the choice of an appropriate method for a particular use case; (ii) Existing open-source hybrid forecasting methods that take advantage of at least two methods to tackle the "No-Free-Lunch Theorem" are computationally intensive, poorly automated, designed for a particular data set, or they lack a predictable time-to-result. Methods exhibiting a high variance in the time-to-result cannot be applied for time-critical scenarios (e.g., auto-scaling), while methods tailored to a specific data set introduce restrictions on the possible use cases (e.g., forecasting only annual time series); (iii) Auto-scalers typically scale an application either proactively or reactively. Even though some hybrid auto-scalers exist, they lack sophisticated solutions to combine reactive and proactive scaling. For instance, resources are only released proactively while resource allocation is entirely done in a reactive manner (inherently delayed); (iv) The majority of existing mechanisms do not take the provider's pricing scheme into account while scaling an application in a public cloud environment, which often results in excessive charged costs. Even though some cost-aware auto-scalers have been proposed, they only consider the current resource demands, neglecting their development over time. For example, resources are often shut down prematurely, even though they might be required again soon.
To address the mentioned challenges and the shortcomings of existing work, this thesis presents three contributions: (i) The first contribution-a forecasting benchmark-addresses the problem of limited comparability between existing forecasting methods; (ii) The second contribution-Telescope-provides an automated hybrid time series forecasting method addressing the challenge posed by the "No-Free-Lunch Theorem"; (iii) The third contribution-Chamulteon-provides a novel hybrid auto-scaler for coordinated scaling of applications comprising multiple services, leveraging Telescope to forecast the workload intensity as a basis for proactive resource provisioning. In the following, the three contributions of the thesis are summarized:
Contribution I - Forecasting Benchmark
To establish a level playing field for evaluating the performance of forecasting methods in a broad setting, we propose a novel benchmark that automatically evaluates and ranks forecasting methods based on their performance in a diverse set of evaluation scenarios. The benchmark comprises four different use cases, each covering 100 heterogeneous time series taken from different domains. The data set was assembled from publicly available time series and was designed to exhibit much higher diversity than existing forecasting competitions. Besides proposing a new data set, we introduce two new measures that describe different aspects of a forecast. We applied the developed benchmark to evaluate Telescope.
Contribution II - Telescope
To provide a generic forecasting method, we introduce a novel machine learning-based forecasting approach that automatically retrieves relevant information from a given time series. More precisely, Telescope automatically extracts intrinsic time series features and then decomposes the time series into components, building a forecasting model for each of them. Each component is forecast by applying a different method and then the final forecast is assembled from the forecast components by employing a regression-based machine learning algorithm. In more than 1300 hours of experiments benchmarking 15 competing methods (including approaches from Uber and Facebook) on 400 time series, Telescope outperformed all methods, exhibiting the best forecast accuracy coupled with a low and reliable time-to-result. Compared to the competing methods that exhibited, on average, a forecast error (more precisely, the symmetric mean absolute forecast error) of 29%, Telescope exhibited an error of 20% while being 2556 times faster. In particular, the methods from Uber and Facebook exhibited an error of 48% and 36%, and were 7334 and 19 times slower than Telescope, respectively.
Contribution III - Chamulteon
To enable reliable auto-scaling, we present a hybrid auto-scaler that combines proactive and reactive techniques to scale distributed cloud applications comprising multiple services in a coordinated and cost-effective manner. More precisely, proactive adaptations are planned based on forecasts of Telescope, while reactive adaptations are triggered based on actual observations of the monitored load intensity. To solve occurring conflicts between reactive and proactive adaptations, a complex conflict resolution algorithm is implemented. Moreover, when deployed in public cloud environments, Chamulteon reviews adaptations with respect to the cloud provider's pricing scheme in order to minimize the charged costs. In more than 400 hours of experiments evaluating five competing auto-scaling mechanisms in scenarios covering five different workloads, four different applications, and three different cloud environments, Chamulteon exhibited the best auto-scaling performance and reliability while at the same time reducing the charged costs. The competing methods provided insufficient resources for (on average) 31% of the experimental time; in contrast, Chamulteon cut this time to 8% and the SLO (service level objective) violations from 18% to 6% while using up to 15% less resources and reducing the charged costs by up to 45%.
The contributions of this thesis can be seen as major milestones in the domain of time series forecasting and cloud resource management. (i) This thesis is the first to present a forecasting benchmark that covers a variety of different domains with a high diversity between the analyzed time series. Based on the provided data set and the automatic evaluation procedure, the proposed benchmark contributes to enhance the comparability of forecasting methods. The benchmarking results for different forecasting methods enable the selection of the most appropriate forecasting method for a given use case. (ii) Telescope provides the first generic and fully automated time series forecasting approach that delivers both accurate and reliable forecasts while making no assumptions about the analyzed time series. Hence, it eliminates the need for expensive, time-consuming, and error-prone procedures, such as trial-and-error searches or consulting an expert. This opens up new possibilities especially in time-critical scenarios, where Telescope can provide accurate forecasts with a short and reliable time-to-result.
Although Telescope was applied for this thesis in the field of cloud computing, there is absolutely no limitation regarding the applicability of Telescope in other domains, as demonstrated in the evaluation. Moreover, Telescope, which was made available on GitHub, is already used in a number of interdisciplinary data science projects, for instance, predictive maintenance in an Industry 4.0 context, heart failure prediction in medicine, or as a component of predictive models of beehive development. (iii) In the context of cloud resource management, Chamulteon is a major milestone for increasing the trust in cloud auto-scalers. The complex resolution algorithm enables reliable and accurate scaling behavior that reduces losses caused by excessive resource allocation or SLO violations. In other words, Chamulteon provides reliable online adaptations minimizing charged costs while at the same time maximizing user experience.
Zusammenfassung:
Unsere Arbeit bestätigt die aus kleineren Studien bekannte hohe Expression der Chemokinrezeptoren CXCR4 und CXCR7 in der normalen Nebenniere und in der Mehrheit der Nebennierenkarzinome. Das auf mRNA Ebene bestätigte Vorkommen beider Chemokinrezeptoren im gesunden Nebennierengewebe deutet auf eine überwiegend für die normale Nebennierenphysiologie wichtige Rolle dieser Chemokinrezeptoren hin. Eine eventuell dennoch bestehende pathophysiologische Relevanz der Rezeptoren wurde ergänzend überprüft und ergab keinen signifikanten Einfluss auf die Prognose des Nebennierenkarzinoms.
Depressionen gehören zu den häufigsten psychischen Erkrankungen. Neben Symptomen wie Niedergeschlagenheit, Interessenlosigkeit oder Schlafstörungen sind Depressionen auch durch Defizite in kognitiven Funktionen, wie z.B. Aufmerksamkeitsprozessen oder der Wahrnehmung, und eine negativ verzerrte Informationsverarbeitung gekennzeichnet.
Aufgrund der hohen Prävalenz, der starken psychosozialen Funktionseinschränkungen durch depressive Erkrankungen und deren rezidivierenden Charakter besteht die Notwendigkeit, die therapeutischen Interventionen zur Behandlung affektiver Störungen zu verbessern, dadurch die Krankheitsphase der Patienten zu verkürzen und letztendlich auch die Kosten für das Gesundheitssystem zu reduzieren. In diesem Zusammenhang werden in den letzten Jahren verstärkt mögliche Prädiktoren und Korrelate des Therapieerfolgs untersucht. Hierfür könnten negativ verzerrte Informationsverarbeitungsprozesse und Defizite in kognitiven Funktionen objektive Marker darstellen.
Im ersten Teil dieser Arbeit wurde der Covariation Bias, der als Überschätzung des Zusammenhangs zwischen einem krankheitsrelevanten Stimulus und einer aversiven Konsequenz definiert wird, in einem Querschnittsdesign bei schwer depressiven Patienten zu Behandlungsbeginn im Vergleich zu einer Gruppe von Patienten nach einer sechswöchigen Behandlung sowie einer gesunden Kontrollgruppe untersucht. Diese kognitive Verzerrung war bei Patienten mit schwererer Symptomatik unabhängig vom Behandlungszeitpunkt stärker ausgeprägt. Zudem prädizierte der Covariation Bias zu Behandlungsbeginn das Therapieoutcome nach sechs Behandlungswochen dahingehend, dass Patienten mit einer stärkeren kognitiven Verzerrung ein schlechteres Ansprechen auf die Therapie zeigten.
Im zweiten Teil dieser Arbeit wurde das Emotional Processing Paradigma, das aus Aufgaben zur Emotionserkennung und zur Aufmerksamkeitslenkung besteht, zum ersten Mal bei schwer depressiven Patienten im intraindividuellen Verlauf der Behandlung eingesetzt und in Zusammenhang mit dem Therapieerfolg gestellt. Neben Hinweisen darauf, dass Patienten, bei denen sich in den ersten Behandlungswochen unter anderem die Salienz negativer Emotionen verringerte, mit höherer Wahrscheinlichkeit remittierten, zeigten sich vor allem zeitlich stabile Unterschiede im Sinne einer Trait-Variablen zwischen Patienten, die auf die initiale Therapie ansprachen, und Patienten, die keine bedeutsame Verbesserung erfuhren, in den globalen kognitiven Funktionen: Patienten, bei denen es zu keiner klinisch relevanten Verbesserung durch die Therapie kam, wiesen stärkere Defizite auf.
Zusammengenommen weisen die Ergebnisse der vorliegenden Arbeit auf ein stabiles Muster von Defiziten in globalen kognitiven Funktionen bei Patienten mit Depressionen hin. Diese Abweichungen liegen jedoch nicht bei allen schwer depressiven Patienten gleichermaßen vor. Bei Patienten mit Defiziten scheint das Therapieoutcome schlechter zu sein. Somit könnten diese Prozesse der Informationsverarbeitung und kognitive Defizite auf neuropsychologischer Ebene Prädiktoren und Korrelate des Therapieoutcomes darstellen. Im Sinne der personalisierten Medizin könnte in Zukunft die Diagnostik um die Parameter der Informationsverarbeitungsprozesse ergänzt werden und so die Prognose des Therapieerfolgs verbessert und die Behandlung der Patienten individualisiert werden.
Anämie (A), Niereninsuffizienz (RI) und Eisenmangel (ID) sind häufige Komorbiditäten der Herzinsuffizienz. Zum ersten Mal wurden in dieser Analyse die Prävalenz sowie der Einfluss auf Mortalität aller drei Komorbiditäten einzeln sowie koinzident in einer Population aus akut dekompensierten Herzinsuffizienzpatienten untersucht. Ebenso fehlten in der Literatur bisher Studien über die Prävalenz und den Einfluss auf die Mortalität von Anämie und Niereninsuffizienz abhängig von den vier AHA/ACC-Stadien bzw. von den verschiedenen Herzinsuffizienztypen HFrEF, HFpEF und dem hinsichtlich Herzinsuffizienz bisher asymptomatischen AHA/ACC-Stadium A/B.
A, RI und ID sind häufig und treten bei Überlebenden nach Hospitalisierung mit akut dekompensierter HFrEF oft zusammen auf. Patienten mit A und RI mit oder ohne ID haben das höchste Risiko für Mortalität. Die Definition und prognostische Rolle des ID nach akuter kardialer Dekompensation erfordert weitere Forschungsbemühungen.
Die Prävalenz von A und insbesondere von RI ist bereits in den aymptomatischen AHA / ACC-Stadien A und B hoch und nimmt mit dem Schweregrad der Herzinsuffizienz zu. Sowohl A als auch RI haben einen individuellen und kumulativen prognostischen Einfluss über das gesamte AHA / ACC-Spektrum.
A und RI waren bei allen Herzinsuffizienztypen häufig. Mehr als 20% der asymptomatischen AHA / ACC-Patienten im Stadium A und B hatten bereits RI. A und RI zeigten einen negativen individuellen und kumulativen prognostischen Einfluss bei allen Herzinsuffizienztypen, einschließlich der asymptomatischen Patienten (bei HFpEF gab es nur einen Trend, höchstwahrscheinlich aufgrund der geringeren Patientenzahl).
Bei Bestehen von A, RI oder ID ist eine sorgfältige Ursachenforschung indiziert im Rahmen eines ganzheitlichen Managements der Herzinsuffizienz mit dem Ziel, die Prognose der Herzinsuffizienz zu verbessern.
The purpose of confidence and prediction intervals is to provide an interval estimation for an unknown distribution parameter or the future value of a phenomenon. In many applications, prior knowledge about the distribution parameter is available, but rarely made use of, unless in a Bayesian framework. This thesis provides exact frequentist confidence intervals of minimal volume exploiting prior information. The scheme is applied to distribution parameters of the binomial and the Poisson distribution. The Bayesian approach to obtain intervals on a distribution parameter in form of credibility intervals is considered, with particular emphasis on the binomial distribution. An application of interval estimation is found in auditing, where two-sided intervals of Stringer type are meant to contain the mean of a zero-inflated population. In the context of time series analysis, covariates are supposed to improve the prediction of future values. Exponential smoothing with covariates as an extension of the popular forecasting method exponential smoothing is considered in this thesis. A double-seasonality version of it is applied to forecast hourly electricity load under the use of meteorological covariates. Different kinds of prediction intervals for exponential smoothing with covariates are formulated.
In dieser Studie werden demographische, diagnostische und therapeutische Faktoren einer an kutanen Sarkomen erkrankten Patientengruppe der Würzburger Hautklinik untersucht. Der prognostische Wert dieser Faktoren wird mit Hilfe verschiedener statistischer Tests und Vergleiche untersucht. Die Studienpopulation umfasst 119 Patienten, die im Zeitraum von 1999 bis 2009 behandelt wurden.
Retroviral vectors are potent tools for gene delivery and various biomedical applications. To accomplish a gene transfer task successfully, retroviral vectors must effectively transduce diverse cell cultures at different phases of a cell cycle. However, very promising retroviral vectors based on the foamy viral (FV) backbone lack the capacity to efficiently transduce quiescent cells. It is hypothesized that this phenomenon might be explained as the inability of foamy viruses to form a pre-integration complex (PIC) with nuclear import activity in growth-arrested cells, which is the characteristic for lentiviruses (HIV-1). In this process, the HIV-1 central polypurine tract (cPPT) serves as a primer for plus-strand synthesis to produce a “flap” element and is believed to be crucial for the subsequent double-stranded cDNA formation of all retroviral RNA genomes. In this study, the effects of the lentiviral cPPT element on the FV transduction potential in dividing and growth-arrested (G1/S phase) adenocarcinomic human alveolar basal epithelial (A549) cells are investigated by experimental and theoretical methods. The results indicated that the HIV-1 cPPT element in a foamy viral vector background will lead to a significant reduction of the FV transduction and viral titre in growth-arrested cells due to the absence of PICs with nuclear import activity.
Ziel:
Abschätzung der Risiken des Rezidivs des differenzierten Schilddrüsenkarzinoms, der Karzinom-bedingten Mortalität und der Karzinom-bedingten Reduktion der Lebenserwartung in Abhängigkeit von der Anzahl der zum Erreichen eines krankheitsfreien Zustands benötigten I-131-Therapien (Radioiodtherapien) und der für die Krankheitsfreiheit benötigten kumulativen Aktivität.
Methoden:
Analyse anhand von in der Würzburger Schilddrüsenkarzinom-Datenbank erfassten Verlaufsdaten unter Berücksichtigung eigener zusätzlicher Erhebungen zum follow-up.von 896 Patienten, die nach einer oder mehreren Radioiodtherapien im Therapieverlauf Erkrankungsfreiheit erreichten (negative TSH-stimulierte Thyreoglobulin-Messung in Kombination mit einer negativen I-131-Ganzkörperszintigraphie).
Ergebnisse:
Die erfassbare Nachsorgedauer betrug in Median 9.0 Jahre (Spannbreite 0.1-31.8 Jahre). Rezidiv-Raten nach 5 und 10 Jahren und am Ende der Nachsorge betrugen 1,0±0,3%, 4,0±0,7% und 6,2±1,1%. Die Schilddrüsenkarzinom-bedingte Sterberate betrug jeweils 0,1±0,1%, 0,5±0,3% und 3,4±1,1%.
Mit einer zunehmenden Anzahl von benötigten Radioiodtherapien nahm die Rezidivrate zu (p=0.001). Die Schilddrüsenkarzinom-bedingte Sterblichkeitsrate ist ab 4 benötigten Radioiodtherapien erhöht. Bei Patienten, die nach einer Radioiodtherapie krankheitsfrei waren, finden sich zwischen Niedrig- und Hochrisikopatienten keine Unterschiede bezüglich Rezidiv- und Sterblichkeitsrate. Bei Patienten, die zwei Radioiodtherapien benötigten, waren Rezidiv- und Sterblichkeitsrate der Hochrisikopatienten erhöht.
Bezüglich der kumulativ benötigten Aktivität zeigten sich nur bei Patienten, die eine kumulative Aktivität von über 22,2 GBq benötigten, erhöhte Rezidiv- und Sterberaten.
Im vorliegenden Studienkollektiv mit einer inhärent guten Prognose zeigte sich eine uneingeschränkte Lebenserwartung unabhängig von der benötigen Anzahl der Radioiodtherapien oder der benötigten kumulativen Aktivität.
Fazit:
Falls mehr als eine Radioiodtherapie oder eine hohe kumulative I-131 Aktivität benötigt wird, um einen krankheitsfreien Zustand zu erreichen, muss mit einer Rezidiv- und Schilddrüsenkarzinom-bedingten Sterblichkeits-Rate gerechnet werden, vor allem bei Hochrisikopatienten.
Im vorliegenden Beitrag werdenneuere nends in der Forschung zur frühen Prognose von Leseleistungen dargestellt. Der Überblick ergibt, daß sich insbesondere solche Forschungsarbeiten bewährt haben, die an kognitiven Informationsverarbeitungsmodellen orientiert sind. Über die Verknüpfung von korrelativen Längsschnitt- und experimentellen Trainingsstudien ließ sich belegen, daß die im Vorschul- bzw. Kindergartenalter beobachtete Informationsverarbeitungskompetenz eine kausale Beziehung zu der schulischen Leseleistung aufwies. Es wurde weiterhin gezeigt, daß phonologische Kompetenzen im Vorschulalter auch effizient trainiert werden können. Trotz dieser insgesamt beeindruckenden Befunde scheinen individuelle Prognosen des Schriftspracherwerbs nach wie vor jedoch problematisch.
Das Prostatakarzinom (PCa) ist weltweit das häufigste Malignom des Mannes mit weiter steigenden Inzidenz. Leider ist es bisher mit den gebräuchlichen Prognosefaktoren nicht möglich, diesen klinisch sehr heterogenen Tumor vor einer chirurgischen Therapie hinsichtlich des postoperativen Rezidivrisikos zu charakterisieren. Die Einführung neuer, hochsensitiver Biomarker, die diese Aufgabe zuverlässig erfüllen können, stellt vor allem für die Entwicklung individualisierter Therapieregimes von Patienten mit einem high-risk-PCa eine aktuelle Herausforderung dar. MicroRNAs rückten in den letzten Jahren als potentielle Biomarker zunehmend in den wissenschaftlichen Fokus. Sie stellen kleine RNA-Moleküle dar, welche posttranskriptionell die Genexpression in Organismen steuern und auch in der Regulation von Tumorsuppressoren und Onkogenen eine Rolle spielen. Differentielle Expressionslevels verschiedener RNAs wurden in sehr vielen Tumorentitäten, wie auch dem PCa beobachtet. Vorarbeiten aus unserem Labor zeigten, dass zwei microRNAs, miR-205 und miR-221, im PCa sehr stark unterexprimiert werden. Im Falle von mir-221 konnte zudem bereits eine Korrelation mit dem klinischen Verlauf und der Prognose des high-risk-PCa dargestellt werden. Aufbauend auf diesen Vorarbeiten sollte in einem Teilprojekt der vorliegenden Arbeit die tumorsuppressive Funktion von miR-221 im PCa untersucht werden. Mittels transienter Überexpression von miR-221 in PCa-Zelllinien konnte die Bedeutung von miR-221 als Regulator der Proliferation in PCa-Zellen beschrieben werden. Um die molekulare Wirkweise von miR-221 weiter darzustellen, wurde die posttranskriptionelle Inhibierung von p27kip1 und c-kit, zwei bekannten miR-221-Zielgenen, untersucht. In sogenannten Luciferase-Assays konnte eine direkte Interaktion von miR-221 mit definierten Sequenzen im 3‘-untranslatierten Bereich (=3‘UTR) beider Gene nachgewiesen werden. Erwartungsgemäß wurde aber in primären PCa-Tumoren, die anders wie viele andere Tumorentitäten eine reduzierte miR-221-Expression aufwiesen, keine Überexpression des potentiellen Tumorsuppressors p27kip1 beobachtet. Somit ist nachgewiesen, dass miR-221 zwar prinzipiell den Tumorsuppressor p27kip1 regulieren kann, dass allerdings dieser Mechanismus in primären PCa für die Regulation des Tumorsuppressors p27kip1 keine übergeordnete Rolle spielt. Anders verhält es sich bei dem potentiellen Onkogen c-kit. Die von mir druchgeführten Untersuchungen können erstmals eine direkte Interaktion von c-kit und miR-221 in PCa-Zellen nachweisen. Somit kann die beschriebene Proliferations-inhibierung und Apoptoseinduktion nach ektopischer miR-221-Überexpression im Zellmodell mit einer miR-221-vermittelten c-kit-Inhibierung in Zusammenhang gebracht werden. Dieses Ergebnis wird durch den Nachweise einer inversen Assoziation der mir-221- und ckit-Expression in primären PCa-Fällen untermauert (nicht gezeigte Ergebnisse). Betrachtet man diese Ergebnisse in Zusammenhang mit der bekannten tumor-progressiven Funktionen von c-kit, könnte durch die fehlende/reduzierte miR-221-Inhibierung der c-kit-Translation die Entstehung und Progression vieler PCas erklärt werden. In einem zweiten Projektansatz wurde die Bedeutung und Funktion von miR-205 als möglicher Tumorsuppressor im PCa untersucht. Dabei kann gezeigt werden, dass mir-205 ebenfalls in der Lage ist, nach transienter Überexpression die Proliferation von PCa-Zellen zu inhibieren. Um molekulare Mechanismen und Wirkweisen von mir-205 zu untersuchen, wurden im Zellmodell die Expression der Onkogene HER2/neu und HER3, beides vorausgesagte miR-205-Zielgene, analysiert. Es konnte gezeigt werden, dass in PCa-Zellen die Unterexpression von HER3 und HER/neu mit der ektopischen Überexpression von miR-205 assoziiert ist. Die HER2/neu-Expression konnte zusätzlich auch im primären Tumor mit der miR-205-Expression invers assoziiert werden, wodurch die Regulation dieses Zielgens auf nativer Ebene verifiziert wurde. Ein weiterer Fokus dieser Arbeit konzentrierte sich auf die Fragestellung, ob sich miR-205 als Prognosemarker im high-risk-PCa eignen könnte. Hierzu wurden in einem etablierten high-risk-PCa-Studienkollektiv die Expression von mir-205 analysiert und anschließend Korrelations- und Überlebensanalysen durchgeführt. Es konnte statistisch keine Assoziation zwischen der miR-205-Expression und verschiedenen Prognoseparametern, die in der Klinik präoperativ prognostische Vorraussagekraft besitzen, hergestellt werden. Allerdings fiel auf, dass Karzinome, die miR-205 relativ schwach herabregulierten, ein signifikant schlechteres prognostisches Outcome und Überlebensnachteile zeigten, im Vergleich zu Tumoren, die eine starke miR-205-Regulation aufweisen. Somit konnten im Hochrisikokollektiv mit Hilfe der miR-205-Expressionsanalyse Karzinome identifiziert werden, die ein erhöhtes Rezidivrisiko aufweisen. Die hier vorgelegten Untersuchungen stellen also erste Hinweise dar, dass miR-205 als unabhängiger prognostischer Marker im PCa Verwendung finden könnte. Zusammenfassend kann in der vorgelegten Arbeit gezeigt werden, dass die microRNAs miR-205 und miR-221 zwei tumorsuppressive RNAs im PCa darstellen. Eine mögliche zukünftige Implementation der Expressionsanalysen von miR-221 und/oder miR-205 als Progressionsmarker stellt eine vielversprechende Möglichkeit dar, in Zukunft die Prognose und vielleicht auch die Therapie des PCa zu verbessern.
Hintergrund: Die Alzheimer-Erkrankung ist die häufigste neurodegenerative Erkrankung. Da es zurzeit für sie noch keine Heilung gibt, richtet sich das Hauptaugenmerk auf eine möglichst frühe Diagnose und die Behandlung mit krankheitsverzögernden Medikamenten. Vor allem die funktionelle Bildgebung gilt im Bereich der Frühdiagnose als vielversprechend. Neben dem Gedächtnis werden die visuell-räumliche Informationsverarbeitung, exekutive Funktionen und Aufmerksamkeitsprozesse untersucht. Hierbei zeigen sich zentralnervöse Aktivierungsauffälligkeiten in kortikalen Zielregionen etwa im präfrontalen und im parietalen Kortex. Verlaufsuntersuchungen konzentrieren sich vor allem darauf aus der Gehirnaktivierung Vorhersagen über kognitive Veränderungen bei älteren Personen mit und ohne Gedächtnisstörung treffen zu können. Nur wenige Studien erfassen dabei jedoch die Gehirnaktivierung zu mehreren Messzeitpunkten. Gerade für große Stichproben und wiederholte Messungen könnte die funktionelle Nahinfrarotspektroskopie (fNIRS) sich als Alternative zur Magnetresonanztomographie anbieten. Ziel: Ziel der Studie war es, mit fNIRS und ereigniskorrelierten Potentialen funktionelle Unterschiede zwischen Alzheimer-Patienten und gleichaltrigen Kontrollen in mehreren Funktionsbereichen darzustellen und ihre Veränderung über den Zeitraum eines Jahres zu verfolgen. Zum ersten Mal sollte im Rahmen einer prospektiven Untersuchung mit fNIRS geprüft werden ob kortikale Aktivierungen zur Vorhersage von neuropsychologischen Testwerten genutzt werden können. Zusätzlich stellte sich die Frage, ob fNIRS für Verlaufsuntersuchungen an älteren Stichproben geeignet ist. Methoden: Im Rahmen der vorliegenden Arbeit wurden zum ersten Messzeitpunkt (T1) 73 Patienten und 71 Kontrollen mit vier Paradigmen in den drei Funktionsbereichen visuell-räumliche Informationsverarbeitung, exekutive Funktionen und zentralnervöse Filtermechanismen mit fNIRS und ereigniskorrelierten Potentialen gemessen. Die Probanden durchliefen eine Line Orientation Aufgabe, zwei Versionen einer Wortflüssigkeitsaufgabe (phonologisch und semantisch) und das P50-Doppelklickparadigma. Zielparameter waren dabei die aufgabenbezogene Aktivierung im parietalen Kortex, im dorsolateralen Präfrontalkortex (DLPFC) und das sensorische Gating, gemessen durch die P50-Supression nach wiederholter Reizdarbietung. Zusätzlich wurden zwei typische Tests zur Demenzdiagnostik (MMST und DemTect) erhoben. Die zweite Messung (T2) fand nach 12 Monaten statt und lief identisch zur ersten Untersuchung ab. Zu T2 konnten 14 Patienten und 51 Kontrollen erneut rekrutiert werden. Ergebnisse: Zu T1 konnte mit fNIRS ein Aktivierungsdefizit für Patienten im DLPFC während der phonologischen Wortflüssigkeitsaufgabe und im rechten Parietalkortex während der Line Orientation Aufgabe festgestellt werden. Für die semantische Wortflüssigkeitsaufgabe und das sensorische Gating zeigten sich keine zentralnervösen Unterschiede. Über das Jahr hinweg nahm die aufgabenbezogene Aktivierung der Patienten im linken DLPFC für beide Versionen der Wortflüssigkeitsaufgabe deutlich ab, während gleichaltrige Kontrollpersonen keine kortikalen Veränderungen zeigten. Zu T2 war das sensorische Gating der Patienten außerdem deutlich schlechter im Vergleich zu gesunden Kontrollen. Die Veränderungen der Oxygenierung während der Wortflüssigkeitsaufgabe konnten für gesunde Kontrollen Verschlechterungen im MMST und im DemTect vorhersagen. Vor allem ein Verlust der Lateralisierung ging mit einem Abfall in den kognitiven Tests einher. Schlussfolgerung: Spezifische Defizite in der kortikalen Aktivierung konnten bei Alzheimer-Patienten mit fNIRS beobachtet und genauer beschrieben werden. Auch die Veränderung im Verlauf eines Jahres ließ sich mit dieser Methode verfolgen. Für Längsschnittuntersuchungen, die sich mit der kortikalen Aktivierung als Prädiktor für dementielle Entwicklungen beschäftigen, bietet sich fNIRS somit als praktische Alternative zur fMRT an, zumal die gemessenen Veränderungen in der Oxygenierung auch prognostischen Wert für ältere Kontrollpersonen besaßen. Vor allem die funktionelle Lateralisierung in frontalen Kortexbereichen scheint als Prädiktor kognitiver Leistungen im Alter von Bedeutung zu sein.
Herzinsuffizienz ist eine sehr häufige Erkrankung vor allem des höheren Lebensalters. Biomarker wie NT-proBNP, BNP, hsCRP haben neben ihrer Bedeutung für die Diagnose einer akuten Herzinsuffizienz einen großen Stellenwert in der Abschätzung der Prognose eines Patienten. Die prognostische Relevanz dieser Marker konnte auch bei nicht herzinsuffizienten, anderweitig kranken Patienten gezeigt werden. Unklar und wenig erforscht ist die Aussagekraft von Biomarkern in einem Kollektiv nicht akut dekompensierter Patienten, welche sich ambulant bei ihrem Hausarzt vorstellen. Die Handheld-BNP-Studie untersuchte im primärärztlichen Bereich das diagnostische Potential von BNP und der miniaturisierten Echokardiographie. Die vorliegende Follow-up-Studie untersucht die prognostische Relevanz von BNP sowie vergleichend den prognostischen Wert von NT-proBNP und der Kardiologendiagnose. Auch die prognostische Aussagekraft der inflammatorischen Marker hsCRP und TNF-ɑ, ebenso wie die Frage, ob durch eine Kombination der Marker die prognostische Abschätzung weiter gesteigerter werden kann, ist Gegenstand dieser Arbeit. Zuletzt wurde eine multivariate Regressionsanalyse durchgeführt, um den unabhängigen prognostischen Wert der Biomarker zu untersuchen. Es konnte gezeigt werden, dass bei diagnostisch naiven Patienten mit dem klinisch-anamnestischen Verdacht auf das Vorliegen einer Herzinsuffizienz das kardiale wie auch das nicht-kardiale Mortalitätsrisiko sowie die Rate an Hospitalisierungen gegenüber der Allgemeinbevölkerung gleichen Alters erhöht sind, unabhängig vom Vorliegen einer Herzinsuffizienz. Eine Bestimmung der Biomarker BNP, NT-proBNP, hsCRP und TNF-ɑ erwies sich in diesem Kollektiv als hilfreich, diejenigen mit erhöhtem Risiko zu erkennen.
Einleitung: Narbenhernien sind mit einer Prävalenz von bis zu 20% die häufigste Komplikation nach Laparotomie. Im Jahr 2005 wurden 34.708 Narbenhernienpatienten in Deutschland operiert. Nahtrekonstruktionen weisen hohe Rezidivraten auf und die Komplexität der Bauchdeckenrekonstruktion nach einer Narbenhernie erfordert einen differenzierten Lösungsansatz. Bislang konnte kein Klassifikationssystem etabliert werden, welches das individuelle Risikoprofil des Patienten beschreibt. In der Arbeit wird eine neue Klassifikation vorgeschlagen, die sich an den morphologischen Eigenschaften orientiert. Die Relevanz der neuen Klassifikation auf den postoperativen Verlauf wurde am eigenen Patientenkollektiv überprüft. Material und Methoden: Die Untersuchung erfasst alle in der Zeit vom Januar 1999 bis zum Dezember 2006 an der Universitätsklinik Würzburg operierten Patienten mit Inzisionalen und Ventralen Hernien. Neben der Erhebung der patienteneigenen Risikofaktoren wurden der intraoperative Befund, die Operationsverfahren und der perioperative Verlauf evaluiert. Bei der Aufnahme dieser Daten werden die Bruchwertigkeit, die Bruchmorphologie, die Bruchgröße sowie die kumulativ bewerteten Risikofaktoren codiert. Anschließend wurde eine Follow-up Untersuchung mit einem Fragebogen an die Patienten und Hausärzte verteilt, die besonderen Wert auf die Entstehung eines Neurezidivs sowie chronischer Beschwerden legte. Ergebnisse: Insgesamt wurden 359 Patienten untersucht. Es gab signifikante Gruppenunterschiede zwischen Ventralhernien und den Inzisionalen Hernien. Die Untersuchungen für die Narbenhernienpopulation ergab, dass Rezidivpatienten weitaus mehr Risikofaktoren aufzeigten. Patienten mit medialen und Typ-sp (suprapubisch) Hernien befanden sich häufiger in der Rezidivsituation. Primärhernien wurden häufiger mit einem Nahtverfahren, die medialen Hernien (Typ-m) eher mit einem Netzverfahren operiert. Insgesamt versorgten Netzrekonstruktionen, speziell die IPOM-Meshes die größten Bruchflächen. Das Risiko eines Neurezidivs war bei in der Vorgeschichte bestehenden Wundkomplikationen erhöht. Ebenso, wenn im stationären Verlauf eine Komplikationen besonders eine Wundinfektionen auftraten, so war dies mit einem höheren Rezidivrisiko verbunden. Die Rekonstruktion mit Netzen führte insgesamt zu weniger Rezidiven aber vermehrt zu chronischen Komplikationen. Die Sublay und IPOM Netze stellten sich als die sichersten Verfahren heraus. Die Onlayrekonstruktion führte zu mehr Infektionen und die Underlaymeshes waren mit mehr Seromen verbunden. Die Nahtverfahren präsentierten sich mit weniger chronischen Schmerzen. Die Überprüfung der klassifizierten Merkmale erbrachte folgende Ergebnisse: Patienten mit mehrfachen Rezidiven hatten im Verlauf mehr Komplikationen und chronische Beschwerden. Bei der Morphologie zeigten die Typ-m Hernien weniger Serome und weniger Schmerzen im Verlauf. Bei den sp-Typen handelte es sich um einen morphologischen Typ, der zu mehr Infektionen, Blutungen und Schmerzen neigte. Die kleinen Typ-u (umbilikal) Hernien, sowie lateral lokalisierte Brüche präsentierten sich mit weniger chronischen Beschwerden. Insgesamt hatten größere Brüche über 50cm2 mehr Komplikationen, Neurezidive und chronische Beschwerden. Brüche über 25cm2 konnten nicht suffizient mit Nahtverfahren rekonstruiert werden. Es bestand eine Korrelation aus präoperativ bewerteten Risikofaktoren und Komplikationen. Hochrisikopatienten entwickelten zunehmend mehr Neurezidive. Diskussion: Die Klassifikation eignet sich, um Hernien und ihre Prognose abzubilden und gibt Hinweise auf mögliche Behandlungsstrategien. Es sollten die Populationen der Ventralen von den Inzisionalen Hernien abgegrenzt werden. Die Ventralen Hernien haben eine geringere Morbidität und ein besseres Risikoprofil, sie können mit Nahtverfahren effizienter versorgt werden. Bei den Operationsverfahren bestätigen sich Angaben der Literatur, dass Narbenhernien nicht mit Nahtverfahren rekonstruiert werden sollten. Der Vergleich der Netze weist analog zur Studienlage einen Vorteil der Sublay und IPOM Rekonstruktion nach. Auch wenn sich die Wertigkeit der Hernie als nicht relevant für den prognostischen Rezidivverlauf zeigte, so werden mehr Komplikationen erwartet und die Wertigkeit hat darin ihren Stellenwert. Die Abgrenzung der Morphologie von den Rekonstruktionsverfahren in Abhängigkeit von der Prognose ist schwierig. Es zeigen sich dennoch gewisse Prädispositionsstellen. Die Bruchgröße des Ausgangsbefundes ist insgesamt prognostisch relevant und zeigt, dass die Indikation zur Versorgung früh gestellt werden sollte, um Rezidive und chronische Beschwerden zu vermeiden. Die Risikofaktoren zeigen eine Korrelation mit dem Rezidivrisiko, für die Wundkomplikationen konnte deren besondere Bedeutung nachgewiesen werden. Insgesamt sind weniger die Einzelfaktoren als die multifaktorielle Betrachtung relevant. Die Klassifikation kann sich in ihrer Anwendung behaupten, sollte aber in prospektiven Studien weiter evaluiert werden.
Die vorliegende Arbeit überprüft an einem nach Alter, Geschlecht, Barthel-Index und Mini-Mental-State-Test gematchten geriatrischen Patientenkollektiv mit erstmaligem Schlaganfall die Wirksamkeit einer vorausgegangenen Akutbehandlung an einer Stroke Unit (n=59) gegenüber einer allgemeinen (internistischen oder neurologischen) stationären Akutbehandlung (n=59) für die Prognose im Laufe einer nachfolgenden geriatrischen Rehabilitationsbehandlung. Hintergrund dieser Frage ist der erhöhte ökonomische Druck im Gesundheitswesen, der eine Effizienzprüfung einer personell, technisch und logistisch aufwändigeren und damit teureren Behandlung auf einer Spezialstation verlangt. Bei Anwendung zahlreicher funktioneller Skalen und Erhebung einiger sozioökonomischer Faktoren zeigte sich auf Signifikanzniveau, dass die auf Stroke Unit Vorbehandelten bei Aufnahme in die Rehabilitation motorisch schwerer beeinträchtigt waren (timed up and go-Test p=0,044, Lachs-Test p=0,34) und sich dann ausgeprägter (Transferleistung p=0,024) auf ein bei Rehabilitationsende schließlich vergleichbares Leistungsniveau verbesserten. Die ursprünglich geplante Langzeiteffizienzbetrachtung im Gruppenvergleich scheiterte an Datenschutzbedenken. Gesundheitsökonomisch relevant ist, dass die Vorverweildauer im Akutkrankenhaus bei Stroke Unit-Patienten sechs Tage kürzer war, die Rehabilitationsdauer allerdings vier Tage länger. Weitergehende Kostenbetrachtungen scheiterten am Unwillen zur Leistungsoffenlegung verschiedener Beteiligter im Gesundheitssystem. Eine plausible Erklärung für diese positive motorische Leistungsweiterentwicklung nach Stroke Unit-Vorbehandlung kann in einer frühzeitigeren und effektiveren Anstrengung durch Krankengymnastik, Ergotherapie, Logopädie, aktivierende Pflege, „enriched environment“ gesucht werden, die sich positiv auf die Plastizität im Gehirn als wesentliche Bedingung zur Funktionswiedergewinnung auswirken könnte, was aber noch umstritten ist und Ziel weiterer Untersuchungen sein muss.
169 Patienten mit Schilddrüsenmalignomen (65 männlich, 104 weiblich), im Erhebungszeitraum vom 01.01.1969 bis 01.07.1995, wurden retrospektiv bezüglich der verschiedenen Karzinomentitäten, der gewählten Operationsmethode und Operationsradikalität, sowie des postoperativen TNM- und UICC-Stadiums ausgewertet. Schwerpunkt der Auswertung lag auf Beobachtung von Überlebenszeit, Tumorletalität, Entstehung locoregionärer Rezidive (Lokalrezidive, Lymphknotenrezidive) rezidivfreie Zeit und Auftreten von Fernmetastasen im Vergleich niedriger zu höheren Tumorklassen. Die Resultate zeigten, daß papilläre Schilddrüsenkarzinome im Vergleich zu medullären und anaplastischen Karzinomen die beste, anaplastische Schilddrüsenkarzinome die schlechteste Prognose aufweisen. Rezidive traten bei allen Schilddrüsenmalignomen auf, jedoch fand sich ein Einfluß des histologischen Typ auf die Rezidivhäufigkeit in Abhängigkeit vom Stadium. Statistisch signifikante Unterschiede fanden sich im Vergleich R0- versus R1/R2-Resektion, so daß beim Schilddrüsenkarzinom unbedingt die vollständige Tumorentfernung angestrebt werden muß. Die Lymphadenektomie bietet beim differenzierten Karzinom im Stadium N0 keinen Vorteil, hingegen sollte im Stadium N1 Kompartment-orientiert vorgegangen werden. Aufgrund der frühen Metastasierung in die Lymphknoten ist beim medullären Schilddrüsenkarzinom eine Lymphknotendissektion der Kompartimente I – III unabhängig vom Stadium, sowohl bei Lymphknotenbefall, als auch Lymphknoten-negativen Patienten anzustreben, einschließlich der Ausräumung des Kompartment IV bei vorliegenden Lymphknotenfiliae im antero-superioren Mediastinum. Aus den Ergebnissen kann abgeleitet werden, daß Thyreoidektomie en Prinzip bei allen Malignomen erfolgen sollte, um okkulte Tumoranteile und eventuell vorliegende Mikrometastasen zu entfernen. Thyreoidektomie beim differenzierten Schilddrüsenkarzinom, um die Möglichkeit der Radiojod-Therapie (RJT) zur Ablation des möglich verbliebenen Schilddrüsengewebes und möglicher bzw. vorhandener Filiae zu verbessern. Ausnahme ist ein, nach beidseitiger subtotaler Schilddrüsenresektion zufällig gefundenes solitäres okkultes papilläres Mikrokarzinom (pT1a), sofern der Tumor im Gesunden reseziert ist und Hinweise auf Lymphknotenfiliae fehlen. Selektive Lymphadenektomieverfahren werden nur beim differenzierten Schilddrüsenkarzinom im Stadium I und II nach UICC angewandt. Durchführung einer modifiziert radikalen Neck-Dissektion ist bei allen medullären Schilddrüsenkarzinomen unabhängig vom Stadium, sowie bei papillärem und follikulärem Schilddrüsenkarzinom im Stadium III und IV indiziert. Bei differenzierten Schilddrüsenkarzinomen erbringt die postoperative RJT einen signifikanten Vorteil in Rezidivrate und Prognose.