Refine
Has Fulltext
- yes (25)
Is part of the Bibliography
- yes (25)
Year of publication
Document Type
- Doctoral Thesis (22)
- Journal article (3)
Keywords
- Prognose (25) (remove)
Institute
- Medizinische Klinik und Poliklinik I (4)
- Pathologisches Institut (4)
- Institut für Psychologie (bis Sept. 2007) (3)
- Graduate School of Life Sciences (2)
- Institut für Informatik (2)
- Klinik und Poliklinik für Allgemein-, Viszeral-, Gefäß- und Kinderchirurgie (Chirurgische Klinik I) (2)
- Institut für Geographie (1)
- Institut für Mathematik (1)
- Institut für Psychologie (1)
- Institut für Virologie und Immunbiologie (1)
Sonstige beteiligte Institutionen
In der vorliegenden Arbeit wurden der klinische Verlauf der Tumorerkrankung von 40 Kindern, die an einem Ependymom erkrankten, erfasst und 58 Tumorproben mittels immunhistochemischer Methoden untersucht. Im Mittelpunkt dieser Untersuchungen standen die Überprüfung der p53-Akkumulation, der Proliferationsaktivität mit Hilfe des Antikörpers MIB-1 sowie der Expression von HLA-DR durch Tumorzellen und eine Einschätzung der prognostischen Aussagekraft dieser Faktoren. Weiterhin wurde die EMA-Expression untersucht und eine Schwerpunkt auf die Analyse von Verteilung und Proliferationsaktivität der Zellen des Mikroglia(MG)/Makrophagen-Systems in kindlichen Ependymomen gelegt. Das mittlere Alter bei Diagnosestellung lag bei 61 Monaten (8 Monate bis 15 4/12 Jahre, Median: 41 Monate), eine Geschlechtspräferenz lag nicht vor. 22,5% der Primärtumoren waren supratentoriell, 60% infratentoriell und 17,5% spinal lokalisiert. 52,5% der Primärtumoren waren anaplastische Ependymome (WHO Grad III), 40% Ependymome (WHO Grad II), 7,5% myxopapilläre Ependymome (WHO Grad I). Eine totale Resektion konnte in 30,8% bei Primärtumoren und in 27,3% bei Rezidivtumoren erzielt werden. Das mittlere Nachbeochtungsintervall betrug 52 Monate (6-163 Monate), das mittlere progrssionsfreie Interval (PFS) 28 Monate und der mittlere Überlebenszeitraum (OS) 64 Monate. Tumorrezidive entwickelten sich mit einer Ausnahme eines Spätrezidives nach 84 Monaten innerhalb von 36 Monaten nach der operativen Tumorentfernung. Von den klinischen Variablen weist einzig das Resektionsausmaß eine prognostische Bedeutung auf (total vs. inkomplett: p=0.035 bezüglich des mittleren PFS, p=0.12 bezüglich des mittleren OS). Alle anderen klinischen Variablen, einschließlich des Tumorgrades nach WHO, zeigen keinen Einfluss auf den Verlauf der Tumorerkrankung. p53-Akkumulation kommt in 56,9% der untersuchten Tumorproben vor und korreliert mit dem Tumorgrad nach WHO, dem MIB-1 Labeling Index (LI) und der Lokalisation. Der MIB-1 LI zeigt eine große Streubreite (1,4% - 63,3%) und weist entsprechend des untersuchten Patientenkollektivs im Gegensatz zu Ependymomen des Erwachsenenalters einen hohen Mittelwert und Median auf (21,8% bzw. 19,8%). Der MIB-1 LI korreliert statistisch signifikant mit dem WHO-Graduierungssystem, der Lokalisation und wie bereits erwähnt mit der p53-Akkumulation. Unter den immunhistochemisch untersuchten Variablen kommt lediglich dem MIB-1 LI im untersuchten Patientenkollektiv eine gewisse prognostische Aussagekraft zu. Statistische Signifikanz wird allerdings nicht erreicht (MIB-1 LI <10% vs. MIB-1 LI >10%: p=0.17 bezüglich des mittleres PFS). Erstmals wurde in 80,4% der untersuchten ependymalen Tumoren auch eine Proliferation von Zellen des MG/Makrophagen-Systems nachgewiesen. Bei weitgehend konstant niedriger absoluter Anzahl proliferierender Zellen des MG/Makrophagen-Systems existiert kein Unterschied diesbezüglich zwischen den Tumorgraden wie kürzlich bei astrozytären Tumoren nachgewiesen. Die Verteilung der Zellen des MG/Makrophagen-Systems zeigte bei sehr heterogenem Verteilungsmuster häufig eine septale Anordnung insbesondere der amöboiden MG und der Makrophagen. Es existieren unterschiedliche Verteilungsmuster mikroglialer Zellen und Makrophagen, die sich aber anderen Parametern nicht zuordnen lassen mit der Ausnahme der MG/Makrophagen-Zelldichte in Primärtumoren. Obwohl eine HLA-DR Expression durch Tumorzellen auch in anderen Neoplasien des ZNS häufig vorkommt, wurden Ependymome diesbezüglich bisher nicht untersucht. In 52,6% aller Tumorproben finden sich in der vorliegenden Arbeit HLA-DR exprimierende Tumorzellen. Eine EMA-Expression zeigt sich in 84,5% der untersuchten Fälle und ist damit ein Charakteristikum ependymaler Neoplasien, das auch als differentialdiagnostisches Kriterium angesehen werden kann. Die Ergebnisse der vorliegenden Arbeit bekräftigen den hohen prognostischen Stellenwert einer totalen Resektion in der Therapie ependymaler Tumoren des Kindesalters. Weiterhin wird die Bedeutung der Proliferationsaktivität für den klinischen Verlauf der Tumorerkrankung unterstrichen. Von großem wissenschaftlichem Interesse ist weiterhin die Klärung der Ursache und Bedeutung der häufig anzutreffenden p53-Akkumulation sowie der immunologischen Bedeutung der Zellen des MG/Makrophagen-Systems im Rahmen der Tumorabwehr.
Machine-Learning-Based Identification of Tumor Entities, Tumor Subgroups, and Therapy Options
(2023)
Molecular genetic analyses, such as mutation analyses, are becoming increasingly important in the tumor field, especially in the context of therapy stratification. The identification of the underlying tumor entity is crucial, but can sometimes be difficult, for example in the case of metastases or the so-called Cancer of Unknown Primary (CUP) syndrome. In recent years, methylome and transcriptome utilizing machine learning (ML) approaches have been developed to enable fast and reliable tumor and tumor subtype identification. However, so far only methylome analysis have become widely used in routine diagnostics.
The present work addresses the utility of publicly available RNA-sequencing data to determine the underlying tumor entity, possible subgroups, and potential therapy options. Identification of these by ML - in particular random forest (RF) models - was the first task. The results with test accuracies of up to 99% provided new, previously unknown insights into the trained models and the corresponding entity prediction. Reducing the input data to the top 100 mRNA transcripts resulted in a minimal loss of prediction quality and could potentially enable application in clinical or real-world settings.
By introducing the ratios of these top 100 genes to each other as a new database for RF models, a novel method was developed enabling the use of trained RF models on data from other sources.
Further analysis of the transcriptomic differences of metastatic samples by visual clustering showed that there were no differences specific for the site of metastasis. Similarly, no distinct clusters were detectable when investigating primary tumors and metastases of cutaneous skin melanoma (SKCM).
Subsequently, more than half of the validation datasets had a prediction accuracy of at least 80%, with many datasets even achieving a prediction accuracy of – or close to – 100%.
To investigate the applicability of the used methods for subgroup identification, the TCGA-KIPAN dataset, consisting of the three major kidney cancer subgroups, was used. The results revealed a new, previously unknown subgroup consisting of all histopathological groups with clinically relevant characteristics, such as significantly different survival. Based on significant differences in gene expression, potential therapeutic options of the identified subgroup could be proposed.
Concludingly, in exploring the potential applicability of RNA-sequencing data as a basis for therapy prediction, it was shown that this type of data is suitable to predict entities as well as subgroups with high accuracy. Clinical relevance was also demonstrated for a novel subgroup in renal cell carcinoma. The reduction of the number of genes required for entity prediction to 100 genes, enables panel sequencing and thus demonstrates potential applicability in a real-life setting.
Langfristige Prognosen sportmotorischer Leistungen sowie die Kenntnis relevanter Einflussfaktoren auf die motorische Entwicklung gewinnen angesichts des veränderten Bewegungsverhaltens und der Zunahme motorischer Defizite von Kindern und Jugendlichen immer stärker an Bedeutung. Der bisherige Forschungsstand zur Stabilität und Vorhersage sportlicher Leistungsfähigkeit beschränkt sich bisher jedoch fast ausschließlich auf retrospektive Studien oder aber auf Längsschnittstudien, die nur einen begrenzten Lebensabschnitt erfassen. Im Vordergrund der vorliegenden multivariaten Längsschnittstudie steht die empirische Analyse potentieller personinterner und personexterner Einflussfaktoren auf die Entwicklung motorischer – insbesondere koordinativer - Fähigkeiten vom Vorschul- bis ins frühe Erwachsenenalter. Außerdem sollte versucht werden, die Ausprägung sportlicher Aktivität und motorischer Fähigkeiten im frühen Erwachsenenalter möglichst gut durch potentielle Prädiktoren aus der Kindheit vorherzusagen. Als theoretischer Rahmen wurde ausgehend von einem fähigkeitsorientierten Ansatz das transaktionale Handlungsmodell von Baur (1989, 1994) ausgewählt, das sowohl endogene als auch exogene Einflussfaktoren auf die motorische Entwicklung berücksichtigt. Die Daten zur motorischen, somatischen und psychischen Entwicklung wurden im Rahmen der Münchner Längsschnittstudie zur Genese individueller Kompetenzen (LOGIK) an 152 Mädchen und Jungen im Alter von 4, 5, 6, 8, 10, 12 und 23 Jahren erhoben. Es zeigen sich bereits im Vorschulalter substantielle Stabilitätskoeffizienten zu den motorischen Leistungen im frühen Erwachsenenalter, die ab dem Grundschulalter auf mittelhohe Werte ansteigen. Als bedeutsame Einflussfaktoren auf die motorische Entwicklung erweisen sich neben der sportlichen Aktivität und dem BMI auch die nonverbale Intelligenz und das athletische Selbstkonzept. In Abhängigkeit von der Schullaufbahn, dem sozioökonomischen Status sowie der Sportvereinszugehörigkeit können Unterschiede im motorischen Entwicklungsverlauf nur zum Teil nachgewiesen werden. Einen nachhaltigen Einfluss auf die motorische Entwicklung bis ins frühe Erwachsenenalter besitzt dagegen das frühe sportive Anregungsniveau im Elternhaus. Mittels schrittweiser Regression können unter Einbezug motorischer, somatischer, kognitiver, persönlichkeitsbezogener und soziodemographischer Merkmale im Vorschulalter bereits bis zu 31%, ab dem Grundschulalter bis zu 46% der Varianz motorischer Leistungen mit 23 J. aufgeklärt werden. Für eine befriedigende Prognose späterer motorischer Leistungen sollten deshalb neben den motorischen Leistungskomponenten auch somatische, kognitive, persönlichkeitsbezogene und sozialisationsbedingte Einflüsse berücksichtigt werden. Die relativ hohe Stabilität motorischer Fähigkeiten ab dem Grundschulalter deutet darauf hin, dass bereits in der Kindheit die Grundlagen für die weitere motorische Entwicklung gelegt werden. Ein effizienter Ansatzpunkt zur Intervention scheint hier vor allem die Förderung von sportlicher Aktivität und Sportinteresse im Elternhaus zu sein.
Im vorliegenden Beitrag werdenneuere nends in der Forschung zur frühen Prognose von Leseleistungen dargestellt. Der Überblick ergibt, daß sich insbesondere solche Forschungsarbeiten bewährt haben, die an kognitiven Informationsverarbeitungsmodellen orientiert sind. Über die Verknüpfung von korrelativen Längsschnitt- und experimentellen Trainingsstudien ließ sich belegen, daß die im Vorschul- bzw. Kindergartenalter beobachtete Informationsverarbeitungskompetenz eine kausale Beziehung zu der schulischen Leseleistung aufwies. Es wurde weiterhin gezeigt, daß phonologische Kompetenzen im Vorschulalter auch effizient trainiert werden können. Trotz dieser insgesamt beeindruckenden Befunde scheinen individuelle Prognosen des Schriftspracherwerbs nach wie vor jedoch problematisch.
Unter Einbezug von modellsimulierten großskaligen Geopotential-, Feuchte- und Meeresoberflächentemperaturfeldern für Szenarien eines anthropogen verstärkten Treibhauseffekts wird der Niederschlag bzw. die Temperatur im Mittelmeerraum für das 21. Jahrhundert mit der Methode des statistischen Downscalings abgeschätzt. Die als Gitterfelder mit 0.5° räumlicher Auflösung vorliegenden Niederschlags- und Temperaturdaten des CRU-(Climatic Research Unit in Norwich) Datensatzes werden jeweils mittels s-modaler Hauptkomponentenanalyse in Regionen unterteilt. Die resultierenden Zeitreihen der regionalen Variationszentren offenbaren dabei unterschiedliche Niederschlags- und Temperaturverhältnisse in den verschiedenen mediterranen Teilregionen im Untersuchungszeitraum 1948-1998. Als großskalige Einflussgrößen dienen Reanalysedaten des NCEP/NCAR (National Centers for Environmental Prediction/ National Center for Atmospheric Research) der geopotentiellen Höhen der 1000hPa-und 500hPa-Niveaus und der spezifischen Feuchte im 1000hPa-Niveau. Als ozeanische Einflussgrößen werden Meeresoberflächentemperaturdaten des Nordatlantiks und des Mittelmeers verwendet. Zur Dimensionsreduktion und zur Beseitigung linearer Abhängigkeiten gehen die verschiedenen Prädiktorfelder ebenfalls, jeweils getrennt, in s-modale Hauptkomponentenanalysen ein. Anschließend wird der Verlauf des Niederschlags bzw. der Temperatur der regionalen Variationszentren in den Monaten Oktober bis Mai 1948-1998 mit der großräumigen atmosphärischen und ozeanischen Variabilität im gleichen Zeitraum verknüpft. Dies geschieht in mehreren Kalibrierungsabschnitten unter Verwendung von Kanonischen Korrelationsanalysen und multiplen Regressionsanalysen. Die erstellten statistischen Zusammenhänge werden dann in von der Kalibrierung unabhängigen Verifikationszeiträumen überprüft. Die erzielten Modellgüten in den Verifikationsperioden werden herangezogen, um die besten statistischen Modelle für die Zukunftsabschätzungen auszuwählen. Dabei zeigt sich, dass für den mediterranen Niederschlag die besten Modellgüten im Allgemeinen mit der Prädiktorenkombination 1000hPa-/500hPa-Geopotential und spezifische Feuchte erzielt werden können. Die Temperatur im Mittelmeerraum lässt hingegen den stärksten Zusammenhang mit Werten der 1000hPa-/500hPa-geopotentiellen Höhen erkennen. Durch Einsetzen von modellsimulierten Werten der Prädiktoren in die Regressions-bzw. Kanonischen Korrelationsgleichungen wird schließlich die Reaktion der regionalen Klimavariablen Niederschlag bzw. Temperatur auf Veränderungen der großskaligen Zirkulations-, Feuchte- und Meeresoberflächentemperaturanomalien unter Bedingungen eines anthropogen verstärkten Treibhauseffektes abgeschätzt. Je nach verwendeter Methode und einbezogener Prädiktorenkombination zeigen sich teils erhebliche Unterschiede in den Abschätzungsergebnissen. So wird zum Beispiel bei den bedingten Abschätzungen für das 21. Jahrhundert der zukünftige Niederschlagsverlauf zum Teil erheblich abgewandelt, wenn modellsimulierte Feuchtewerte zusätzlich zu den Geopotentialinformationen einbezogen werden. Für die bedingten Abschätzungen des regionalen Klimas im Mittelmeerraum im 21. Jahrhundert werden Prädiktoren-Modellergebnisse zweier verschiedener IPCC- (Intergovernmental Panel on Climate Change) Emissionsszenarien herangezogen. Zum einen werden modellsimulierte Werte nach IS92a- Szenario herangezogen, zum anderen solche nach jüngstem SRESB2-Szenario. Aus beiden verwendeten Szenarienrechnungen gehen im Allgemeinen gleichförmige Tendenzen bei der Entwicklung der Niederschlagssummen im Mittelmeerraum unter anthropogener Verstärkung des Treibhauseffektes im 21. Jahrhundert hervor. Unter Verwendung von Prädiktorenwerten des Hamburger Klimamodells ECHAM4 nach SRESB2-Szenario (großskalige Einflussgrößen: 1000hPa-/500hPa-geopotentielle Höhen und 1000hPa-spezifische Feuchte) ergibt sich für den westlichen und nördlichen Mittelmeerraum bei einer anthropogenen Verstärkung des Treibhauseffektes eine Verkürzung mit gleichzeitiger Intensitätszunahme der "feuchten" Jahreszeit. Dies äußert sich darin, dass im Winter in diesen Regionen Niederschlagszunahmen im Zeitraum 2071-2100 im Vergleich zu 1990-2019 abgeschätzt werden, während im Herbst und Frühjahr Niederschlagsrückgänge überwiegen. In den östlichen und südlichen Teilen des Mittelmeerraumes zeigen sich hingegen für die Monate Oktober bis Mai fast ausschließlich negative Niederschlagstendenzen unter Bedingungen eines anthropogen verstärkten Treibhauseffektes. Für die Temperatur wird unter Verwendung von Modellwerten der großskaligen Einflussgrößen 1000hPa-/500hPa-geopotentielle Höhen unter SRESB2-Szenariobedingungen ein Temperaturanstieg im gesamten Mittelmeerraum für alle untersuchten Monate (Oktober bis Mai) im Zeitraum 2071 bis 2100 im Vergleich zum Abschnitt 1990-2019 abgeschätzt. Die Erhöhung ist im Herbst und zu Beginn des Frühjahrs insgesamt am stärksten ausgeprägt.
Die vorliegende Arbeit überprüft an einem nach Alter, Geschlecht, Barthel-Index und Mini-Mental-State-Test gematchten geriatrischen Patientenkollektiv mit erstmaligem Schlaganfall die Wirksamkeit einer vorausgegangenen Akutbehandlung an einer Stroke Unit (n=59) gegenüber einer allgemeinen (internistischen oder neurologischen) stationären Akutbehandlung (n=59) für die Prognose im Laufe einer nachfolgenden geriatrischen Rehabilitationsbehandlung. Hintergrund dieser Frage ist der erhöhte ökonomische Druck im Gesundheitswesen, der eine Effizienzprüfung einer personell, technisch und logistisch aufwändigeren und damit teureren Behandlung auf einer Spezialstation verlangt. Bei Anwendung zahlreicher funktioneller Skalen und Erhebung einiger sozioökonomischer Faktoren zeigte sich auf Signifikanzniveau, dass die auf Stroke Unit Vorbehandelten bei Aufnahme in die Rehabilitation motorisch schwerer beeinträchtigt waren (timed up and go-Test p=0,044, Lachs-Test p=0,34) und sich dann ausgeprägter (Transferleistung p=0,024) auf ein bei Rehabilitationsende schließlich vergleichbares Leistungsniveau verbesserten. Die ursprünglich geplante Langzeiteffizienzbetrachtung im Gruppenvergleich scheiterte an Datenschutzbedenken. Gesundheitsökonomisch relevant ist, dass die Vorverweildauer im Akutkrankenhaus bei Stroke Unit-Patienten sechs Tage kürzer war, die Rehabilitationsdauer allerdings vier Tage länger. Weitergehende Kostenbetrachtungen scheiterten am Unwillen zur Leistungsoffenlegung verschiedener Beteiligter im Gesundheitssystem. Eine plausible Erklärung für diese positive motorische Leistungsweiterentwicklung nach Stroke Unit-Vorbehandlung kann in einer frühzeitigeren und effektiveren Anstrengung durch Krankengymnastik, Ergotherapie, Logopädie, aktivierende Pflege, „enriched environment“ gesucht werden, die sich positiv auf die Plastizität im Gehirn als wesentliche Bedingung zur Funktionswiedergewinnung auswirken könnte, was aber noch umstritten ist und Ziel weiterer Untersuchungen sein muss.
The importance of proactive and timely prediction of critical events is steadily increasing, whether in the manufacturing industry or in private life. In the past, machines in the manufacturing industry were often maintained based on a regular schedule or threshold violations, which is no longer competitive as it causes unnecessary costs and downtime. In contrast, the predictions of critical events in everyday life are often much more concealed and hardly noticeable to the private individual, unless the critical event occurs. For instance, our electricity provider has to ensure that we, as end users, are always supplied with sufficient electricity, or our favorite streaming service has to guarantee that we can watch our favorite series without interruptions. For this purpose, they have to constantly analyze what the current situation is, how it will develop in the near future, and how they have to react in order to cope with future conditions without causing power outages or video stalling.
In order to analyze the performance of a system, monitoring mechanisms are often integrated to observe characteristics that describe the workload and the state of the system and its environment. Reactive systems typically employ thresholds, utility functions, or models to determine the current state of the system. However, such reactive systems cannot proactively estimate future events, but only as they occur. In the case of critical events, reactive determination of the current system state is futile, whereas a proactive system could have predicted this event in advance and enabled timely countermeasures. To achieve proactivity, the system requires estimates of future system states. Given the gap between design time and runtime, it is typically not possible to use expert knowledge to a priori model all situations a system might encounter at runtime. Therefore, prediction methods must be integrated into the system. Depending on the available monitoring data and the complexity of the prediction task, either time series forecasting in combination with thresholding or more sophisticated machine and deep learning models have to be trained.
Although numerous forecasting methods have been proposed in the literature, these methods have their advantages and disadvantages depending on the characteristics of the time series under consideration. Therefore, expert knowledge is required to decide which forecasting method to choose. However, since the time series observed at runtime cannot be known at design time, such expert knowledge cannot be implemented in the system. In addition to selecting an appropriate forecasting method, several time series preprocessing steps are required to achieve satisfactory forecasting accuracy. In the literature, this preprocessing is often done manually, which is not practical for autonomous computing systems, such as Self-Aware Computing Systems. Several approaches have also been presented in the literature for predicting critical events based on multivariate monitoring data using machine and deep learning. However, these approaches are typically highly domain-specific, such as financial failures, bearing failures, or product failures. Therefore, they require in-depth expert knowledge. For this reason, these approaches cannot be fully automated and are not transferable to other use cases. Thus, the literature lacks generalizable end-to-end workflows for modeling, detecting, and predicting failures that require only little expert knowledge.
To overcome these shortcomings, this thesis presents a system model for meta-self-aware prediction of critical events based on the LRA-M loop of Self-Aware Computing Systems. Building upon this system model, this thesis provides six further contributions to critical event prediction. While the first two contributions address critical event prediction based on univariate data via time series forecasting, the three subsequent contributions address critical event prediction for multivariate monitoring data using machine and deep learning algorithms. Finally, the last contribution addresses the update procedure of the system model. Specifically, the seven main contributions of this thesis can be summarized as follows:
First, we present a system model for meta self-aware prediction of critical events. To handle both univariate and multivariate monitoring data, it offers univariate time series forecasting for use cases where a single observed variable is representative of the state of the system, and machine learning algorithms combined with various preprocessing techniques for use cases where a large number of variables are observed to characterize the system’s state. However, the two different modeling alternatives are not disjoint, as univariate time series forecasts can also be included to estimate future monitoring data as additional input to the machine learning models. Finally, a feedback loop is incorporated to monitor the achieved prediction quality and trigger model updates.
We propose a novel hybrid time series forecasting method for univariate, seasonal time series, called Telescope. To this end, Telescope automatically preprocesses the time series, performs a kind of divide-and-conquer technique to split the time series into multiple components, and derives additional categorical information. It then forecasts the components and categorical information separately using a specific state-of-the-art method for each component. Finally, Telescope recombines the individual predictions. As Telescope performs both preprocessing and forecasting automatically, it represents a complete end-to-end approach to univariate seasonal time series forecasting. Experimental results show that Telescope achieves enhanced forecast accuracy, more reliable forecasts, and a substantial speedup. Furthermore, we apply Telescope to the scenario of predicting critical events for virtual machine auto-scaling. Here, results show that Telescope considerably reduces the average response time and significantly reduces the number of service level objective violations.
For the automatic selection of a suitable forecasting method, we introduce two frameworks for recommending forecasting methods. The first framework extracts various time series characteristics to learn the relationship between them and forecast accuracy. In contrast, the other framework divides the historical observations into internal training and validation parts to estimate the most appropriate forecasting method. Moreover, this framework also includes time series preprocessing steps. Comparisons between the proposed forecasting method recommendation frameworks and the individual state-of-the-art forecasting methods and the state-of-the-art forecasting method recommendation approach show that the proposed frameworks considerably improve the forecast accuracy.
With regard to multivariate monitoring data, we first present an end-to-end workflow to detect critical events in technical systems in the form of anomalous machine states. The end-to-end design includes raw data processing, phase segmentation, data resampling, feature extraction, and machine tool anomaly detection. In addition, the workflow does not rely on profound domain knowledge or specific monitoring variables, but merely assumes standard machine monitoring data. We evaluate the end-to-end workflow using data from a real CNC machine. The results indicate that conventional frequency analysis does not detect the critical machine conditions well, while our workflow detects the critical events very well with an F1-score of almost 91%.
To predict critical events rather than merely detecting them, we compare different modeling alternatives for critical event prediction in the use case of time-to-failure prediction of hard disk drives. Given that failure records are typically significantly less frequent than instances representing the normal state, we employ different oversampling strategies. Next, we compare the prediction quality of binary class modeling with downscaled multi-class modeling. Furthermore, we integrate univariate time series forecasting into the feature generation process to estimate future monitoring data. Finally, we model the time-to-failure using not only classification models but also regression models. The results suggest that multi-class modeling provides the overall best prediction quality with respect to practical requirements. In addition, we prove that forecasting the features of the prediction model significantly improves the critical event prediction quality.
We propose an end-to-end workflow for predicting critical events of industrial machines. Again, this approach does not rely on expert knowledge except for the definition of monitoring data, and therefore represents a generalizable workflow for predicting critical events of industrial machines. The workflow includes feature extraction, feature handling, target class mapping, and model learning with integrated hyperparameter tuning via a grid-search technique. Drawing on the result of the previous contribution, the workflow models the time-to-failure prediction in terms of multiple classes, where we compare different labeling strategies for multi-class classification. The evaluation using real-world production data of an industrial press demonstrates that the workflow is capable of predicting six different time-to-failure windows with a macro F1-score of 90%. When scaling the time-to-failure classes down to a binary prediction of critical events, the F1-score increases to above 98%.
Finally, we present four update triggers to assess when critical event prediction models should be re-trained during on-line application. Such re-training is required, for instance, due to concept drift. The update triggers introduced in this thesis take into account the elapsed time since the last update, the prediction quality achieved on the current test data, and the prediction quality achieved on the preceding test data. We compare the different update strategies with each other and with the static baseline model. The results demonstrate the necessity of model updates during on-line application and suggest that the update triggers that consider both the prediction quality of the current and preceding test data achieve the best trade-off between prediction quality and number of updates required.
We are convinced that the contributions of this thesis constitute significant impulses for the academic research community as well as for practitioners. First of all, to the best of our knowledge, we are the first to propose a fully automated, end-to-end, hybrid, component-based forecasting method for seasonal time series that also includes time series preprocessing. Due to the combination of reliably high forecast accuracy and reliably low time-to-result, it offers many new opportunities in applications requiring accurate forecasts within a fixed time period in order to take timely countermeasures. In addition, the promising results of the forecasting method recommendation systems provide new opportunities to enhance forecasting performance for all types of time series, not just seasonal ones. Furthermore, we are the first to expose the deficiencies of the prior state-of-the-art forecasting method recommendation system.
Concerning the contributions to critical event prediction based on multivariate monitoring data, we have already collaborated closely with industrial partners, which supports the practical relevance of the contributions of this thesis. The automated end-to-end design of the proposed workflows that do not demand profound domain or expert knowledge represents a milestone in bridging the gap between academic theory and industrial application. Finally, the workflow for predicting critical events in industrial machines is currently being operationalized in a real production system, underscoring the practical impact of this thesis.
Prognostische und therapeutische Aspekte von Thymomen : eine retrospektive Studie von 582 Fällen
(2004)
Thymome sind seltene epitheliale Thymustumoren, die in der überwiegenden Zahl der Fälle die Fähigkeit zur Reifung und zum Export von T-Zellen behalten haben. Diese Fähigkeit ist als Ursache für die häufige Asoziation dieser Tumoren mit Autoimmunphänomenen (z.B Myasthenia gravis)anzunehmen. Die vorgelegte Studie zeigt die prognostische Relevanz der derzeit gültigen histologischen WHO-Klassifizierung von Thymomen. Das biologische Verhalten der einzelnen Thymomtypen korreliert dabei mit dem Ausmaß zytogenetischer Veränderungen. Wenige klinische und histologische Parameter wie der histologische Subtyp, Tumorstadium nach Masaoka sowie der Resektionsstatus reichen aus, um den Verlauf eines bestimmten Thymoms mit genügender Zuverlässigkeit prognostizieren zu können. Dies konnte in Übereinstimmung mit früheren Arbeiten in unserer Studie gezeigt werden. Somit müssen vor allem diese drei Parameter berücksichtigt werden, um eine adäquate Therapie einleiten zu können. Angaben zu Alters- und Geschlechtsverteilung können diese Befunde ergänzen, haben jedoch keine prognostische Signifikanz für die Wahl der Therapie. Die erhobenen Befunde der vorgelegten Follow-up Studie können als Grundlage prospektiver klinischer Therapiestudien dienen. Im Zentrum der Bemühungen sollte hierbei nach unseren Ergebnissen die Therapie von „high-risk“ Thymomen des Typ B und C stehen, bei denen eine primäre vollständige Resektion nicht möglich ist, oder bei denen zum Zeitpunkt der Operation bereits Metastasen bestehen. Therapieoptionen mit multimodalen Therapiestrategien müssen dafür noch weiter modifiziert und über längere Zeiträume erprobt werden. Zudem sollten klinische Studien mit Somatostatin-Analoga als neue Therapiemöglichkeit gefördert werden. Aufgrund der äußerst niedrigen Inzidenz von Thymomen und der niedrigen Frequenz von Patienten mit diesen ungünstigen Thymomverläufen werden diese Versuche nationale oder internationale Bemühungen erfordern.
Herzinsuffizienz ist eine sehr häufige Erkrankung im hohen Lebensalter mit zudem signifikant hoher Mortalität - vergleichbar mit der Mortalität häufiger Krebsarten. Biomarker wie die natriuretischen Peptide sind von großer Wichtigkeit hinsichtlich der Diagnosestellung und Prognoseabschätzung. Auch inflammatorische Marker, Copeptin sowie Mid-regionales Adrenomedullin (MR-proADM) haben eine wichtige Rolle sowohl in der Diagnosestellung der Herzinsuffizienz als auch in der Prognoseabschätzung eingenommen. Die Aussagekraft der Biomarker in einem diagnostisch naiven Kollektiv mit dem klinisch-anamnestischen Verdacht auf das Vorliegen einer Herzinsuffizienz ist jedoch bisher kaum untersucht worden.
Die Handheld-BNP-Studie schloss diagnostisch naive Patienten ein, die sich mit Symptomen passend zu einer Herzinsuffizienz beim Hausarzt vorstellten. Binnen 14 Tagen erfolgte die Referenzdiagnose durch einen niedergelassenen Kardiologen. Ziel war es, die diagnostische Aussagekraft von BNP und der miniaturisierten Echokardiographie im primärärztlichen Bereich zu überprüfen. Die vorliegenden Follow-Up-II-Untersuchung untersuchte die prognostische Aussagekraft moderner Biomarker (N-terminales B-natriuretisches Peptid (NT-proBNP), Mid-regionales atriales natriuretisches Peptid (MR-proANP), Mid-regionales Adrenomedullin (MR-proADM), Copeptin, Tumornekrosefaktor Alpha (TNF- α) und hochsensitives C-reaktives Protein (hsCRP)). Die Endpunkte waren Tod jeder Ursache sowie kardiovaskulärer Tod.
Insgesamt traten in unseren Analysen die natriuretischen Peptide mit ihrer prognostischen Aussagekraft hervor. In den univariaten Analysen zeigte sich das NT-proBNP als wichtigster Biomarker und in den multivariaten Analysen das MR-proANP.
Bei diagnostisch naiven Patienten, die sich mit Herzinsuffizienzsymptomen bei ihrem Hausarzt vorstellen, besteht ein hohes Mortalitätsrisiko. Um diese Patienten adäquat zu selektieren, eine leitliniengerechte Therapie einzuleiten und um das Fortschreiten der Erkrankung aufzuhalten, ist eine frühzeitige Diagnosestellung beim Kardiologen wichtig. Natriuretische Peptide sind prädiktiv, jedoch stellt das MR-proANP aufgrund fehlender generalisierter Verfügbarkeit keine realistische Option im primärärztlichen Bereich dar. Das NT-proBNP hat eine flächendeckende Verfügbarkeit und wird mittlerweile in den Herzinsuffizienz-Leitlinien der ESC bei der Verdachtsdiagnose Herzinsuffizienz standardmäßig empfohlen.