TY - THES A1 - Bauer, André T1 - Automated Hybrid Time Series Forecasting: Design, Benchmarking, and Use Cases T1 - Automatisierte hybride Zeitreihenprognose: Design, Benchmarking und Anwendungsfälle N2 - These days, we are living in a digitalized world. Both our professional and private lives are pervaded by various IT services, which are typically operated using distributed computing systems (e.g., cloud environments). Due to the high level of digitalization, the operators of such systems are confronted with fast-paced and changing requirements. In particular, cloud environments have to cope with load fluctuations and respective rapid and unexpected changes in the computing resource demands. To face this challenge, so-called auto-scalers, such as the threshold-based mechanism in Amazon Web Services EC2, can be employed to enable elastic scaling of the computing resources. However, despite this opportunity, business-critical applications are still run with highly overprovisioned resources to guarantee a stable and reliable service operation. This strategy is pursued due to the lack of trust in auto-scalers and the concern that inaccurate or delayed adaptations may result in financial losses. To adapt the resource capacity in time, the future resource demands must be "foreseen", as reacting to changes once they are observed introduces an inherent delay. In other words, accurate forecasting methods are required to adapt systems proactively. A powerful approach in this context is time series forecasting, which is also applied in many other domains. The core idea is to examine past values and predict how these values will evolve as time progresses. According to the "No-Free-Lunch Theorem", there is no algorithm that performs best for all scenarios. Therefore, selecting a suitable forecasting method for a given use case is a crucial task. Simply put, each method has its benefits and drawbacks, depending on the specific use case. The choice of the forecasting method is usually based on expert knowledge, which cannot be fully automated, or on trial-and-error. In both cases, this is expensive and prone to error. Although auto-scaling and time series forecasting are established research fields, existing approaches cannot fully address the mentioned challenges: (i) In our survey on time series forecasting, we found that publications on time series forecasting typically consider only a small set of (mostly related) methods and evaluate their performance on a small number of time series with only a few error measures while providing no information on the execution time of the studied methods. Therefore, such articles cannot be used to guide the choice of an appropriate method for a particular use case; (ii) Existing open-source hybrid forecasting methods that take advantage of at least two methods to tackle the "No-Free-Lunch Theorem" are computationally intensive, poorly automated, designed for a particular data set, or they lack a predictable time-to-result. Methods exhibiting a high variance in the time-to-result cannot be applied for time-critical scenarios (e.g., auto-scaling), while methods tailored to a specific data set introduce restrictions on the possible use cases (e.g., forecasting only annual time series); (iii) Auto-scalers typically scale an application either proactively or reactively. Even though some hybrid auto-scalers exist, they lack sophisticated solutions to combine reactive and proactive scaling. For instance, resources are only released proactively while resource allocation is entirely done in a reactive manner (inherently delayed); (iv) The majority of existing mechanisms do not take the provider's pricing scheme into account while scaling an application in a public cloud environment, which often results in excessive charged costs. Even though some cost-aware auto-scalers have been proposed, they only consider the current resource demands, neglecting their development over time. For example, resources are often shut down prematurely, even though they might be required again soon. To address the mentioned challenges and the shortcomings of existing work, this thesis presents three contributions: (i) The first contribution-a forecasting benchmark-addresses the problem of limited comparability between existing forecasting methods; (ii) The second contribution-Telescope-provides an automated hybrid time series forecasting method addressing the challenge posed by the "No-Free-Lunch Theorem"; (iii) The third contribution-Chamulteon-provides a novel hybrid auto-scaler for coordinated scaling of applications comprising multiple services, leveraging Telescope to forecast the workload intensity as a basis for proactive resource provisioning. In the following, the three contributions of the thesis are summarized: Contribution I - Forecasting Benchmark To establish a level playing field for evaluating the performance of forecasting methods in a broad setting, we propose a novel benchmark that automatically evaluates and ranks forecasting methods based on their performance in a diverse set of evaluation scenarios. The benchmark comprises four different use cases, each covering 100 heterogeneous time series taken from different domains. The data set was assembled from publicly available time series and was designed to exhibit much higher diversity than existing forecasting competitions. Besides proposing a new data set, we introduce two new measures that describe different aspects of a forecast. We applied the developed benchmark to evaluate Telescope. Contribution II - Telescope To provide a generic forecasting method, we introduce a novel machine learning-based forecasting approach that automatically retrieves relevant information from a given time series. More precisely, Telescope automatically extracts intrinsic time series features and then decomposes the time series into components, building a forecasting model for each of them. Each component is forecast by applying a different method and then the final forecast is assembled from the forecast components by employing a regression-based machine learning algorithm. In more than 1300 hours of experiments benchmarking 15 competing methods (including approaches from Uber and Facebook) on 400 time series, Telescope outperformed all methods, exhibiting the best forecast accuracy coupled with a low and reliable time-to-result. Compared to the competing methods that exhibited, on average, a forecast error (more precisely, the symmetric mean absolute forecast error) of 29%, Telescope exhibited an error of 20% while being 2556 times faster. In particular, the methods from Uber and Facebook exhibited an error of 48% and 36%, and were 7334 and 19 times slower than Telescope, respectively. Contribution III - Chamulteon To enable reliable auto-scaling, we present a hybrid auto-scaler that combines proactive and reactive techniques to scale distributed cloud applications comprising multiple services in a coordinated and cost-effective manner. More precisely, proactive adaptations are planned based on forecasts of Telescope, while reactive adaptations are triggered based on actual observations of the monitored load intensity. To solve occurring conflicts between reactive and proactive adaptations, a complex conflict resolution algorithm is implemented. Moreover, when deployed in public cloud environments, Chamulteon reviews adaptations with respect to the cloud provider's pricing scheme in order to minimize the charged costs. In more than 400 hours of experiments evaluating five competing auto-scaling mechanisms in scenarios covering five different workloads, four different applications, and three different cloud environments, Chamulteon exhibited the best auto-scaling performance and reliability while at the same time reducing the charged costs. The competing methods provided insufficient resources for (on average) 31% of the experimental time; in contrast, Chamulteon cut this time to 8% and the SLO (service level objective) violations from 18% to 6% while using up to 15% less resources and reducing the charged costs by up to 45%. The contributions of this thesis can be seen as major milestones in the domain of time series forecasting and cloud resource management. (i) This thesis is the first to present a forecasting benchmark that covers a variety of different domains with a high diversity between the analyzed time series. Based on the provided data set and the automatic evaluation procedure, the proposed benchmark contributes to enhance the comparability of forecasting methods. The benchmarking results for different forecasting methods enable the selection of the most appropriate forecasting method for a given use case. (ii) Telescope provides the first generic and fully automated time series forecasting approach that delivers both accurate and reliable forecasts while making no assumptions about the analyzed time series. Hence, it eliminates the need for expensive, time-consuming, and error-prone procedures, such as trial-and-error searches or consulting an expert. This opens up new possibilities especially in time-critical scenarios, where Telescope can provide accurate forecasts with a short and reliable time-to-result. Although Telescope was applied for this thesis in the field of cloud computing, there is absolutely no limitation regarding the applicability of Telescope in other domains, as demonstrated in the evaluation. Moreover, Telescope, which was made available on GitHub, is already used in a number of interdisciplinary data science projects, for instance, predictive maintenance in an Industry 4.0 context, heart failure prediction in medicine, or as a component of predictive models of beehive development. (iii) In the context of cloud resource management, Chamulteon is a major milestone for increasing the trust in cloud auto-scalers. The complex resolution algorithm enables reliable and accurate scaling behavior that reduces losses caused by excessive resource allocation or SLO violations. In other words, Chamulteon provides reliable online adaptations minimizing charged costs while at the same time maximizing user experience. N2 - Heutzutage leben wir in einer digitalisierten Welt. Sowohl unser berufliches als auch unser privates Leben ist von verschiedenen IT-Diensten durchzogen, welche typischerweise in verteilten Computersystemen (z.B. Cloud-Umgebungen) betrieben werden. Die Betreiber solcher Systeme sind aufgrund des hohen Digitalisierungsgrades mit schnellen und wechselnden Anforderungen konfrontiert. Insbesondere Cloud-Umgebungen unterliegen starken Lastschwankungen und entsprechenden schnellen und unerwarteten Änderungen des Bedarfs an Rechenressourcen. Um dieser Herausforderung zu begegnen, können so genannte Auto-Scaler, wie z.B. der schwellenwertbasierte Mechanismus von Amazon Web Services EC2, eingesetzt werden, um eine elastische Skalierung der Rechenressourcen zu ermöglichen. Doch trotz dieser Gelegenheit werden geschäftskritische Anwendungen nach wie vor mit deutlich überdimensionierten Rechenkapazitäten betrieben, um einen stabilen und zuverlässigen Dienstbetrieb zu gewährleisten. Diese Strategie wird aufgrund des mangelnden Vertrauens in Auto-Scaler und der Sorge verfolgt, dass ungenaue oder verzögerte Anpassungen zu finanziellen Verlusten führen könnten. Um die Ressourcenkapazität rechtzeitig anpassen zu können, müssen die zukünftigen Ressourcenanforderungen "vorhergesehen" werden. Denn die Reaktion auf Veränderungen, sobald diese beobachtet werden, führt zu einer inhärenten Verzögerung. Mit anderen Worten, es sind genaue Prognosemethoden erforderlich, um Systeme proaktiv anzupassen. Ein wirksamer Ansatz in diesem Zusammenhang ist die Zeitreihenprognose, welche auch in vielen anderen Bereichen angewandt wird. Die Kernidee besteht darin, vergangene Werte zu untersuchen und vorherzusagen, wie sich diese Werte im Laufe der Zeit entwickeln werden. Nach dem "No-Free-Lunch Theorem" gibt es keinen Algorithmus, der für alle Szenarien am besten funktioniert. Daher ist die Auswahl einer geeigneten Prognosemethode für einen gegebenen Anwendungsfall eine wesentliche Herausforderung. Denn jede Methode hat - abhängig vom spezifischen Anwendungsfall - ihre Vor- und Nachteile. Deshalb basiert üblicherweise die Wahl der Prognosemethode auf Trial-and-Error oder auf Expertenwissen, welches nicht vollständig automatisiert werden kann. Beide Ansätze sind teuer und fehleranfällig. Obwohl Auto-Skalierung und Zeitreihenprognose etablierte Forschungsgebiete sind, können die bestehenden Ansätze die genannten Herausforderungen nicht vollständig bewältigen: (i) Bei unserer Untersuchung zur Zeitreihenvorhersage stellten wir fest, dass die meisten der überprüften Artikel nur eine geringe Anzahl von (meist verwandten) Methoden berücksichtigen und ihre Performanz auf einem kleinen Datensatz von Zeitreihen mit nur wenigen Fehlermaßen bewerten, während sie keine Informationen über die Ausführungszeit der untersuchten Methoden liefern. Daher können solche Artikel nicht als Hilfe für die Wahl einer geeigneten Methode für einen bestimmten Anwendungsfall herangezogen werden; (ii) Bestehende hybride open-source Prognosemethoden, die sich mindestens zwei Methoden zunutze machen, um das "No-Free-Lunch Theorem" anzugehen, sind rechenintensiv, schlecht automatisiert, für einen bestimmten Datensatz ausgelegt oder haben eine unvorhersehbare Laufzeit. Methoden, die eine hohe Varianz in der Ausführungszeit aufweisen, können nicht für zeitkritische Szenarien angewendet werden (z.B. Autoskalierung), während Methoden, die auf einen bestimmten Datensatz zugeschnitten sind, Einschränkungen für mögliche Anwendungsfälle mit sich bringen (z.B. nur jährliche Zeitreihen vorhersagen); (iii) Auto-Scaler skalieren typischerweise eine Anwendung entweder proaktiv oder reaktiv. Obwohl es einige hybride Auto-Scaler gibt, fehlt es ihnen an ausgeklügelten Lösungen zur Kombination von reaktiver und proaktiver Skalierung. Beispielsweise werden Ressourcen nur proaktiv freigesetzt, während die Ressourcenzuweisung vollständig reaktiv (inhärent verzögert) erfolgt; (iv) Die Mehrheit der vorhandenen Mechanismen berücksichtigt bei der Skalierung einer Anwendung in einer öffentlichen Cloud-Umgebung nicht das Preismodell des Anbieters, was häufig zu überhöhten Kosten führt. Auch wenn einige kosteneffiziente Auto-Scaler vorgeschlagen wurden, berücksichtigen sie nur den aktuellen Ressourcenbedarf und vernachlässigen ihre Entwicklung im Laufe der Zeit. Beispielsweise werden Ressourcen oft vorzeitig abgeschaltet, obwohl sie vielleicht bald wieder benötigt werden. Um den genannten Herausforderungen und den Defiziten der bisherigen Arbeiten zu begegnen, werden in dieser Arbeit drei Beiträge vorgestellt: (i) Der erste Beitrag - ein Prognosebenchmark - behandelt das Problem der begrenzten Vergleichbarkeit zwischen bestehenden Prognosemethoden; (ii) Der zweite Beitrag stellt eine automatisierte hybride Zeitreihen-Prognosemethode namens Telescope vor, die sich der Herausforderung des "No-Free-Lunch Theorem" stellt; (iii) Der dritte Beitrag stellt Chamulteon, einen neuartigen hybriden Auto-Scaler für die koordinierte Skalierung von Anwendungen mit mehreren Diensten, bereit, der Telescope zur Vorhersage der Lastintensität als Grundlage für eine proaktive Ressourcenbereitstellung nutzt. Im Folgenden werden die drei Beiträge der Arbeit zusammengefasst: Beitrag I - Prognosebenchmark Um gleiche Ausgangsbedingungen für die Bewertung von Prognosemethoden anhand eines breiten Spektrums zu schaffen, schlagen wir einen neuartigen Benchmark vor, der Prognosemethoden auf der Grundlage ihrer Performanz in einer Vielzahl von Szenarien automatisch bewertet und ein Ranking erstellt. Der Benchmark umfasst vier verschiedene Anwendungsfälle, die jeweils 100 heterogene Zeitreihen aus verschiedenen Bereichen abdecken. Der Datensatz wurde aus öffentlich zugänglichen Zeitreihen zusammengestellt und so konzipiert, dass er eine viel höhere Diversität aufweist als bestehende Prognosewettbewerbe. Neben dem neuen Datensatz führen wir zwei neue Maße ein, die verschiedene Aspekte einer Prognose beschreiben. Wir haben den entwickelten Benchmark zur Bewertung von Telescope angewandt. Beitrag II - Telescope Um eine generische Prognosemethode bereitzustellen, stellen wir einen neuartigen, auf maschinellem Lernen basierenden Prognoseansatz vor, der automatisch relevante Informationen aus einer gegebenen Zeitreihe extrahiert. Genauer gesagt, Telescope extrahiert automatisch intrinsische Zeitreihenmerkmale und zerlegt die Zeitreihe dann in Komponenten, wobei für jede dieser Komponenten ein Prognosemodell erstellt wird. Jede Komponente wird mit einer anderen Methode prognostiziert und dann wird die endgültige Prognose aus den vorhergesagten Komponenten unter Verwendung eines regressionsbasierten Algorithmus des maschinellen Lernens zusammengestellt. In mehr als 1300 Experiment-Stunden, in denen 15 konkurrierende Methoden (einschließlich Ansätze von Uber und Facebook) auf 400 Zeitreihen verglichen wurden, übertraf Telescope alle Methoden und zeigte die beste Prognosegenauigkeit in Verbindung mit einer niedrigen und zuverlässigen Ausführungszeit. Im Vergleich zu den konkurrierenden Methoden, die im Durchschnitt einen Prognosefehler (genauer gesagt, den symmetric mean absolute forecast error) von 29% aufwiesen, wies Telescope einen Fehler von 20% auf und war dabei 2556 mal schneller. Insbesondere die Methoden von Uber und Facebook wiesen einen Fehler von 48% bzw. 36% auf und waren 7334 bzw. 19 mal langsamer als Telescope. Beitrag III - Chamulteon Um eine zuverlässige Auto-Skalierung zu ermöglichen, stellen wir einen hybriden Auto-Scaler vor, der proaktive und reaktive Techniken kombiniert, um verteilte Cloud-Anwendungen, die mehrere Dienste umfassen, koordiniert und kostengünstig zu skalieren. Genauer gesagt, werden proaktive Anpassungen auf der Grundlage von Prognosen von Telescope geplant, während reaktive Anpassungen auf der Grundlage tatsächlicher Beobachtungen der überwachten Lastintensität ausgelöst werden. Um auftretende Konflikte zwischen reaktiven und proaktiven Anpassungen zu lösen, wird ein komplexer Konfliktlösungsalgorithmus implementiert. Außerdem überprüft Chamulteon Anpassungen im Hinblick auf das Preismodell des Cloud-Anbieters, um die anfallenden Kosten in öffentlichen Cloud-Umgebungen zu minimieren. In mehr als 400 Experiment-Stunden, in denen fünf konkurrierende Auto-Skalierungsmechanismen unter fünf verschiedene Arbeitslasten, vier verschiedene Anwendungen und drei verschiedene Cloud-Umgebungen evaluiert wurden, zeigte Chamulteon die beste Auto-Skalierungsleistung und Zuverlässigkeit bei gleichzeitiger Reduzierung der berechneten Kosten. Die konkurrierenden Methoden lieferten während (durchschnittlich) 31% der Versuchszeit zu wenige Ressourcen. Im Gegensatz dazu reduzierte Chamulteon diese Zeit auf 8% und die SLO-Verletzungen (Service Level Objectives) von 18% auf 6%, während es bis zu 15% weniger Ressourcen verwendete und die berechneten Kosten um bis zu 45% senkte. Die Beiträge dieser Arbeit können als wichtige Meilensteine auf dem Gebiet der Zeitreihenprognose und der automatischen Skalierung in Cloud Computing angesehen werden. (i) In dieser Arbeit wird zum ersten Mal ein Prognosebenchmark präsentiert, der eine Vielzahl verschiedener Bereiche mit einer hohen Diversität zwischen den analysierten Zeitreihen abdeckt. Auf der Grundlage des zur Verfügung gestellten Datensatzes und des automatischen Auswertungsverfahrens trägt der vorgeschlagene Benchmark dazu bei, die Vergleichbarkeit von Prognosemethoden zu verbessern. Die Benchmarking-Ergebnisse von verschiedenen Prognosemethoden ermöglichen die Auswahl der am besten geeigneten Prognosemethode für einen gegebenen Anwendungsfall. (ii) Telescope bietet den ersten generischen und vollautomatischen Zeitreihen-Prognoseansatz, der sowohl genaue als auch zuverlässige Prognosen liefert, ohne Annahmen über die analysierte Zeitreihe zu treffen. Dementsprechend macht es teure, zeitaufwändige und fehleranfällige Verfahren überflüssig, wie z.B. Trial-and-Error oder das Hinzuziehen eines Experten. Dies eröffnet neue Möglichkeiten, insbesondere in zeitkritischen Szenarien, in denen Telescope genaue Vorhersagen mit einer kurzen und zuverlässigen Antwortzeit liefern kann. Obwohl Telescope für diese Arbeit im Bereich des Cloud Computing eingesetzt wurde, gibt es, wie die Auswertung zeigt, keinerlei Einschränkungen hinsichtlich der Anwendbarkeit von Telescope in anderen Bereichen. Darüber hinaus wird Telescope, das auf GitHub zur Verfügung gestellt wurde, bereits in einer Reihe von interdisziplinären datenwissenschaftlichen Projekten eingesetzt, z.B. bei der vorausschauenden Wartung im Rahmen von Industry 4.0, bei der Vorhersage von Herzinsuffizienz in der Medizin oder als Bestandteil von Vorhersagemodellen für die Entwicklung von Bienenstöcken. (iii) Im Kontext der elastischen Ressourcenverwaltung ist Chamulteon ein wichtiger Meilenstein für die Stärkung des Vertrauens in Auto-Scaler. Der komplexe Konfliktlösungsalgorithmus ermöglicht ein zuverlässiges und genaues Skalierungsverhalten, das Verluste durch übermäßige Ressourcenzuweisung oder SLO-Verletzungen reduziert. Mit anderen Worten, Chamulteon bietet zuverlässige Ressourcenanpassungen, die die berechneten Kosten minimieren und gleichzeitig die Benutzerzufriedenheit maximieren. KW - Zeitreihenanalyse KW - Prognose KW - Cloud Computing KW - Auto-Scaling KW - Feature Engineering & Extraction KW - Skalierbarkeit KW - Benchmarking KW - Forecasting Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-220255 ER - TY - THES A1 - Lurz, Kristina T1 - Confidence and Prediction under Covariates and Prior Information T1 - Konfidenz- und Prognoseintervalle unter Kovariaten und Vorinformation N2 - The purpose of confidence and prediction intervals is to provide an interval estimation for an unknown distribution parameter or the future value of a phenomenon. In many applications, prior knowledge about the distribution parameter is available, but rarely made use of, unless in a Bayesian framework. This thesis provides exact frequentist confidence intervals of minimal volume exploiting prior information. The scheme is applied to distribution parameters of the binomial and the Poisson distribution. The Bayesian approach to obtain intervals on a distribution parameter in form of credibility intervals is considered, with particular emphasis on the binomial distribution. An application of interval estimation is found in auditing, where two-sided intervals of Stringer type are meant to contain the mean of a zero-inflated population. In the context of time series analysis, covariates are supposed to improve the prediction of future values. Exponential smoothing with covariates as an extension of the popular forecasting method exponential smoothing is considered in this thesis. A double-seasonality version of it is applied to forecast hourly electricity load under the use of meteorological covariates. Different kinds of prediction intervals for exponential smoothing with covariates are formulated. N2 - Konfidenz- und Prognoseintervalle dienen der Intervallschätzung unbekannter Verteilungsparameter und künftiger Werte eines Phänomens. In vielen Anwendungen steht Vorinformation über einen Verteilungsparameter zur Verfügung, doch nur selten wird außerhalb von bayesscher Statistik davon Gebrauch gemacht. In dieser Dissertation werden exakte frequentistische Konfidenzintervalle unter Vorinformation kleinsten Volumens dargelegt. Das Schema wird auf Verteilungsparameter für die Binomial- und die Poissonverteilung angewandt. Der bayessche Ansatz von Intervallen für Verteilungsparameter wird in Form von Vertrauensintervallen behandelt, mit Fokus auf die Binomialverteilung. Anwendung findet Intervallschätzung in der Wirtschaftsprüfung, wo zweiseitige Intervalle vom Stringer-Typ den Mittelwert in Grundgesamtheiten mit vielen Nullern enthalten sollen. Im Zusammenhang mit Zeitreihenanalyse dienen Kovariaten der Verbesserung von Vorhersagen zukünftiger Werte. Diese Arbeit beschäftigt sich mit exponentieller Glättung mit Kovariaten als eine Erweiterung der gängigen Prognosemethode der exponentiellen Glättung. Eine Version des Modells, welche doppelte Saison berücksichtigt, wird in der Prognose des stündlichen Elektrizitätsbedarfs unter Zuhilfenahme von meteorologischen Variablen eingesetzt. Verschiedene Arten von Prognoseintervallen für exponentielle Glättung mit Kovariaten werden beschrieben. KW - Konfidenzintervall KW - A-priori-Wissen KW - Binomialverteilung KW - Exponential smoothing KW - Prognose KW - Zero-inflation KW - Audit sampling KW - Credibility interval KW - Prediction interval KW - Exponential smoothing with covariates Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-122748 ER - TY - THES A1 - Hanke, Maria Annegret T1 - Die Notwendigkeit der Doppelfärbung für Zytokeratin und DNA in der Durchflusszytometrie sowie ihre Bedeutung für die durchflusszytometrische Erfassung von p53 am Beispiel des Mammakarzinoms T1 - Necessity of double-staining for Cytokeratin and DNA and importance of detection of p53 in flow cytometry from breast cancer N2 - Die DNA-Durchflusszytometrie ist eine anerkannte Methode zur Erfassung genetischer Abweichungen und Änderungen der Proliferationsfraktion von Tumorzellen. Die Aufarbeitung von Tumorzellen mit vorhandenen Begleitpopulationen bewirkt allerdings bei der Einfachfärbung der DNA eine Ungenauigkeit der Zellzyklusanalyse. In dieser Arbeit wurde der Einfluss der Begleitpopulationen auf die Analyse von Ploidie und Zellzyklus mit Hilfe der DNA-Zytokeratin-Doppelfärbung am Mammakarzinom untersucht. Zum anderen wird auf Zusammenhänge zwischen p53, Proliferation und Ploidie von Mammakarzinomen eingegangen. Von 28 untersuchten Fällen waren 26 für die DNA-Zytokeratin-Doppelfärbung komplett auswertbar. Bei 9 dieser 26 ausgewerteten Fälle konnte immunhistochemisch p53 nachgewiesen werden. Die Zellen wurden aus Gefriermaterial mechanisch vereinzelt und mit Propidium Jodid und FITC-konjugiertem anti-Zytokeratin-Antikörper bzw. anti-p53-Antikörper gefärbt. Die Messungen wurden mit einem FACScan durchgeführt. Die Auswertung erfolgte mit Hilfe der Multicycle Software AV. Die Auswertung der Zytokeratin-Doppelfärbung ergab im Vergleich zur Einfachfärbung einen Anstieg sowohl des Anteiles aneuploider Tumoren als auch des mittleren DNA-Index. Die Proliferationsrate, insbesondere die S-Phasen-Fraktion erhöhte sich ebenfalls signifikant. Die vergleichenden Zellzyklusanalysen der Zytokeratin-positiven und der p53-positiven Tumorzellen zeigte eine geringere Proliferationsfraktion der p53-positiven Zellen, verglichen mit den p53-negativen Tumorzellen. Der überwiegende Anteil der p53-positiven Zellen zeigte eine Aneuploidie. Weiterhin ergaben sich in dieser Untersuchung Hinweise auf eine Zellzyklusabhängige Expression des p53-Proteins. Durch die Nutzung der Doppelfärbung für DNA und Zytokeratin in der Durchflusszytometrie gelingt die exaktere Wiedergabe der Biologie von Tumoren. Es ist zu erwarten, dass dies die prognostische Aussagekraft der DNA-flowzytometrischen Parameter Ploidie und Proliferationsfraktion erhöht. N2 - DNA flow cytometry is a well established technique in tumor pathology for the assessment of prognostic factors, genetic alteration and the determination of the proliferative fractions. However, it suffers from a contamination of non-tumor cells. This doctoral thesis investigated by cytokeratin-DNA double staining flow cytometry of breast cancers the influence of non-tumor cells on these parameters. In addition to that the connection between p53, proliferation and ploidy of breast cancer cells was discussed. 26 out of 28 cases of breast cancer were investigated whis cytokeratin-DNA double staining. In 9 out of those 26 p53 was detectable. Tumor cell nuclei from fresh frozen tumor tissues were mechanically separated, stained with propidium iodide and fluorescein isothiocyanate conjugated cytokeratin antibody and than measured by a FACScan. Statistical analysis was done by Multicycle software AV. A significant difference (p<0,001) was shown for the proportion of anoiploid tumors and the DNA-index, which were increased for the gated populations. Further more a significant increase was shown for the mean SPF. In comparison between p53-negative and -positive tumor cells, the positive-cells had a lower proliferation fraction. The most of p53-positive cells were aneuploid. There was a indication to suspect a cellcycle-dependent expression of p53-protein. By using cytokeratin-DNA double staining in flow cytometry reflection of tumor biology is more exactly. This is why this methode increases the prognostic value of cellcycle parameters like ploidy and proliferation fraction. KW - Durchflusszytometrie KW - nukleare DNA-Inhalt KW - Zytokeratin KW - Brustkrebs KW - Aneuploidie KW - S-Phase-Fraktion KW - Prognose KW - p53 KW - flow cytometry KW - nuclear DNA content KW - cytokeratin KW - breast carcinoma KW - aneuploidy KW - S-phase fraction KW - prognosis KW - p53 Y1 - 2000 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-1181814 ER - TY - THES A1 - Thies, Elena-Daphne Dorothée T1 - Die Prognose des differenzierten Schilddrüsenkarzinoms in Abhängigkeit von der zum Erreichen eines erkrankungsfreien Zustands benötigten Zahl der I-131-Therapien T1 - The number of 131-I therapy courses needed to archieve complete remission is an indicator of prognosis in patients with differentiated thyroid carcinoma N2 - Ziel: Abschätzung der Risiken des Rezidivs des differenzierten Schilddrüsenkarzinoms, der Karzinom-bedingten Mortalität und der Karzinom-bedingten Reduktion der Lebenserwartung in Abhängigkeit von der Anzahl der zum Erreichen eines krankheitsfreien Zustands benötigten I-131-Therapien (Radioiodtherapien) und der für die Krankheitsfreiheit benötigten kumulativen Aktivität. Methoden: Analyse anhand von in der Würzburger Schilddrüsenkarzinom-Datenbank erfassten Verlaufsdaten unter Berücksichtigung eigener zusätzlicher Erhebungen zum follow-up.von 896 Patienten, die nach einer oder mehreren Radioiodtherapien im Therapieverlauf Erkrankungsfreiheit erreichten (negative TSH-stimulierte Thyreoglobulin-Messung in Kombination mit einer negativen I-131-Ganzkörperszintigraphie). Ergebnisse: Die erfassbare Nachsorgedauer betrug in Median 9.0 Jahre (Spannbreite 0.1-31.8 Jahre). Rezidiv-Raten nach 5 und 10 Jahren und am Ende der Nachsorge betrugen 1,0±0,3%, 4,0±0,7% und 6,2±1,1%. Die Schilddrüsenkarzinom-bedingte Sterberate betrug jeweils 0,1±0,1%, 0,5±0,3% und 3,4±1,1%. Mit einer zunehmenden Anzahl von benötigten Radioiodtherapien nahm die Rezidivrate zu (p=0.001). Die Schilddrüsenkarzinom-bedingte Sterblichkeitsrate ist ab 4 benötigten Radioiodtherapien erhöht. Bei Patienten, die nach einer Radioiodtherapie krankheitsfrei waren, finden sich zwischen Niedrig- und Hochrisikopatienten keine Unterschiede bezüglich Rezidiv- und Sterblichkeitsrate. Bei Patienten, die zwei Radioiodtherapien benötigten, waren Rezidiv- und Sterblichkeitsrate der Hochrisikopatienten erhöht. Bezüglich der kumulativ benötigten Aktivität zeigten sich nur bei Patienten, die eine kumulative Aktivität von über 22,2 GBq benötigten, erhöhte Rezidiv- und Sterberaten. Im vorliegenden Studienkollektiv mit einer inhärent guten Prognose zeigte sich eine uneingeschränkte Lebenserwartung unabhängig von der benötigen Anzahl der Radioiodtherapien oder der benötigten kumulativen Aktivität. Fazit: Falls mehr als eine Radioiodtherapie oder eine hohe kumulative I-131 Aktivität benötigt wird, um einen krankheitsfreien Zustand zu erreichen, muss mit einer Rezidiv- und Schilddrüsenkarzinom-bedingten Sterblichkeits-Rate gerechnet werden, vor allem bei Hochrisikopatienten. N2 - Purpose: To assess the risk of differentiated thyroid cancer (DTC) recurrence, DTC-related mortality and life expectancy in relation to the number of courses of 131-I therapy (RIT) and cumulative 131-I activities required to achieve complete remission (CR). Methods: The study was a database review of 1,229 patients with DTC, 333 without and 896 with CR (negative TSHstimulated thyroglobulin and negative 131-I diagnostic wholebody scintigraphy) after one or more courses of RIT. Results: The median follow-up was 9.0 years (range 0.1–31.8 years) after CR. Recurrence rates at 5 years, 10 years and the end of follow-up were 1.0±0.3 %, 4.0±0.7 % and 6.2 ±1.1 %, and DTC-related mortality was 0.1±0.1 %, 0.5± 0.3 % and 3.4±1.1 %, respectively. Recurrence rates also increased with an increasing number of RIT courses required (p=0.001). DTC-related mortality increased from four RIT courses. In patients with CR after one RIT course, there were no differences in recurrence or DTC-related mortality rates between low-risk and high-risk patients. In patients requiring two RIT courses these rates remain elevated in high-risk patients. Recurrence and DTC-related mortality rates were only significantly elevated in those requiring a cumulative activity over 22.2 GBq (600 mCi) from multiple RIT courses for CR. Regardless of the number of RIT courses or activity needed, life expectancy was not significantly lowered. Conclusion: If more than one RIT course is needed to achieve CR, higher recurrence and DTC-related mortality rates are observed, especially in high-risk patients. Patients requiring >22.2 GBq 131-I for CR should be followed in the same way as patients in whom CR is never reached as long-term mortality rates are similar. KW - Differentiated thyroid carcinoma KW - Schilddrüsenkarzinom KW - 131-I Ablation KW - Prognose KW - Überleben KW - Differentiated thyroid carcinoma KW - 131-I ablation KW - prognosis KW - life expectancy Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-110981 N1 - Die Doktorarbeit wurde unter dem englischen Titel: "The number of 131-I therapy courses needed to archieve complete remission is an indicator of prognosis in patients with differentiated thyroid carcinoma.", publiziert. Dies entspricht nicht hundertprozentig der deutschen Übersetzung und enthält schon Ergebnisse. ER - TY - THES A1 - Vater, Daniel T1 - Die Prognose von Kindern mit im Kleinkindesalter diagnostizierten Störungen der Sprachentwicklung T1 - Prognosis of children with in early childhood identified language impaiment N2 - In der vorliegenden Studie wurde an 41 Patienten im Alter von vier bis elf Jahren mit expressiver Sprachentwicklungsstörung eine detaillierte Fragebogenerhebung des sprachlichen, intellektuellen und motorischen Entwicklungsstandes vorgenommen. Gut die Hälfte dieser Kinder (51,2%), die definierten Risikogruppen zugeordnet wurden, nahm im Verlauf der Studie an einer eingehenden Nachuntersuchung teil. Dabei wurde anhand standardisierter Tests erneut eine Ermittlung der Intelligenz sowie sprachlicher und neuromotorischer Fähigkeiten und Fertigkeiten vorgenommen. Geschlechtsspezifische Unterschiede zwischen den Leistungen von Jungen und Mädchen zeigten sich dabei nicht. Prä- und perinatale Risikofaktoren ließen sich nicht unmittelbar mit schlechteren Leistungen in den Untersuchungen in Verbindung bringen. Frühgeburtlichkeit als möglicher Risikofaktor stellt jedoch vor allem in Kombination mit weiteren Risikofaktoren einen ungünstigeren Verlauf dar. Manifeste Epilepsien stellen anhand der erhobenen Daten keinen ungünstigen Einfluss auf den Verlauf der Sprachentwicklungsstörung dar. Ausgenommen davon sind sicher epilepsiebedingte Sprachstörungen, wie z. B. Landau-Kleffner-Syndrom. Wie bereits in anderen Studien belegt, zeigte sich auch in dieser Studie, dass zwischen orofacialen Problemen im Sinne minimaler neurologischer Auffälligkeiten und der Prognose sprachentwicklungsgestörter Kinder kein Zusammenhang besteht. Veränderungen im psychosozialen Umfeld der Kinder stellen einen Risikofaktor für Sprachentwicklungsstörungen dar. Das Vorliegen weiterer Risikofaktoren wirkt sich ungünstig auf die Leistungen aus. Ein Einfluss der psychosozialen Umstände auf die Prognose der Sprachentwicklungsstörung ist vorhanden, kann jedoch nur in einem multivarianten Kontext interpretiert werden. Der Nachweis neuromotorischer Defizite bei Kindern mit Sprachentwicklungsstörungen erwies sich auch in dieser Studie als prognostisch ungünstiges Zeichen. Eine Persistenz motorischer Auffälligkeiten bei diesen Patienten konnte belegt werden. Wie auch in anderen Studien zeigt sich, dass Patienten mit Sprachentwicklungsstörungen häufiger persistierende kognitive Defizite aufweisen. Es konnte ein Zusammenhang zwischen dem Auftreten psychischer und emotionaler Auffälligkeiten und Sprachentwicklungsstörungen gezeigt werden. Eine abschließende Aussage über die schulischen Leistungen sprachentwicklungsgestörter Kinder erlauben die erhobenen Daten nicht. Sie zeigen jedoch einen deutlichen Trend für ein erhöhtes Risiko schlechterer schulischer Leistungen an. Ein positiver Effekt therapeutischer Maßnahmen auf die Entwicklung sprachentwicklungsgestörter Kinder lässt sich nicht belegen. Die Aussage über die Prognose der Patienten wird durch die hohe Komorbidität weiterer Entwicklungsstörungen und somit den Bedarf unterschiedlichster Therapieformen erschwert. Kinder mit primär ausgeprägteren Symptomen haben insgesamt mehr und früher Therapie- und Fördermaßnahmen erhalten, bleiben aber unterdurchschnittlich. N2 - The parents of 41 patients aged four to eleven years with an expressive language disorder received a questionaire with questions about their children´s speech, intelectual and motor development. 51,2% of these patients were defined to different groups and were re-examined in this study. Standardised tests about intelligence, language status and motor development were used in this examination. There were no significant differences between the benefit of boys and girls. We could present that changes in the psycho-social environment of the children is connected with a higher risk for language disorders. Further risk factors have an effect on the benefit. Neuromotor deficites on children with language disorders could be presented as a prognistical negative sign. As already shown in other studies we found out that patients with language impairment tend to have more often persisting kognitive deficiencies. There is a definite trend on these children for a higher risk of school problems. A positve effect of therapeutical methods on the development of children with language impairment could not be evidenced. KW - Sprache KW - Sprachentwicklungsstörung KW - Sprachentwicklungsverzögerung KW - Prognose KW - language KW - language impairment KW - language delay KW - prognosis Y1 - 2005 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-16489 ER - TY - THES A1 - Hilfinger, Ute T1 - Einfluß der stadienorientierten Operation und Lymphknotendissektion auf das Follow-up von Schilddrüsenmalignomen T1 - Influcence of the staging-oriented operation and lymphadenectomy on follow-up of thyroid malignomas N2 - 169 Patienten mit Schilddrüsenmalignomen (65 männlich, 104 weiblich), im Erhebungszeitraum vom 01.01.1969 bis 01.07.1995, wurden retrospektiv bezüglich der verschiedenen Karzinomentitäten, der gewählten Operationsmethode und Operationsradikalität, sowie des postoperativen TNM- und UICC-Stadiums ausgewertet. Schwerpunkt der Auswertung lag auf Beobachtung von Überlebenszeit, Tumorletalität, Entstehung locoregionärer Rezidive (Lokalrezidive, Lymphknotenrezidive) rezidivfreie Zeit und Auftreten von Fernmetastasen im Vergleich niedriger zu höheren Tumorklassen. Die Resultate zeigten, daß papilläre Schilddrüsenkarzinome im Vergleich zu medullären und anaplastischen Karzinomen die beste, anaplastische Schilddrüsenkarzinome die schlechteste Prognose aufweisen. Rezidive traten bei allen Schilddrüsenmalignomen auf, jedoch fand sich ein Einfluß des histologischen Typ auf die Rezidivhäufigkeit in Abhängigkeit vom Stadium. Statistisch signifikante Unterschiede fanden sich im Vergleich R0- versus R1/R2-Resektion, so daß beim Schilddrüsenkarzinom unbedingt die vollständige Tumorentfernung angestrebt werden muß. Die Lymphadenektomie bietet beim differenzierten Karzinom im Stadium N0 keinen Vorteil, hingegen sollte im Stadium N1 Kompartment-orientiert vorgegangen werden. Aufgrund der frühen Metastasierung in die Lymphknoten ist beim medullären Schilddrüsenkarzinom eine Lymphknotendissektion der Kompartimente I – III unabhängig vom Stadium, sowohl bei Lymphknotenbefall, als auch Lymphknoten-negativen Patienten anzustreben, einschließlich der Ausräumung des Kompartment IV bei vorliegenden Lymphknotenfiliae im antero-superioren Mediastinum. Aus den Ergebnissen kann abgeleitet werden, daß Thyreoidektomie en Prinzip bei allen Malignomen erfolgen sollte, um okkulte Tumoranteile und eventuell vorliegende Mikrometastasen zu entfernen. Thyreoidektomie beim differenzierten Schilddrüsenkarzinom, um die Möglichkeit der Radiojod-Therapie (RJT) zur Ablation des möglich verbliebenen Schilddrüsengewebes und möglicher bzw. vorhandener Filiae zu verbessern. Ausnahme ist ein, nach beidseitiger subtotaler Schilddrüsenresektion zufällig gefundenes solitäres okkultes papilläres Mikrokarzinom (pT1a), sofern der Tumor im Gesunden reseziert ist und Hinweise auf Lymphknotenfiliae fehlen. Selektive Lymphadenektomieverfahren werden nur beim differenzierten Schilddrüsenkarzinom im Stadium I und II nach UICC angewandt. Durchführung einer modifiziert radikalen Neck-Dissektion ist bei allen medullären Schilddrüsenkarzinomen unabhängig vom Stadium, sowie bei papillärem und follikulärem Schilddrüsenkarzinom im Stadium III und IV indiziert. Bei differenzierten Schilddrüsenkarzinomen erbringt die postoperative RJT einen signifikanten Vorteil in Rezidivrate und Prognose. N2 - 169 patients with thyroid malignomas (65 male, 104 female), in the elevation period of 01/01/1969 to 07/01/1995 were retrospectively evaluated, referring to the different groups of thyroid carcinoma, the post-surgical TNM system (pTNM) and special attention to the stages I - IV of UICC. Main focus of the analysis lay on observation of the survival time, lethality of tumor, origin of loco regional recurrence (local recurrence, recurrence in the lymph nodes), recurrence-free time and appearance of distant metastases in comparison of lower to higher tumor classes. The results show that papillary thyroid carcinoma in comparison to medullary and anaplastic carcinomas have the best, anaplastic carcinomas the worst prognosis. Recurrence appeared for all thyroid malignomas, however, an influence of the histologic type on the frequency of recurrence was found as a function of stage. Statistically significant differences were found in the comparison of R0- versus R1/R2 resection, so that for the thyroid carcinoma absolutely the complete resection of the tumour must be aimed. The lymphadenectomie offers no advantage for the differentiated thyroid carcinomas in the stage N0, whereas lymphadenectomy should be carried out compartment-oriented in the stage N1. On account of the early metastasing in the lymph nodes for the medullary carcinoma, with lymph node maifestation, as well as lymph node-negative patients, a lymph node dissection of the compartment I - III independently of stage is necessary, including the removal of the compartment IV with present lymph node metastasis in the antero-superior mediastinum. From the results can be deduced that thyreoidectomy en principle should take place for all thyroid malignomas to remove occult tumor portions and possibly present micrometastases. Thyreoidektomie for the differentiated thyroid carcinoma to improve the possibility of the radio iodine therapy (RJT) for the ablation possibly remained thyroid tissue and possible or existing metastases. Exception is a solitary occult papillary microcarcinoma (pT1a) after subtotal thyroid resection on both sides, which was found accidental, if the tumour is removed in the healthy and an indication for lymph node metastases is absent. Selective procedures of lymph node dissection are used exclusively for differentiated thyroid carcinoma in the stage I and II of UICC. Implementation of a modified radical neck-dissektion is indicated for any medullary thyroid carcinoma independent of stage and for papillary and follicular thyroid carcinomas in the stage III and IV. For differentiated thyroid carcinomas the postoperative RJT produces a significant advantage in recurrence rate and prognosis. KW - Schilddrüsenkarzinom KW - selektive und systematische Lymphadenektomie KW - Radikalität KW - Therapieergebnisse KW - Überlebenswahrscheinlichkeit KW - Rezidivrate KW - Prognose KW - thyroid cancer KW - radicality KW - selective and systematic lymphadenectomy KW - outcome of therapy KW - survival rate KW - rate of recurrence KW - prognosis Y1 - 2006 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-24251 ER - TY - THES A1 - Stonawski, Saskia T1 - Emotionale Informationsverarbeitungsprozesse als Prädiktoren und Korrelate des Therapieoutcomes bei Patienten mit Depression T1 - Emotional information processing as a predictor and correlate of therapy outcome in depression N2 - Depressionen gehören zu den häufigsten psychischen Erkrankungen. Neben Symptomen wie Niedergeschlagenheit, Interessenlosigkeit oder Schlafstörungen sind Depressionen auch durch Defizite in kognitiven Funktionen, wie z.B. Aufmerksamkeitsprozessen oder der Wahrnehmung, und eine negativ verzerrte Informationsverarbeitung gekennzeichnet. Aufgrund der hohen Prävalenz, der starken psychosozialen Funktionseinschränkungen durch depressive Erkrankungen und deren rezidivierenden Charakter besteht die Notwendigkeit, die therapeutischen Interventionen zur Behandlung affektiver Störungen zu verbessern, dadurch die Krankheitsphase der Patienten zu verkürzen und letztendlich auch die Kosten für das Gesundheitssystem zu reduzieren. In diesem Zusammenhang werden in den letzten Jahren verstärkt mögliche Prädiktoren und Korrelate des Therapieerfolgs untersucht. Hierfür könnten negativ verzerrte Informationsverarbeitungsprozesse und Defizite in kognitiven Funktionen objektive Marker darstellen. Im ersten Teil dieser Arbeit wurde der Covariation Bias, der als Überschätzung des Zusammenhangs zwischen einem krankheitsrelevanten Stimulus und einer aversiven Konsequenz definiert wird, in einem Querschnittsdesign bei schwer depressiven Patienten zu Behandlungsbeginn im Vergleich zu einer Gruppe von Patienten nach einer sechswöchigen Behandlung sowie einer gesunden Kontrollgruppe untersucht. Diese kognitive Verzerrung war bei Patienten mit schwererer Symptomatik unabhängig vom Behandlungszeitpunkt stärker ausgeprägt. Zudem prädizierte der Covariation Bias zu Behandlungsbeginn das Therapieoutcome nach sechs Behandlungswochen dahingehend, dass Patienten mit einer stärkeren kognitiven Verzerrung ein schlechteres Ansprechen auf die Therapie zeigten. Im zweiten Teil dieser Arbeit wurde das Emotional Processing Paradigma, das aus Aufgaben zur Emotionserkennung und zur Aufmerksamkeitslenkung besteht, zum ersten Mal bei schwer depressiven Patienten im intraindividuellen Verlauf der Behandlung eingesetzt und in Zusammenhang mit dem Therapieerfolg gestellt. Neben Hinweisen darauf, dass Patienten, bei denen sich in den ersten Behandlungswochen unter anderem die Salienz negativer Emotionen verringerte, mit höherer Wahrscheinlichkeit remittierten, zeigten sich vor allem zeitlich stabile Unterschiede im Sinne einer Trait-Variablen zwischen Patienten, die auf die initiale Therapie ansprachen, und Patienten, die keine bedeutsame Verbesserung erfuhren, in den globalen kognitiven Funktionen: Patienten, bei denen es zu keiner klinisch relevanten Verbesserung durch die Therapie kam, wiesen stärkere Defizite auf. Zusammengenommen weisen die Ergebnisse der vorliegenden Arbeit auf ein stabiles Muster von Defiziten in globalen kognitiven Funktionen bei Patienten mit Depressionen hin. Diese Abweichungen liegen jedoch nicht bei allen schwer depressiven Patienten gleichermaßen vor. Bei Patienten mit Defiziten scheint das Therapieoutcome schlechter zu sein. Somit könnten diese Prozesse der Informationsverarbeitung und kognitive Defizite auf neuropsychologischer Ebene Prädiktoren und Korrelate des Therapieoutcomes darstellen. Im Sinne der personalisierten Medizin könnte in Zukunft die Diagnostik um die Parameter der Informationsverarbeitungsprozesse ergänzt werden und so die Prognose des Therapieerfolgs verbessert und die Behandlung der Patienten individualisiert werden. N2 - Depressive disorders are among the most frequent mental disorders. In addition to symptoms such as depressed mood, diminished interest or insomnia, depression is characterized by deficits in cognitive functions, e.g. attention or perception, and a negative biased information processing. Due to the high prevalence, severe impairments in social and occupational functioning and the recurring character of the disorder, there is a growing necessity of improving therapeutic interventions of affective disorders, in order to shorten time of suffering and to reduce costs in the health care system. In this context, potential predictors and correlates of therapy outcome were studied in recent years. Negative biases in information processing and cognitive deficits might represent objective markers. In the first part of this thesis, the covariation bias, defined as an overestimation of the relationship between disease-relevant stimulus and an aversive consequence, was investigated in patients with a severe depressive episode at admission, patients after a six-weeks antidepressant treatment and healthy controls in a between-group design. This type of cognitive bias was more pronounced in patients with a more severe symptomatic independent of course of treatment. Moreover, covariation bias at admission predicted therapy outcome after six weeks of treatment: Patients with a stronger bias showed an impaired treatment response. In the second part of this thesis, the emotional processing paradigm, which consists of emotion recognition and attentional vigilance tasks, was studied in severe depressive patients, and their intraindividual course of treatment and parameters were linked to therapy outcome. In addition to evidence that patients with a reduced salience of negative emotions after the first weeks of treatment remit with a higher probability, there were temporally stable differences in global cognitive functions between patients who responded to initial treatment and patients who did not improve: Patients without a clinically relevant improvement showed more severe deficits. In summary, the present findings suggest a stable pattern of global cognitive deficits in patients with depression. However, these deviations are not equally present in all patients with a severe depressive episode. In patients with deficits, therapy outcome seems to be impaired. Thus, information processing and cognitive deficits might constitute predictors and correlates of therapy outcome on neuropsychological level. In terms of personalized medicine, information processing parameters might thus complement the diagnostic process and individualize therapeutic interventions. KW - Depression KW - Informationsverarbeitung KW - Emotionale Informationsverarbeitung KW - Prädiktoren und Korrelate KW - Therapieoutcome KW - emotional information processing KW - predictors and correlates KW - therapy outcome KW - Prognose KW - Remission Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-188691 ER - TY - JOUR A1 - Shityakov, Sergey A1 - Förster, Carola A1 - Rethwilm, Axel A1 - Dandekar, Thomas T1 - Evaluation and Prediction of the HIV-1 Central Polypurine Tract Influence on Foamy Viral Vectors to Transduce Dividing and Growth-Arrested Cells N2 - Retroviral vectors are potent tools for gene delivery and various biomedical applications. To accomplish a gene transfer task successfully, retroviral vectors must effectively transduce diverse cell cultures at different phases of a cell cycle. However, very promising retroviral vectors based on the foamy viral (FV) backbone lack the capacity to efficiently transduce quiescent cells. It is hypothesized that this phenomenon might be explained as the inability of foamy viruses to form a pre-integration complex (PIC) with nuclear import activity in growth-arrested cells, which is the characteristic for lentiviruses (HIV-1). In this process, the HIV-1 central polypurine tract (cPPT) serves as a primer for plus-strand synthesis to produce a “flap” element and is believed to be crucial for the subsequent double-stranded cDNA formation of all retroviral RNA genomes. In this study, the effects of the lentiviral cPPT element on the FV transduction potential in dividing and growth-arrested (G1/S phase) adenocarcinomic human alveolar basal epithelial (A549) cells are investigated by experimental and theoretical methods. The results indicated that the HIV-1 cPPT element in a foamy viral vector background will lead to a significant reduction of the FV transduction and viral titre in growth-arrested cells due to the absence of PICs with nuclear import activity. KW - Evaluation KW - Prognose KW - HIV KW - Spumaviren KW - Einfluss Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-112763 ER - TY - THES A1 - Chifu, Irina T1 - Expression und prognostische Bedeutung der Chemokinrezeptoren CXCR4 und CXCR7 bei malignen Nebennierentumoren T1 - Prognostic Relevance of the Chemokine Receptors CXCR4 and CXCR7 in Malignant Adrenal Tumors N2 - Zusammenfassung: Unsere Arbeit bestätigt die aus kleineren Studien bekannte hohe Expression der Chemokinrezeptoren CXCR4 und CXCR7 in der normalen Nebenniere und in der Mehrheit der Nebennierenkarzinome. Das auf mRNA Ebene bestätigte Vorkommen beider Chemokinrezeptoren im gesunden Nebennierengewebe deutet auf eine überwiegend für die normale Nebennierenphysiologie wichtige Rolle dieser Chemokinrezeptoren hin. Eine eventuell dennoch bestehende pathophysiologische Relevanz der Rezeptoren wurde ergänzend überprüft und ergab keinen signifikanten Einfluss auf die Prognose des Nebennierenkarzinoms. N2 - Summary: Our study describes the expression profile and prognostic relevance of the chemokine receptors CXCR4 and CXCR7 in 187 clinically annotated adrenocortical carcinoma specimens. The main findings of our analysis are a strong expression of both chemokine receptors in the majority of primary tumors and metastases. In contrast to other malignancies we did not observe a relevant prognostic impact of CXCR4 and CXCR7 expression. We assume that this observation may be associated with the high constitutive expression of both receptors also in the normal adrenal cortex and their putative role in adrenal homeostasis. KW - Nebennierenrindencarcinom KW - Chemokinrezeptor KW - CXCR4 KW - CXCR7 KW - Prognose Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-217225 ER - TY - THES A1 - Zeller, Julia T1 - Funktionelle Aktivierungen im Verlauf eines Jahres bei Patienten mit Alzheimer-Erkrankung und gesunden Kontrollen T1 - Functional Brain Activation in Patients suffering from Alzheimer's disease and healthy Controls over a one-year Interval N2 - Hintergrund: Die Alzheimer-Erkrankung ist die häufigste neurodegenerative Erkrankung. Da es zurzeit für sie noch keine Heilung gibt, richtet sich das Hauptaugenmerk auf eine möglichst frühe Diagnose und die Behandlung mit krankheitsverzögernden Medikamenten. Vor allem die funktionelle Bildgebung gilt im Bereich der Frühdiagnose als vielversprechend. Neben dem Gedächtnis werden die visuell-räumliche Informationsverarbeitung, exekutive Funktionen und Aufmerksamkeitsprozesse untersucht. Hierbei zeigen sich zentralnervöse Aktivierungsauffälligkeiten in kortikalen Zielregionen etwa im präfrontalen und im parietalen Kortex. Verlaufsuntersuchungen konzentrieren sich vor allem darauf aus der Gehirnaktivierung Vorhersagen über kognitive Veränderungen bei älteren Personen mit und ohne Gedächtnisstörung treffen zu können. Nur wenige Studien erfassen dabei jedoch die Gehirnaktivierung zu mehreren Messzeitpunkten. Gerade für große Stichproben und wiederholte Messungen könnte die funktionelle Nahinfrarotspektroskopie (fNIRS) sich als Alternative zur Magnetresonanztomographie anbieten. Ziel: Ziel der Studie war es, mit fNIRS und ereigniskorrelierten Potentialen funktionelle Unterschiede zwischen Alzheimer-Patienten und gleichaltrigen Kontrollen in mehreren Funktionsbereichen darzustellen und ihre Veränderung über den Zeitraum eines Jahres zu verfolgen. Zum ersten Mal sollte im Rahmen einer prospektiven Untersuchung mit fNIRS geprüft werden ob kortikale Aktivierungen zur Vorhersage von neuropsychologischen Testwerten genutzt werden können. Zusätzlich stellte sich die Frage, ob fNIRS für Verlaufsuntersuchungen an älteren Stichproben geeignet ist. Methoden: Im Rahmen der vorliegenden Arbeit wurden zum ersten Messzeitpunkt (T1) 73 Patienten und 71 Kontrollen mit vier Paradigmen in den drei Funktionsbereichen visuell-räumliche Informationsverarbeitung, exekutive Funktionen und zentralnervöse Filtermechanismen mit fNIRS und ereigniskorrelierten Potentialen gemessen. Die Probanden durchliefen eine Line Orientation Aufgabe, zwei Versionen einer Wortflüssigkeitsaufgabe (phonologisch und semantisch) und das P50-Doppelklickparadigma. Zielparameter waren dabei die aufgabenbezogene Aktivierung im parietalen Kortex, im dorsolateralen Präfrontalkortex (DLPFC) und das sensorische Gating, gemessen durch die P50-Supression nach wiederholter Reizdarbietung. Zusätzlich wurden zwei typische Tests zur Demenzdiagnostik (MMST und DemTect) erhoben. Die zweite Messung (T2) fand nach 12 Monaten statt und lief identisch zur ersten Untersuchung ab. Zu T2 konnten 14 Patienten und 51 Kontrollen erneut rekrutiert werden. Ergebnisse: Zu T1 konnte mit fNIRS ein Aktivierungsdefizit für Patienten im DLPFC während der phonologischen Wortflüssigkeitsaufgabe und im rechten Parietalkortex während der Line Orientation Aufgabe festgestellt werden. Für die semantische Wortflüssigkeitsaufgabe und das sensorische Gating zeigten sich keine zentralnervösen Unterschiede. Über das Jahr hinweg nahm die aufgabenbezogene Aktivierung der Patienten im linken DLPFC für beide Versionen der Wortflüssigkeitsaufgabe deutlich ab, während gleichaltrige Kontrollpersonen keine kortikalen Veränderungen zeigten. Zu T2 war das sensorische Gating der Patienten außerdem deutlich schlechter im Vergleich zu gesunden Kontrollen. Die Veränderungen der Oxygenierung während der Wortflüssigkeitsaufgabe konnten für gesunde Kontrollen Verschlechterungen im MMST und im DemTect vorhersagen. Vor allem ein Verlust der Lateralisierung ging mit einem Abfall in den kognitiven Tests einher. Schlussfolgerung: Spezifische Defizite in der kortikalen Aktivierung konnten bei Alzheimer-Patienten mit fNIRS beobachtet und genauer beschrieben werden. Auch die Veränderung im Verlauf eines Jahres ließ sich mit dieser Methode verfolgen. Für Längsschnittuntersuchungen, die sich mit der kortikalen Aktivierung als Prädiktor für dementielle Entwicklungen beschäftigen, bietet sich fNIRS somit als praktische Alternative zur fMRT an, zumal die gemessenen Veränderungen in der Oxygenierung auch prognostischen Wert für ältere Kontrollpersonen besaßen. Vor allem die funktionelle Lateralisierung in frontalen Kortexbereichen scheint als Prädiktor kognitiver Leistungen im Alter von Bedeutung zu sein. N2 - Background: Alzheimer’s disease is the most common form of neurodegenerative disorder. Since as of yet no cure exists, one important aim is the development of methods for the early detection of cerebral changes. Functional imaging is an especially promising approach as functional changes might occur even before neural atrophy in certain brain areas. While episodic memory is the main objective of research, other studies focus visual-spatial processing, executive function and attention. Patients suffering from Alzheimer’s disease display deviant cortical activation in prefrontal and parietal areas during tasks targeting these domains. Prospective studies try to predict cognitive decline using brain activations as predictors for future test scores. Only a few studies record functional activations repeatedly however. Functional near infrared spectroscopy (fNIRS) might be a good alternative to functional magnet resonance imaging (fMRI) when it comes to monitoring large populations in longitudinal studies. Objective: The aim of the present study was to detect and describe functional differences between patients suffering from Alzheimer’s disease and healthy elderly controls via fNIRS and event-related potentials and track them over an interval of 12 months. This is the first prospective study using fNIRS: Functional changes in oxygenated and deoxygenated haemoglobin during the first measurement will be employed to predict neuropsychological decline after one year. Methods: During the first measurement (T1) 73 AD patients and 71 age-matched controls without cognitive complaints or other neurological or psychiatric disorders completed four tasks in three cognitive domains: A line orientation task (visual-spatial processing), a phonological and a semantic verbal fluency task (executive functions) and a dual-click paradigm resulting in auditory sensory gating (attention and filter mechanisms). Regions of interest were the parietal and the dorsolateral prefrontal cortex (DLPFC) as well as the gating ratio measured via the P50 suppression in paired click stimuli. Additionally subjects underwent two common tests for cognitive functioning of dementia patients (MMSE and DemTect). The second measurement (T2) was conducted 12 months after the first and followed exactly the same protocol. At T2 14 AD-patients and 51 controls could be tested again. Results: At T1, patients suffering from Alzheimer’s disease displayed deficient activations in the right parietal cortex during Line Orientation and in the DLPFC during the phonological version of the verbal fluency task. No group differences could be found in the semantic verbal fluency paradigm and in sensory gating. Over the course of one year, patients’ activation in the left DLPFC significantly declined during both versions of the verbal fluency task whereas controls showed no cortical changes. After 12 months, the sensory gating differed between the groups with patients displaying worse values. Changes of oxygenation during the verbal fluency tasks predicted the decline in neuropsychological tests in elderly controls. The prefrontal lateralization held the best prognostic value with a positive prognosis for stronger left-sided activation. Conclusion: The present study succeeded in describing specific deficits in cortical activation concerning patients suffering from Alzheimer’s disease and healthy age-matched controls using fNIRS. Changes over the course of 12 months could also be observed. The results indicate that fNIRS is well suited as an alternative to fMRI in longitudinal studies targeting cortical changes as predictors of cognitive decline. This is underlined by the fact that cortical activations during the verbal fluency task could be used to predict neuropsychological changes in elderly controls. Therefore the functional lateralization of prefrontal activations should become a new focus in prospective studies. KW - Alzheimer-Krankheit KW - Prognose KW - Nahinfrarotspektroskopie KW - Bildgebendes Verfahren KW - Längsschnittuntersuchung KW - Alzheimer's disease KW - functional imaging KW - follow-up study KW - near-infrared spectroscopy Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-67408 ER -