TY - JOUR A1 - Üceyler, Nurcan A1 - Häuser, Winfried A1 - Sommer, Claudia T1 - Systematic review with meta-analysis: Cytokines in fibromyalgia syndrome N2 - Background: To perform a systematic review and meta-analysis on cytokine levels in patients with fibromyalgia syndrome (FMS). Methods: Through December 2010 we systematically reviewed the databases PubMed, MEDLINE, and PsycINFO and screened the reference lists of 22 review articles for suitable original articles. Original articles investigating cytokines in patients with FMS were included. Data were extracted by two independent authors. Differences of the cytokine levels of FMS patients and controls were summarized by standardized mean differences (SMD) using a random effects model. Study quality was assessed applying methodological scores: modified Center of Evidence Based Medicine, Newcastle-Ottawa-Scale, and Würzburg Methodological Quality Score. Results: Twenty-five articles were included investigating 1255 FMS patients and 800 healthy controls. Data of 13/25 studies entered meta-analysis. The overall methodological quality of studies was low. The results of the majority of studies were not comparable because methods, investigated material, and investigated target cytokines differed. Systematic review of the selected 25 articles revealed that FMS patients had higher serum levels of interleukin (IL)-1 receptor antagonist, IL-6, and IL-8, and higher plasma levels of IL-8. Meta-analysis of eligible studies showed that FMS patients had higher plasma IL-6 levels compared to controls (SMD = -0.34 [-0.64, -0.03] 95% CI; p = 0.03). The majority of investigated cytokines were not different between patients and controls. Conclusions: The pathophysiological role of cytokines in FMS is still unclear. Studies of higher quality and with higher numbers of subjects are needed. KW - Fibromyalgie Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-69189 ER - TY - JOUR A1 - Özdağ Acarlı, Ayşe Nur A1 - Klein, Thomas A1 - Egenolf, Nadine A1 - Sommer, Claudia A1 - Üçeyler, Nurcan T1 - Subepidermal Schwann cell counts correlate with skin innervation - an exploratory study JF - Muscle & Nerve N2 - Introduction/Aims Schwann cell clusters have been described at the murine dermis-epidermis border. We quantified dermal Schwann cells in the skin of patients with small-fiber neuropathy (SFN) compared with healthy controls to correlate with the clinical phenotype. Methods Skin punch biopsies from the lower legs of 28 patients with SFN (11 men, 17 women; median age, 54 [range, 19-73] years) and 9 healthy controls (five men, four women, median age, 34 [range, 25-69] years) were immunoreacted for S100 calcium-binding protein B as a Schwann cell marker, protein-gene product 9.5 as a pan-neuronal marker, and CD207 as a Langerhans cell marker. Intraepidermal nerve fiber density (IENFD) and subepidermal Schwann cell counts were determined. Results Skin samples of patients with SFN showed lower IENFD (P < .05), fewer Schwann cells per millimeter (P < .01), and fewer Schwann cell clusters per millimeter (P < .05) than controls. When comparing SFN patients with reduced (n = 13; median age, 53 [range, 19-73] years) and normal distal (n = 15, median age, 54 [range, 43-68] years) IENFD, the number of solitary Schwann cells per millimeter (p < .01) and subepidermal nerve fibers associated with Schwann cell branches (P < .05) were lower in patients with reduced IENFD. All three parameters correlated positively with distal IENFD (P < .05 to P < .01), whereas no correlation was found between Schwann cell counts and clinical pain characteristics. Discussion Our data raise questions about the mechanisms underlying the interdependence of dermal Schwann cells and skin innervation in SFN. The temporal course and functional impact of Schwann cell presence and kinetics need further investigation. KW - intraepidermal nerve fiber density KW - small-fiber neuropathy KW - skin punch biopsy KW - Schwann cell KW - neuropathic pain KW - innervation Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-318726 VL - 65 IS - 4 SP - 471 EP - 479 ER - TY - THES A1 - Önal-Hartmann, Cigdem T1 - Emotional Modulation of Motor Memory Formation T1 - Emotionale Modulation des Motorischen Gedächtnises N2 - Hintergründe: Wie eine Vielzahl von Studien belegt, kann das explizite Gedächtnis, das die bewusste Erinnerung an enkodierte Informationen beinhaltet, durch Emotionen beeinflusst werden, und zwar über den Einfluss auf verschiedene Verarbeitungsebenen (Enkodierung, Konsolidierung, Abruf usw.). Bisher wenig untersucht ist, ob und wie Emotionen Vorgänge der motorischen Gedächtnisbildung, die nicht auf bewusster Erinnerung beruhen und sich stattdessen durch Veränderungen im Verhalten darstellen, modulieren. Experiment 1: Das Ziel des ersten Experimentes war es, den Einfluss von Emotionen auf motorisches Lernen zu untersuchen. Vier Gruppen von Probanden mussten in einer motorischen Lernaufgabe schnelle, seitliche Bewegungen mit dem Daumen ausführen. Während dieser Aufgabe hörten die Probanden emotionale Klänge, die in Valenz und Arousal variierten: 1. Valenz negativ/ Arousal niedrig (V-/A-), 2. Valenz negativ/ Arousal hoch (V-/A+), 3. Valenz positiv/ Arousal niedrig (V+/A-), 4. Valenz positiv/ Arousal hoch (V+/A+). Die deskriptive Analyse aller Daten sprach für beste Ergebnisse für das motorische Lernen in der Bedingung V-/A-, aber die Unterschiede zwischen den Bedingungen waren nicht signifikant. Die Interaktion zwischen Valenz und Arousal emotionaler Töne scheint demnach motorische Enkodierungsprozesse zu modulieren, jedoch müssen zukünftige Studien mit unterschiedlichen emotionalen Stimuli die Annahme weiter untersuchen, dass negative Stimuli mit niedrigem Arousal während der Enkodierung einen fördernden Effekt auf das motorische Kurzzeitgedächtnis haben. Experiment 2: Die Absicht des zweiten Experimentes war es, die Auswirkungen emotionaler Interferenzen auf die Konsolidierung beim Sequenzlernen zu untersuchen. Sechs Gruppen von Probanden trainierten zuerst in getrennten Sitzungen eine SRTT-Aufgabe (serial reaction time task). Um die Konsolidierung der neu erlernten Fertigkeit zu modulieren, wurden die Probanden nach dem Training einer von drei unterschiedlichen Klassen emotionaler Stimuli (positiv, negativ oder neutral) ausgesetzt. Diese bestanden aus einem Set emotionaler Bilder, die mit emotional kongruenten Musikstücken oder neutralen Klängen kombiniert waren. Bei den Probandengruppen wurde die emotionale Interferenz nach zwei unterschiedlichen Zeitintervallen realisiert, entweder direkt nach der Trainingssitzung oder sechs Stunden später. 72 Stunden nach der Trainingssitzung wurde jede Gruppe erneut mit der SRTT-Aufgabe getestet. Die Leistung in diesem Nachtest wurde mittels Reaktionszeit und Genauigkeit bei der Ausführung der Zielsequenz analysiert. Die emotionale Interferenz beeinflusste weder die Nachtestergebnisse für die Reaktionszeit noch die für die Genauigkeit. Allerdings konnte eine Steigerung der expliziten Sequenzerkennung durch erregende negative Stimuli festgestellt werden, wenn diese direkt nach der ersten Trainingseinheit (0h) dargeboten wurden. Diese Ergebnisse lassen vermuten, dass die Konsolidierung der expliziten Aspekte prozeduralen Lernens in einer stärkeren Wechselwirkung mit emotionalen Interferenzen stehen könnte als die der impliziten Aspekte. Die Konsolidierung unterschiedlicher Ebenen des Fertigkeitserwerbs könnte demnach von unterschiedlichen Mechanismen gesteuert werden. Da Performanz und explizites Sequenzerkennen nicht korrelierten, vermuten wir, dass implizite und explizite Modalitäten bei der Durchführung der SRTT-Aufgabe nicht komplementär sind. Experiment 3: Es sollte untersucht werden, ob es eine Präferenz der linken Gehirnhemisphäre bei der Kontrolle von Flexionsreaktionen auf positive Stimuli gibt und der rechten Hemisphäre bei der Kontrolle von Extensionsreaktionen auf negative Stimuli. Zu diesem Zweck sollten rechtshändige Probanden einen Joystick zu sich ziehen oder von sich weg drücken, nachdem sie einen positiven oder negativen Stimulus in ihrem linken oder rechten Gesichtsfeld gesehen hatten. Die Flexionsreaktionen waren bei positiven Stimuli schneller, Extensionsreaktion hingegen bei negativen Stimuli. Insgesamt war die Performanz am schnellsten, wenn die emotionalen Stimuli im linken Gesichtsfeld präsentiert wurden. Dieser Vorrang der rechten Gehirnhemisphäre war besonders deutlich für negative Stimuli, wohingegen die Reaktionszeiten auf positive Bilder keine hemisphärische Differenzierung zeigten. Wir konnten keine Interaktion zwischen Gesichtsfeld und Reaktionstyp belegen, auch fand sich keine Dreifachinteraktion zwischen Valenz, Gesichtsfeld und Reaktionstyp. In unserem experimentellen Kontext scheint die Interaktion zwischen Valenz und Gesichtsfeld stärker zu sein als die Interaktion zwischen Valenz und motorischem Verhalten. Auf Grund dieser Ergebnisse vermuten wir, dass unter gewissen Bedingungen eine Hierarchisierung der asymmetrischen Muster Vorrang hat, die möglicherweise andere vorhandene Asymmetrien maskieren könnte. N2 - Background: There is extensive evidence that explicit memory, which involves conscious recall of encoded information, can be modulated by emotions; emotions may influence encoding, consolidation or retrieval of information. However, less is known about the modulatory effects of emotions on procedural processes like motor memory, which do not depend upon conscious recall and are instead demonstrated through changes in behaviour. Experiment 1: The goal of the first experiment was to examine the influence of emotions on motor learning. Four groups of subjects completed a motor learning task performing brisk isometric abductions with their thumb. While performing the motor task, the subjects heard emotional sounds varying in arousal and valence: (1) valence negative / arousal low (V-/A-), (2) valence negative / arousal high (V-/A+), (3) valence positive / arousal low (V+/A-), and (4) valence positive / arousal high (V+/A+). Descriptive analysis of the complete data set showed best performances for motor learning in the V-/A- condition, but the differences between the conditions did not reach significance. Results suggest that the interaction between valence and arousal may modulate motor encoding processes. Since limitations of the study cannot be ruled out, future studies with different emotional stimuli have to test the assumption that exposure to low arousing negative stimuli during encoding has a facilitating effect on short term motor memory. Experiment 2: The purpose of the second experiment was to investigate the effects of emotional interference on consolidation of sequential learning. In different sessions, 6 groups of subjects were initially trained on a serial reaction time task (SRTT). To modulate consolidation of the newly learned skill, subjects were exposed, after the training, to 1 of 3 (positive, negative or neutral) different classes of emotional stimuli which consisted of a set of emotional pictures combined with congruent emotional musical pieces or neutral sound. Emotional intervention for each subject group was done in 2 different time intervals (either directly after the training session, or 6 h later). After a 72 h post-training interval, each group was retested on the SRTT. Re-test performance was evaluated in terms of response times and accuracy during performance of the target sequence. Emotional intervention did not influence either response times or accuracy of re-testing SRTT task performance. However, explicit awareness of sequence knowledge was enhanced by arousing negative stimuli applied at 0 h after training. These findings suggest that consolidation of explicit aspects of procedural learning may be more responsive toward emotional interference than are implicit aspects. Consolidation of different domains of skill acquisition may be governed by different mechanisms. Since skill performance did not correlate with explicit awareness we suggest that implicit and explicit modes of SRTT performance are not complementary. Experiment 3: The aim of the third experiment was to analyze if the left hemisphere preferentially controls flexion responses towards positive stimuli, while the right hemisphere is specialized towards extensor responses to negative pictures. To this end, right-handed subjects had to pull or push a joystick subsequent to seeing a positive or a negative stimulus in their left or right hemifield. Flexion responses were faster for positive stimuli, while negative stimuli were associated with faster extensions responses. Overall, performance was fastest when emotional stimuli were presented to the left visual hemifield. This right hemisphere superiority was especially clear for negative stimuli, while reaction times towards positive pictures showed no hemispheric difference. We did not find any interaction between hemifield and response type. Neither was there a triple interaction between valence, hemifield and response type. In our experimental context the interaction between valence and hemifield seems to be stronger than the interaction between valence and motor behaviour. From these results we suppose that under certain conditions a hierarchy scaling of the asymmetry patterns prevails, which might mask any other existing asymmetries. KW - Motorisches Lernen KW - Gefühl KW - Motorisches Gedächtnis KW - Emotionen KW - Konsolidierung KW - Motor Memory KW - Emotion Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-64838 ER - TY - JOUR A1 - Zürn, Michael A1 - Strack, Fritz T1 - When More Is Better – Consumption Priming Decreases Responders’ Rejections in the Ultimatum Game JF - Frontiers in Psychology N2 - During the past decades, economic theories of rational choice have been exposed to outcomes that were severe challenges to their claim of universal validity. For example, traditional theories cannot account for refusals to cooperate if cooperation would result in higher payoffs. A prominent illustration are responders’ rejections of positive but unequal payoffs in the Ultimatum Game. To accommodate this anomaly in a rational framework one needs to assume both a preference for higher payoffs and a preference for equal payoffs. The current set of studies shows that the relative weight of these preference components depends on external conditions and that consumption priming may decrease responders’ rejections of unequal payoffs. Specifically, we demonstrate that increasing the accessibility of consumption-related information accentuates the preference for higher payoffs. Furthermore, consumption priming increased responders’ reaction times for unequal payoffs which suggests an increased conflict between both preference components. While these results may also be integrated into existing social preference models, we try to identify some basic psychological processes underlying economic decision making. Going beyond the Ultimatum Game, we propose that a distinction between comparative and deductive evaluations may provide a more general framework to account for various anomalies in behavioral economics. KW - Ultimatum Game KW - comparison KW - consumption priming KW - evaluation KW - cognitive processes Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-189989 SN - 1664-1078 VL - 8 IS - 2226 ER - TY - THES A1 - Zürn, Michael T1 - The Dual Nature of Utility - Categorical and Comparative Evaluations in Economic Decisions T1 - Die Dualität des Nutzens - kategoriale und komparative Bewertungen in ökonomischen Entscheidungen N2 - Utility is perhaps the most central concept in modern economic theorizing. However, the behaviorist reduction to Revealed Preference not only removed the psychological content of utility but experimental investigations also exposed numerous anomalies in this theory. This program of research focused on the psychological processes by which utility judgments are generated. For this purpose, the standard assumption of a homogeneous concept is substituted by the Utilitarian Duality Hypothesis. In particular, judgments concerning categorical utility (uCat) infer an object's category based on its attributes which may subsequently allow the transfer of evaluative information like feelings or attitudes. In contrast, comparative utility (uCom) depends on the distance to a reference value on a specific dimension of comparison. Importantly, dimensions of comparison are manifold and context dependent. In a series of experiments, we show that the resulting Dual Utility Model is able to explain several known anomalies in a parsimonious fashion. Moreover, we identify central factors determining the relative weight assigned to both utility components. Finally, we discuss the implications of the Utilitarian Duality for both, the experimental practice in economics as well as the consequences for economic theorizing. In sum, we propose that the Dual Utility Model can serve as an integrative framework for both the rational model and its anomalies. N2 - Der Nutzen ist wohl eines der meist beachteten Konzepte der ökonomischen Theorie. Allerdings entfernte die behavioristische Reduktion auf offenbarte Präferenzen nicht nur den psychologischen Inhalt des Nutzens, sondern zeigte darüber hinaus in experimentellen Untersuchungen auch zahlreiche Anomalien der Theorie auf. Das vorliegende Forschungsprogramm stellt die psychologischen Prozesse in den Vordergrund, mittels derer Nutzen beurteilt wird. Zu diesem Zweck wird die verbreitete Annahme eines homogenen Konzepts durch die Zwei-Nutzen-Hypothese ersetzt. Im Besonderen bestimmen Urteile über den kategorialen Nutzen (uCat) anhand der Attribute eines Objekts zunächst dessen Kategorie, wodurch daraufhin bewertende Informationen, wie z.B. Gefühle oder Einstellungen, auf das Objekt übertragen werden können. Demgegenüber bestimmt sich der komparative Nutzen (uCom) über die Abweichung von einem Referenzwert in einer bestimmten Vergleichsdimension, welche generell zahlreich und kontextabhängig sein können. In einer Serie von Experimenten wird gezeigt, dass das resultierende Zwei-Nutzen-Modell eine Reihe von bekannten Anomalien in einer sparsamen Weise erklären kann. Darüber hinaus werden zentrale Faktoren identifiziert, welche die relative Gewichtung beider Nutzenkomponenten bestimmen. Schließlich werden die Implikationen der Zwei-Nutzen-Hypothese für die experimentelle Praxis und die ökonomische Theorie diskutiert. Zusammenfassend wird ausgeführt, dass das entwickelte Zwei-Nutzen-Modell als integrativer Rahmen für sowohl das rationale Modell als auch für seine Anomalien dienen kann. KW - Nutzen KW - Psychologie KW - Ultimatum Game KW - transaction utility KW - preference construction KW - utility KW - revealed preference KW - Wert KW - Preisvergleich KW - Nutzenvergleich Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-120141 ER - TY - THES A1 - Züfle, Marwin Otto T1 - Proactive Critical Event Prediction based on Monitoring Data with Focus on Technical Systems T1 - Proaktive Vorhersage kritischer Ereignisse auf der Grundlage von Beobachtungsdaten mit Schwerpunkt auf technischen Systemen N2 - The importance of proactive and timely prediction of critical events is steadily increasing, whether in the manufacturing industry or in private life. In the past, machines in the manufacturing industry were often maintained based on a regular schedule or threshold violations, which is no longer competitive as it causes unnecessary costs and downtime. In contrast, the predictions of critical events in everyday life are often much more concealed and hardly noticeable to the private individual, unless the critical event occurs. For instance, our electricity provider has to ensure that we, as end users, are always supplied with sufficient electricity, or our favorite streaming service has to guarantee that we can watch our favorite series without interruptions. For this purpose, they have to constantly analyze what the current situation is, how it will develop in the near future, and how they have to react in order to cope with future conditions without causing power outages or video stalling. In order to analyze the performance of a system, monitoring mechanisms are often integrated to observe characteristics that describe the workload and the state of the system and its environment. Reactive systems typically employ thresholds, utility functions, or models to determine the current state of the system. However, such reactive systems cannot proactively estimate future events, but only as they occur. In the case of critical events, reactive determination of the current system state is futile, whereas a proactive system could have predicted this event in advance and enabled timely countermeasures. To achieve proactivity, the system requires estimates of future system states. Given the gap between design time and runtime, it is typically not possible to use expert knowledge to a priori model all situations a system might encounter at runtime. Therefore, prediction methods must be integrated into the system. Depending on the available monitoring data and the complexity of the prediction task, either time series forecasting in combination with thresholding or more sophisticated machine and deep learning models have to be trained. Although numerous forecasting methods have been proposed in the literature, these methods have their advantages and disadvantages depending on the characteristics of the time series under consideration. Therefore, expert knowledge is required to decide which forecasting method to choose. However, since the time series observed at runtime cannot be known at design time, such expert knowledge cannot be implemented in the system. In addition to selecting an appropriate forecasting method, several time series preprocessing steps are required to achieve satisfactory forecasting accuracy. In the literature, this preprocessing is often done manually, which is not practical for autonomous computing systems, such as Self-Aware Computing Systems. Several approaches have also been presented in the literature for predicting critical events based on multivariate monitoring data using machine and deep learning. However, these approaches are typically highly domain-specific, such as financial failures, bearing failures, or product failures. Therefore, they require in-depth expert knowledge. For this reason, these approaches cannot be fully automated and are not transferable to other use cases. Thus, the literature lacks generalizable end-to-end workflows for modeling, detecting, and predicting failures that require only little expert knowledge. To overcome these shortcomings, this thesis presents a system model for meta-self-aware prediction of critical events based on the LRA-M loop of Self-Aware Computing Systems. Building upon this system model, this thesis provides six further contributions to critical event prediction. While the first two contributions address critical event prediction based on univariate data via time series forecasting, the three subsequent contributions address critical event prediction for multivariate monitoring data using machine and deep learning algorithms. Finally, the last contribution addresses the update procedure of the system model. Specifically, the seven main contributions of this thesis can be summarized as follows: First, we present a system model for meta self-aware prediction of critical events. To handle both univariate and multivariate monitoring data, it offers univariate time series forecasting for use cases where a single observed variable is representative of the state of the system, and machine learning algorithms combined with various preprocessing techniques for use cases where a large number of variables are observed to characterize the system’s state. However, the two different modeling alternatives are not disjoint, as univariate time series forecasts can also be included to estimate future monitoring data as additional input to the machine learning models. Finally, a feedback loop is incorporated to monitor the achieved prediction quality and trigger model updates. We propose a novel hybrid time series forecasting method for univariate, seasonal time series, called Telescope. To this end, Telescope automatically preprocesses the time series, performs a kind of divide-and-conquer technique to split the time series into multiple components, and derives additional categorical information. It then forecasts the components and categorical information separately using a specific state-of-the-art method for each component. Finally, Telescope recombines the individual predictions. As Telescope performs both preprocessing and forecasting automatically, it represents a complete end-to-end approach to univariate seasonal time series forecasting. Experimental results show that Telescope achieves enhanced forecast accuracy, more reliable forecasts, and a substantial speedup. Furthermore, we apply Telescope to the scenario of predicting critical events for virtual machine auto-scaling. Here, results show that Telescope considerably reduces the average response time and significantly reduces the number of service level objective violations. For the automatic selection of a suitable forecasting method, we introduce two frameworks for recommending forecasting methods. The first framework extracts various time series characteristics to learn the relationship between them and forecast accuracy. In contrast, the other framework divides the historical observations into internal training and validation parts to estimate the most appropriate forecasting method. Moreover, this framework also includes time series preprocessing steps. Comparisons between the proposed forecasting method recommendation frameworks and the individual state-of-the-art forecasting methods and the state-of-the-art forecasting method recommendation approach show that the proposed frameworks considerably improve the forecast accuracy. With regard to multivariate monitoring data, we first present an end-to-end workflow to detect critical events in technical systems in the form of anomalous machine states. The end-to-end design includes raw data processing, phase segmentation, data resampling, feature extraction, and machine tool anomaly detection. In addition, the workflow does not rely on profound domain knowledge or specific monitoring variables, but merely assumes standard machine monitoring data. We evaluate the end-to-end workflow using data from a real CNC machine. The results indicate that conventional frequency analysis does not detect the critical machine conditions well, while our workflow detects the critical events very well with an F1-score of almost 91%. To predict critical events rather than merely detecting them, we compare different modeling alternatives for critical event prediction in the use case of time-to-failure prediction of hard disk drives. Given that failure records are typically significantly less frequent than instances representing the normal state, we employ different oversampling strategies. Next, we compare the prediction quality of binary class modeling with downscaled multi-class modeling. Furthermore, we integrate univariate time series forecasting into the feature generation process to estimate future monitoring data. Finally, we model the time-to-failure using not only classification models but also regression models. The results suggest that multi-class modeling provides the overall best prediction quality with respect to practical requirements. In addition, we prove that forecasting the features of the prediction model significantly improves the critical event prediction quality. We propose an end-to-end workflow for predicting critical events of industrial machines. Again, this approach does not rely on expert knowledge except for the definition of monitoring data, and therefore represents a generalizable workflow for predicting critical events of industrial machines. The workflow includes feature extraction, feature handling, target class mapping, and model learning with integrated hyperparameter tuning via a grid-search technique. Drawing on the result of the previous contribution, the workflow models the time-to-failure prediction in terms of multiple classes, where we compare different labeling strategies for multi-class classification. The evaluation using real-world production data of an industrial press demonstrates that the workflow is capable of predicting six different time-to-failure windows with a macro F1-score of 90%. When scaling the time-to-failure classes down to a binary prediction of critical events, the F1-score increases to above 98%. Finally, we present four update triggers to assess when critical event prediction models should be re-trained during on-line application. Such re-training is required, for instance, due to concept drift. The update triggers introduced in this thesis take into account the elapsed time since the last update, the prediction quality achieved on the current test data, and the prediction quality achieved on the preceding test data. We compare the different update strategies with each other and with the static baseline model. The results demonstrate the necessity of model updates during on-line application and suggest that the update triggers that consider both the prediction quality of the current and preceding test data achieve the best trade-off between prediction quality and number of updates required. We are convinced that the contributions of this thesis constitute significant impulses for the academic research community as well as for practitioners. First of all, to the best of our knowledge, we are the first to propose a fully automated, end-to-end, hybrid, component-based forecasting method for seasonal time series that also includes time series preprocessing. Due to the combination of reliably high forecast accuracy and reliably low time-to-result, it offers many new opportunities in applications requiring accurate forecasts within a fixed time period in order to take timely countermeasures. In addition, the promising results of the forecasting method recommendation systems provide new opportunities to enhance forecasting performance for all types of time series, not just seasonal ones. Furthermore, we are the first to expose the deficiencies of the prior state-of-the-art forecasting method recommendation system. Concerning the contributions to critical event prediction based on multivariate monitoring data, we have already collaborated closely with industrial partners, which supports the practical relevance of the contributions of this thesis. The automated end-to-end design of the proposed workflows that do not demand profound domain or expert knowledge represents a milestone in bridging the gap between academic theory and industrial application. Finally, the workflow for predicting critical events in industrial machines is currently being operationalized in a real production system, underscoring the practical impact of this thesis. N2 - Die Bedeutung einer proaktiven und rechtzeitigen Vorhersage von kritischen Ereignissen nimmt immer weiter zu, sei es in der Fertigungsindustrie oder im Privatleben. In der Vergangenheit wurden Maschinen in der Fertigungsindustrie oft auf der Grundlage eines regelmäßigen Zeitplans oder aufgrund von Grenzwertverletzungen gewartet, was heutzutage nicht mehr wettbewerbsfähig ist, da es unnötige Kosten und Ausfallzeiten verursacht. Im Gegensatz dazu sind die Vorhersagen von kritischen Ereignissen im Alltag oft wesentlich versteckter und für die Privatperson kaum spürbar, es sei denn das kritische Ereignis tritt ein. So muss zum Beispiel unser Stromanbieter dafür sorgen, dass wir als Endverbraucher immer ausreichend mit Strom versorgt werden, oder unser Streaming-Dienst muss garantieren, dass wir unsere Lieblingsserie jederzeit ohne Unterbrechungen anschauen können. Hierzu müssen diese ständig analysieren wie der aktuelle Zustand ist, wie er sich in naher Zukunft entwickeln wird und wie sie reagieren müssen, um die zukünftigen Bedingungen zu bewältigen, ohne dass es zu Stromausfällen oder Videoabbrüchen kommt. Zur Analyse der Leistung eines Systems werden häufig Überwachungsmechanismen integriert, um Merkmale zu beobachten, die die Arbeitslast und den Zustand des Systems und seiner Umgebung abbilden. Reaktive Systeme verwenden typischerweise Schwellenwerte, Nutzenfunktionen oder Modelle, um den aktuellen Zustand des Systems zu bestimmen. Allerdings können solche reaktiven Systeme zukünftige Ereignisse nicht proaktiv abschätzen, sondern lediglich sobald diese eintreten. Bei kritischen Ereignissen ist die reaktive Bestimmung des aktuellen Systemzustands jedoch zwecklos, während ein proaktives System dieses Ereignis im Voraus hätte vorhersagen und rechtzeitig Gegenmaßnahmen einleiten können. Um Proaktivität zu erreichen, benötigt das System Abschätzungen über zukünftige Systemzustände. Angesichts der Kluft zwischen Entwurfszeit und Laufzeit ist es typischerweise nicht möglich Expertenwissen zu verwenden, um alle Situationen zu modellieren, auf die ein System zur Laufzeit stoßen könnte. Daher müssen Vorhersagemethoden in das System integriert werden. Abhängig von den verfügbaren Überwachungsdaten und der Komplexität der Vorhersageaufgabe müssen entweder Zeitreihenprognosen in Kombination mit Schwellenwerten oder ausgefeiltere Modelle des „Machine Learning“ und „Deep Learning“ trainiert werden. Obwohl in der Literatur schon zahlreiche Zeitreihenprognosemethoden vorgeschlagen wurden, haben alle diese Methoden in Abhängigkeit der Eigenschaften der betrachteten Zeitreihen ihre Vor- und Nachteile. Daher ist Expertenwissen erforderlich, um zu entscheiden, welche Zeitreihenprognosemethode gewählt werden sollte. Da jedoch die zur Laufzeit beobachteten Zeitreihen zur Entwurfszeit nicht bekannt sein können, lässt sich ein solches Expertenwissen nicht im System integrieren. Zusätzlich zur Auswahl einer geeigneten Zeitreihenprognosemethode sind mehrere Zeitreihenvorverarbeitungsschritte erforderlich, um eine zufriedenstellende Prognosegenauigkeit zu erreichen. In der Literatur wird diese Vorverarbeitung oft manuell durchgeführt, was für autonome Computersysteme, wie z. B. „Self-Aware Computing Systems“, nicht praktikabel ist. Hinsichtlich der Vorhersage kritischer Ereignisse auf der Grundlage multivariater Überwachungsdaten wurden in der Literatur auch bereits mehrere Ansätze unter Verwendung von „Machine Learning“ und „Deep Learning“ vorgestellt. Diese Ansätze sind jedoch typischerweise sehr domänenspezifisch, wie z. B. für finanzielle Zusammenbrüche, Lagerschäden oder Produktfehler. Aus diesem Grund erfordern sie umfassendes Expertenwissen. Durch den spezifischen Zuschnitt auf die jeweilige Domäne können diese Ansätze nicht vollständig automatisiert werden und sind nicht auf andere Anwendungsfälle übertragbar. Somit fehlt es in der Literatur an verallgemeinerbaren Ende-zu-Ende Prozessen zur Modellierung, Erkennung und Vorhersage von Ausfällen, die lediglich wenig Expertenwissen erfordern. Um diese Unzulänglichkeiten zu überwinden, wird in dieser Arbeit ein Systemmodell zur meta-selbstbewussten Vorhersage kritischer Ereignisse vorgestellt, das auf der LRA-M-Schleife von „Self-Aware Computing Systems“ basiert. Aufbauend auf diesem Systemmodell liefert diese Arbeit sechs weitere Beiträge zur Vorhersage kritischer Ereignisse. Während sich die ersten beiden Beiträge mit der Vorhersage kritischer Ereignisse auf der Basis univariater Daten mittels Zeitreihenprognose befassen, adressieren die drei folgenden Beiträge die Vorhersage kritischer Ereignisse für multivariate Überwachungsdaten unter Verwendung von „Machine Learning“ und „Deep Learning“ Algorithmen. Der letzte Beitrag schließlich behandelt das Aktualisierungsverfahren des Systemmodells. Im Einzelnen lassen sich die sieben Hauptbeiträge dieser Arbeit wie folgt zusammenfassen: Zunächst stellen wir ein Systemmodell für die meta-selbstbewusste Vorhersage von kritischen Ereignissen vor. Um sowohl univariate als auch multivariate Überwachungsdaten verarbeiten zu können, bietet es univariate Zeitreihenprognosen für Anwendungsfälle, in denen eine einzelne Beobachtungsgröße repräsentativ für den Zustand des Systems ist, sowie „Machine Learning“ und „Deep Learning“ Algorithmen in Kombination mit verschiedenen Vorverarbeitungstechniken für Anwendungsfälle, in denen eine große Anzahl von Variablen beobachtet wird, um den Zustand des Systems zu charakterisieren. Die beiden unterschiedlichen Modellierungsalternativen sind jedoch nicht disjunkt, da auch univariate Zeitreihenprognosen einbezogen werden können, um zukünftige Überwachungsdaten als zusätzliche Eingabe für die „Machine Learning“ und „Deep Learning“ Modelle zu schätzen. Schließlich ist eine Rückkopplungsschleife eingebaut, die die erreichte Vorhersagequalität überwacht und gegebenenfalls Modellaktualisierungen auslöst. Wir präsentieren eine neuartige, hybride Zeitreihenvorhersagemethode für univariate, saisonale Zeitreihen, die wir Telescope nennen. Telescope verarbeitet die Zeitreihe automatisch vor, führt eine Art „Divide-and-Conquer“ Technik durch, welche die Zeitreihe in mehrere Komponenten unterteilt, und leitet zusätzliche kategoriale Informationen ab. Anschließend prognostiziert es die Komponenten und kategorialen Informationen getrennt voneinander mit einer spezifischen Methode für jede Komponente. Abschließend setzt Telescope die einzelnen Vorhersagen wieder zusammen. Da Telescope alle Vorverarbeitungsschritte und Vorhersagen automatisch durchführt, stellt es einen vollständigen Ende-zu-Ende Ansatz für univariate, saisonale Zeitreihenvorhersagen dar. Experimentelle Ergebnisse zeigen, dass Telescope eine verbesserte Vorhersagegenauigkeit, zuverlässigere Vorhersagen und eine erhebliche Beschleunigung erreicht. Darüber hinaus wenden wir Telescope für die Vorhersage kritischer Ereignisse bei der automatischen Skalierung von virtuellen Maschinen an. Die Ergebnisse belegen, dass Telescope die durchschnittliche Antwortzeit erheblich reduziert und die Anzahl der Verletzungen der Service Level Zielvorgaben signifikant verringert. Für die automatische Auswahl einer geeigneten Zeitreihenprognosemethode führen wir zwei Empfehlungssysteme ein. Das erste System extrahiert verschiedene Zeitreihencharakteristika, um die Beziehung zwischen ihnen und der Prognosegenauigkeit zu erlernen. Im Gegensatz dazu unterteilt das zweite System die historischen Beobachtungen in interne Trainings- und Validierungsteile, um die am besten geeignete Zeitreihenprognosemethode zu schätzen. Außerdem beinhaltet letzteres System auch Zeitreihenvorverarbeitungsschritte. Vergleiche zwischen den vorgeschlagenen Empfehlungssystemen für Zeitreihenprognosemethoden und den einzelnen Prognosemethoden sowie dem Ansatz zur Empfehlung von Zeitreihenprognosemethoden nach dem Stand der Technik ergeben, dass die vorgeschlagenen Systeme die Prognosegenauigkeit erheblich verbessern. Im Hinblick auf multivariate Überwachungsdaten stellen wir zunächst einen Ende-zu-Ende Prozess vor, mit dem kritische Ereignisse in technischen Systemen in Form von anomalen Maschinenzuständen erkannt werden können. Der Ende-zu-Ende Entwurf umfasst die Rohdatenverarbeitung, die Phasensegmentierung, das Datenresampling, die Merkmalsextraktion und die Maschinenanomalieerkennung. Darüber hinaus stützt sich der Prozess explizit nicht auf tiefgreifendes Domänenwissen oder spezifische Überwachungsgrößen, sondern setzt lediglich gängige Maschinenüberwachungsdaten voraus. Wir evaluieren den Ende-zu-Ende Prozess anhand von Daten einer realen CNC-Maschine. Die Ergebnisse zeigen, dass die konventionelle Frequenzanalyse die kritischen Maschinenzustände nicht gut erkennt, während unser Prozess die kritischen Ereignisse mit einem F1-Wert von fast 91% sehr gut identifiziert. Um kritische Ereignisse vorherzusagen, anstatt sie nur reaktiv zu erkennen, vergleichen wir verschiedene Modellierungsalternativen für die Vorhersage kritischer Ereignisse im Anwendungsfall der Vorhersage der Zeit bis zum nächsten Fehler von Festplattenlaufwerken. Da Fehlerdatensätze typischerweise wesentlich seltener sind als Instanzen, die den Normalzustand repräsentieren, setzen wir verschiedene Strategien zum Erzeugen künstlicher Fehlerinstanzen ein. Im nächsten Schritt vergleichen wir die Vorhersagequalität der binären Klassenmodellierung mit der herunterskalierten Mehrklassenmodellierung. Des Weiteren integrieren wir die univariate Zeitreihenprognose in den Merkmalsgenerierungsprozess, um so die zukünftigen Überwachungsdaten zu schätzen. Schließlich modellieren wir die Zeit bis zum nächsten Fehler nicht nur mithilfe von Klassifikationsmodellen, sondern auch mit Regressionsmodellen. Die Ergebnisse legen nahe, dass die Mehrklassenmodellierung die insgesamt beste Vorhersagequalität hinsichtlich praktischer Anforderungen liefert. Außerdem belegen wir, dass die Prognose der Merkmale des Vorhersagemodells mittels univariater Zeitreihenprognose die Qualität der Vorhersage kritischer Ereignisse signifikant verbessert. Wir stellen einen Ende-zu-Ende Prozess für die Vorhersage kritischer Ereignisse von Industriemaschinen vor. Auch dieser Ansatz verlässt sich nicht auf Expertenwissen, mit Ausnahme der Definition von Überwachungsdaten, und stellt daher einen verallgemeinerbaren Prozess für die Vorhersage kritischer Ereignisse von Industriemaschinen dar. Der Prozess umfasst Merkmalsextraktion, Merkmalsverarbeitung, Zielklassenzuordnung und Modelllernen mit integrierter Hyperparameter-Abstimmung mittels einer Gittersuchtechnik. Ausgehend von den Ergebnissen des vorherigen Beitrags modelliert der Prozess die Vorhersage der Zeit bis zum nächsten Fehler in Form mehrerer Klassen, wobei wir verschiedene Beschriftungsstrategien für die Mehrklassenklassifizierung vergleichen. Die Evaluierung anhand realer Produktionsdaten einer großen Industriepresse demonstriert, dass der Prozess in der Lage ist, sechs verschiedene Zeitfenster für bevorstehende Fehler mit einem Makro F1-Wert von 90% vorherzusagen. Wenn man die Klassen der Zeit bis zum nächsten Fehler auf eine binäre Vorhersage von kritischen Ereignissen herunterskaliert, steigt der F1-Wert sogar auf über 98%. Schließlich stellen wir vier Aktualisierungsauslöser vor, um zu bestimmen, wann Modelle zur Vorhersage kritischer Ereignisse während der Online-Anwendung neu trainiert werden sollten. Ein solches Neutraining ist bspw. aufgrund von Konzeptdrift erforderlich. Die in dieser Arbeit vorgestellten Aktualisierungsauslöser berücksichtigen die Zeit, die seit der letzten Aktualisierung verstrichen ist, die auf den aktuellen Testdaten erreichte Vorhersagequalität und die auf den vorangegangenen Testdaten erreichte Vorhersagequalität. Wir vergleichen die verschiedenen Aktualisierungsstrategien miteinander und mit dem statischen Ausgangsmodell. Die Ergebnisse veranschaulichen die Notwendigkeit von Modellaktualisierungen während der Online-Anwendung und legen nahe, dass die Aktualisierungsauslöser, die sowohl die Vorhersagequalität der aktuellen als auch der vorangegangenen Testdaten berücksichtigen, den besten Kompromiss zwischen Vorhersagequalität und Anzahl der erforderlichen Aktualisierungen erzielen. Wir sind der festen Überzeugung, dass die Beiträge dieser Arbeit sowohl für die akademische Forschungsgemeinschaft als auch für die praktische Anwendung wichtige Impulse darstellen. Zuallererst sind wir unseres Wissens nach die ersten, die eine vollautomatische, hybride, komponentenbasierte, Ende-zu-Ende Prognosemethode für saisonale Zeitreihen vorschlagen, die auch die Zeitreihenvorverarbeitung beinhaltet. Durch die Verbindung einer zuverlässig hohen Vorhersagegenauigkeit mit einer zuverlässig niedrigen Zeit bis zum Ergebnis eröffnet diese viele neue Möglichkeiten für Anwendungen, die genaue Vorhersagen innerhalb eines festen Zeitraums erfordern, um rechtzeitig Gegenmaßnahmen ergreifen zu können. Darüber hinaus bieten die vielversprechenden Ergebnisse der Empfehlungssysteme für Zeitreihenprognosemethoden neue Ansätze zur Verbesserung der Vorhersageleistung für alle Arten von Zeitreihen, nicht nur für saisonale Zeitreihen. Ferner sind wir die ersten, die die Schwachstellen des bisherigen Stands der Technik bei der Empfehlung von Zeitreihenprognosemethoden aufgedeckt haben. Hinsichtlich der Beiträge zur Vorhersage kritischer Ereignisse mittels multivariater Überwachungsdaten haben wir bereits eng mit Industriepartnern zusammengearbeitet,wodurch die hohe praktische Relevanz der Beiträge dieser Arbeit verdeutlicht wird. Der automatisierte Ende-zu-Ende Entwurf der vorgeschlagenen Prozesse, die kein tiefes Domänen- oder Expertenwissen erfordern, stellt einen Meilenstein in der Überbrückung der Kluft zwischen akademischer Theorie und industrieller Anwendung dar. Diese Tatsache wird insbesondere dadurch untermauert, dass der Prozess zur Vorhersage kritischer Ereignisse in Industriemaschinen derzeit bereits in einem realen Produktionssystem operationalisiert wird. KW - Prognose KW - Automation KW - Zeitreihe KW - Forecasting KW - Zeitreihenvorhersage KW - Failure Prediction KW - Fehlervorhersage KW - End-to-End Automation KW - Ende-zu-Ende Automatisierung Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-255757 ER - TY - JOUR A1 - Zyberaj, Jetmir A1 - Seibel, Sebastian A1 - Schowalter, Annika F. A1 - Pötz, Lennart A1 - Richter-Killenberg, Stefanie A1 - Volmer, Judith T1 - Developing sustainable careers during a pandemic: the role of psychological capital and career adaptability JF - Sustainability N2 - The Coronavirus disease 2019 (COVID-19) has not only had negative effects on employees' health, but also on their prospects to gain and maintain employment. Using a longitudinal research design with two measurement points, we investigated the ramifications of various psychological and organizational resources on employees' careers during the COVID-19 pandemic. Specifically, in a sample of German employees (N = 305), we investigated the role of psychological capital (PsyCap) for four career-related outcomes: career satisfaction, career engagement, coping with changes in career due to COVID-19, and career-related COVID-19 worries. We also employed leader–member exchange (LMX) as a moderator and career adaptability as a mediating variable in these relationships. Results from path analyses revealed a positive association between PsyCap and career satisfaction and career coping. Furthermore, PsyCap was indirectly related to career engagement through career adaptability. However, moderation analysis showed no moderating role of LMX on the link between PsyCap and career adaptability. Our study contributes to the systematic research concerning the role of psychological and organizational resources for employees' careers and well-being, especially for crisis contexts. KW - psychological capital KW - career adaptability KW - LMX KW - career engagement KW - career satisfaction KW - career coping KW - COVID-19 Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-267286 SN - 2071-1050 VL - 14 IS - 5 ER - TY - JOUR A1 - Zwirner, Johann A1 - Bohnert, Simone A1 - Franke, Heike A1 - Garland, Jack A1 - Hammer, Niels A1 - Möbius, Dustin A1 - Tse, Rexson A1 - Ondruschka, Benjamin T1 - Assessing protein biomarkers to detect lethal acute traumatic brain injuries in cerebrospinal fluid JF - Biomolecules N2 - Diagnosing traumatic brain injury (TBI) from body fluids in cases where there are no obvious external signs of impact would be useful for emergency physicians and forensic pathologists alike. None of the previous attempts has so far succeeded in establishing a single biomarker to reliably detect TBI with regards to the sensitivity: specificity ratio in a post mortem setting. This study investigated a combination of body fluid biomarkers (obtained post mortem), which may be a step towards increasing the accuracy of biochemical TBI detection. In this study, serum and cerebrospinal fluid (CSF) samples from 30 acute lethal TBI cases and 70 controls without a TBI-related cause of death were evaluated for the following eight TBI-related biomarkers: brain-derived neurotrophic factor (BDNF), ferritin, glial fibrillary acidic protein (GFAP), interleukin 6 (IL-6), lactate dehydrogenase, neutrophil gelatinase-associated lipocalin (NGAL), neuron-specific enolase and S100 calcium-binding protein B. Correlations among the individual TBI biomarkers were assessed, and a specificity-accentuated threshold value analysis was conducted for all biomarkers. Based on these values, a decision tree modelling approach was performed to assess the most accurate biomarker combination to detect acute lethal TBIs. The results showed that 92.45% of acute lethal TBIs were able to be diagnosed using a combination of IL-6 and GFAP in CSF. The probability of detecting an acute lethal TBI was moderately increased by GFAP alone and considerably increased by the remaining biomarkers. BDNF and NGAL were almost perfectly correlated (p = 0.002; R\(^2\) = 0.944). This study provides evidence that acute lethal TBIs can be detected to a high degree of statistical accuracy using forensic biochemistry. The high inter-individual correlations of biomarkers may help to estimate the CSF concentration of an unknown biomarker, using extrapolation techniques. KW - biomarker combination KW - glial fibrillary acidic protein KW - interleukin-6 KW - post mortem biochemistry KW - traumatic brain injury Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-248587 SN - 2218-273X VL - 11 IS - 11 ER - TY - JOUR A1 - Zwirner, Johann A1 - Anders, Sven A1 - Bohnert, Simone A1 - Burkhardt, Ralph A1 - Da Broi, Ugo A1 - Hammer, Niels A1 - Pohlers, Dirk A1 - Tse, Rexson A1 - Ondruschka, Benjamin T1 - Screening for fatal traumatic brain injuries in cerebrospinal fluid using blood-validated CK and CK−MB immunoassays JF - Biomolecules N2 - A single, specific, sensitive biochemical biomarker that can reliably diagnose a traumatic brain injury (TBI) has not yet been found, but combining different biomarkers would be the most promising approach in clinical and postmortem settings. In addition, identifying new biomarkers and developing laboratory tests can be time-consuming and economically challenging. As such, it would be efficient to use established clinical diagnostic assays for postmortem biochemistry. In this study, postmortem cerebrospinal fluid samples from 45 lethal TBI cases and 47 controls were analyzed using commercially available blood-validated assays for creatine kinase (CK) activity and its heart-type isoenzyme (CK–MB). TBI cases with a survival time of up to two hours showed an increase in both CK and CK–MB with moderate (CK–MB: AUC = 0.788, p < 0.001) to high (CK: AUC = 0.811, p < 0.001) diagnostic accuracy. This reflected the excessive increase of the brain-type CK isoenzyme (CK–BB) following a TBI. The results provide evidence that CK immunoassays can be used as an adjunct quantitative test aid in diagnosing acute TBI-related fatalities. KW - cerebrospinal fluid KW - creatine kinase KW - fatal traumatic brain injury KW - postmortem biochemistry Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-242769 SN - 2218-273X VL - 11 IS - 7 ER - TY - JOUR A1 - Zwink, Nadine A1 - Jenetzky, Ekkehart A1 - Schmiedeke, Eberhard A1 - Schmidt, Dominik A1 - Märzheuser, Schmidt A1 - Grasshoff-Derr, Sabine A1 - Holland-Cunz, Stefan A1 - Weih, Sandra A1 - Hosie, Stuart A1 - Reifferscheid, Peter A1 - Ameis, Helen A1 - Kujath, Christina A1 - Rissmann, Anke A1 - Obermayr, Florian A1 - Schwarzer, Nicole A1 - Bartels, Enrika A1 - Reutter, Heiko A1 - Brenner, Hermann T1 - Assisted reproductive techniques and the risk of anorectal malformations: a German case-control study JF - Orphanet Journal of Rare Diseases N2 - Background: The use of assisted reproductive techniques (ART) for treatment of infertility is increasing rapidly worldwide. However, various health effects have been reported including a higher risk of congenital malformations. Therefore, we assessed the risk of anorectal malformations (ARM) after in-vitro fertilization (IVF) and intracytoplasmic sperm injection (ICSI). Methods: Data of the German Network for Congenital Uro-REctal malformations (CURE-Net) were compared to nationwide data of the German IVF register and the Federal Statistical Office (DESTATIS). Odds ratios (95% confidence intervals) were determined to quantify associations using multivariable logistic regression accounting for potential confounding or interaction by plurality of births. Results: In total, 295 ARM patients born between 1997 and 2011 in Germany, who were recruited through participating pediatric surgeries from all over Germany and the German self-help organisation SoMA, were included. Controls were all German live-births (n = 10,069,986) born between 1997 and 2010. Overall, 30 cases (10%) and 129,982 controls (1%) were born after IVF or ICSI, which translates to an odds ratio (95% confidence interval) of 8.7 (5.9-12.6) between ART and ARM in bivariate analyses. Separate analyses showed a significantly increased risk for ARM after IVF (OR, 10.9; 95% CI, 6.2-19.0; P < 0.0001) as well as after ICSI (OR, 7.5; 95% CI, 4.6-12.2; P < 0.0001). Furthermore, separate analyses of patients with isolated ARM, ARM with associated anomalies and those with a VATER/VACTERL association showed strong associations with ART (ORs 4.9, 11.9 and 7.9, respectively). After stratification for plurality of birth, the corresponding odds ratios (95% confidence intervals) were 7.7 (4.6-12.7) for singletons and 4.9 (2.4-10.1) for multiple births. Conclusions: There is a strongly increased risk for ARM among children born after ART. Elevations of risk were seen after both IVF and ICSI. Further, separate analyses of patients with isolated ARM, ARM with associated anomalies and those with a VATER/VACTERL association showed increased risks in each group. An increased risk of ARM was also seen among both singletons and multiple births. KW - metaanalysis KW - in-vitro fertilization KW - reproductive medicine KW - anal atresia KW - imperforate anus KW - anorectal malformation KW - birth defects KW - prevalence KW - assisted reproductive techniques KW - congenital malformations KW - descriptive epidemiology KW - infants born KW - children born KW - IVF-methods KW - technology Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-134036 VL - 7 IS - 65 ER -