@phdthesis{Fehler2010, author = {Fehler, Manuel}, title = {Kalibrierung Agenten-basierter Simulationen}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-64762}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2010}, abstract = {In der vorliegenden Arbeit wird das Problem der Kalibrierung Agenten-basierter Simulationen (ABS) behandelt, also das Problem, die Parameterwerte eines Agenten-basierten Simulationsmodells so einzustellen, dass valides Simulationsverhalten erreicht wird. Das Kalibrierungsproblem f{\"u}r Simulationen an sich ist nicht neu und ist im Rahmen klassischer Simulationsparadigmen, wie z.B. der Makro-Simulation, fester Bestandteil der Forschung. Im Vergleich zu den dort betrachteten Kalibrierungsproblemen zeichnet sich das Kalibrierungsproblem f{\"u}r ABS jedoch durch eine Reihe zus{\"a}tzlicher Herausforderungen aus, welche die direkte Anwendung existierender Kalibrierungsverfahren in begrenzter Zeit erschweren, bzw. nicht mehr sinnvoll zulassen. Die L{\"o}sung dieser Probleme steht im Zentrum dieser Dissertation: Das Ziel besteht darin, den Nutzer bei der Kalibrierung von ABS auf der Basis von unzureichenden, potentiell fehlerhaften Daten und Wissen zu unterst{\"u}tzen. Dabei sollen drei Hauptprobleme gel{\"o}st werden: 1)Vereinfachung der Kalibrierung großer Agenten-Parametermengen auf der Mikro- Ebene in Agenten-basierten Simulationen durch Ausnutzung der spezifischen Struktur von ABS (n{\"a}mlich dem Aufbau aus einer Menge von Agentenmodellen). 2)Kalibrierung Agenten-basierter Simulationen, so dass auf allen relevanten Beobachtungsebenen valides Simulationsverhalten erzeugt wird (mindestens Mikro und Makro-Ebene). Als erschwerende Randbedingung muss die Kalibrierung unter der Voraussetzung einer Makro-Mikro-Wissensl{\"u}cke durchgef{\"u}hrt werden. 3)Kalibrierung Agenten-basierter Simulationen auf der Mikro-Ebene unter der Voraussetzung, dass zur Kalibrierung einzelner Agentenmodelle nicht ausreichend und potentiell verf{\"a}lschte Daten zur Verhaltensvalidierung zur Verf{\"u}gung stehen. Hierzu wird in dieser Arbeit das sogenannte Makro-Mikro-Verfahren zur Kalibrierung von Agenten-basierten Simulationen entwickelt. Das Verfahren besteht aus einem Basisverfahren, das im Verlauf der Arbeit um verschiedene Zusatzverfahren erweitert wird. Das Makro-Mikro-Verfahren und seine Erweiterungen sollen dazu dienen, die Modellkalibrierung trotz stark verrauschter Daten und eingeschr{\"a}nktem Wissen {\"u}ber die Wirkungszusammenh{\"a}nge im Originalsystem geeignet zu erm{\"o}glichen und dabei den Kalibrierungsprozess zu beschleunigen: 1) Makro-Mikro-Kalibrierungsverfahren: Das in dieser Arbeit entwickelte Makro- Mikro-Verfahren unterst{\"u}tzt den Nutzer durch eine kombinierte Kalibrierung auf der Mikro- und der Makro-Beobachtungsebene, die gegebenenfalls durch Zwischenebenen erweitert werden kann. Der Grundgedanke des Verfahrens besteht darin, das Kalibrierungsproblem in eines auf aggregierter Verhaltensebene und eines auf der Ebene des Mikro-Agentenverhaltens aufzuteilen. Auf der Makro-Ebene wird nach validen idealen aggregierten Verhaltensmodellen (IVM) der Agenten gesucht. Auf der Mikro-Ebene wird versucht die individuellen Modelle der Agenten auf Basis des erw{\"u}nschten Gesamtverhaltens und der ermittelten IVM so zu kalibrieren, das insgesamt Simulationsverhalten entsteht, das sowohl auf Mikro- als auch auf Makro-Ebene valide ist. 2) Erweiterung 1: Robuste Kalibrierung: Um den Umgang mit potentiell verrauschten Validierungskriterien (d.h. mit verrauschten Daten {\"u}ber ein Originalsystem, auf denen die Validierungskriterien der Simulation beruhen) und Modellteilen w{\"a}hrend der Kalibrierung von ABS zu erm{\"o}glichen, wird eine robuste Kalibrierungstechnik zur Anwendung im Makro-Mikro-Verfahren entwickelt. 3) Erweiterung 2: Kalibrierung mit Heterogenit{\"a}tssuche: Als zweite Erweiterung des Makro-Mikro-Verfahrens wird ein Verfahren entwickelt, das das Problem des unklaren Detaillierungsgrades von ABS auf der Ebene der Parameterwerte adressiert. Prinzipiell kann zwar jeder Agent unterschiedliche Parameterwerte verwenden, obwohl eine geringere Heterogenit{\"a}t zur Erzeugung validen Verhaltens ausreichend w{\"a}re. Die entwickelte Erweiterung versucht, w{\"a}hrend der Kalibrierung, eine geeignete Heterogenit{\"a}tsauspr{\"a}gung f{\"u}r die Parameterwerte der Agenten zu ermitteln. Unter einer Heterogenit{\"a}tsauspr{\"a}gung wird dabei eine Einteilung der simulierten Agenten in Gruppen mit jeweils gleichen Parameterwerten verstanden. Die Heterogenit{\"a}tssuche dient dazu, einen Kompromiss zu finden zwischen der Notwendigkeit, sehr große Parametersuchr{\"a}ume durchsuchen zu m{\"u}ssen und gleichzeitig den Suchraum so klein wie m{\"o}glich halten zu wollen.}, subject = {Computersimulation}, language = {de} } @article{EliasHeuschmannSchmittetal.2013, author = {Elias, Johannes and Heuschmann, Peter U. and Schmitt, Corinna and Eckhardt, Frithjof and Boehm, Hartmut and Maier, Sebastian and Kolb-M{\"a}urer, Annette and Riedmiller, Hubertus and M{\"u}llges, Wolfgang and Weisser, Christoph and Wunder, Christian and Frosch, Matthias and Vogel, Ulrich}, title = {Prevalence dependent calibration of a predictive model for nasal carriage of methicillin-resistant Staphylococcus aureus}, series = {BMC Infectious Diseases}, journal = {BMC Infectious Diseases}, doi = {10.1186/1471-2334-13-111}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-96091}, year = {2013}, abstract = {Background Published models predicting nasal colonization with Methicillin-resistant Staphylococcus aureus among hospital admissions predominantly focus on separation of carriers from non-carriers and are frequently evaluated using measures of discrimination. In contrast, accurate estimation of carriage probability, which may inform decisions regarding treatment and infection control, is rarely assessed. Furthermore, no published models adjust for MRSA prevalence. Methods Using logistic regression, a scoring system (values from 0 to 200) predicting nasal carriage of MRSA was created using a derivation cohort of 3091 individuals admitted to a European tertiary referral center between July 2007 and March 2008. The expected positive predictive value of a rapid diagnostic test (GeneOhm, Becton \& Dickinson Co.) was modeled using non-linear regression according to score. Models were validated on a second cohort from the same hospital consisting of 2043 patients admitted between August 2008 and January 2012. Our suggested correction score for prevalence was proportional to the log-transformed odds ratio between cohorts. Calibration before and after correction, i.e. accurate classification into arbitrary strata, was assessed with the Hosmer-Lemeshow-Test. Results Treating culture as reference, the rapid diagnostic test had positive predictive values of 64.8\% and 54.0\% in derivation and internal validation corhorts with prevalences of 2.3\% and 1.7\%, respectively. In addition to low prevalence, low positive predictive values were due to high proportion (> 66\%) of mecA-negative Staphylococcus aureus among false positive results. Age, nursing home residence, admission through the medical emergency department, and ICD-10-GM admission diagnoses starting with "A" or "J" were associated with MRSA carriage and were thus included in the scoring system, which showed good calibration in predicting probability of carriage and the rapid diagnostic test's expected positive predictive value. Calibration for both probability of carriage and expected positive predictive value in the internal validation cohort was improved by applying the correction score. Conclusions Given a set of patient parameters, the presented models accurately predict a) probability of nasal carriage of MRSA and b) a rapid diagnostic test's expected positive predictive value. While the former can inform decisions regarding empiric antibiotic treatment and infection control, the latter can influence choice of screening method.}, language = {en} } @article{OPUS4-22781, title = {Long-term monitoring of the ANTARES optical module efficiencies using \(^{40}\)K decays in sea water}, series = {European Physical Journal C}, volume = {78}, journal = {European Physical Journal C}, organization = {The ANTARES Collaboration}, doi = {10.1140/epjc/s10052-018-6132-2}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-227815}, pages = {1-8}, year = {2018}, abstract = {Cherenkov light induced by radioactive decay products is one of the major sources of background light for deep-sea neutrino telescopes such as ANTARES. These decays are at the same time a powerful calibration source. Using data collected by the ANTARES neutrino telescope from mid 2008 to 2017, the time evolution of the photon detection efficiency of optical modules is studied. A modest loss of only 20\% in 9 years is observed. The relative time calibration between adjacent modules is derived as well.}, language = {en} }