@phdthesis{Kluegl2000, author = {Kl{\"u}gl, Franziska}, title = {Aktivit{\"a}tsbasierte Verhaltensmodellierung und ihre Unterst{\"u}tzung bei Multiagentensimulationen}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-2874}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2000}, abstract = {Durch Zusammenf{\"u}hrung traditioneller Methoden zur individuenbasierten Simulation und dem Konzept der Multiagentensysteme steht mit der Multiagentensimulation eine Methodik zur Verf{\"u}gung, die es erm{\"o}glicht, sowohl technisch als auch konzeptionell eine neue Ebene an Detaillierung bei Modellbildung und Simulation zu erreichen. Ein Modell beruht dabei auf dem Konzept einer Gesellschaft: Es besteht aus einer Menge interagierender, aber in ihren Entscheidungen autonomen Einheiten, den Agenten. Diese {\"a}ndern durch ihre Aktionen ihre Umwelt und reagieren ebenso auf die f{\"u}r sie wahrnehmbaren {\"A}nderungen in der Umwelt. Durch die Simulation jedes Agenten zusammen mit der Umwelt, in der er "lebt", wird die Dynamik im Gesamtsystem beobachtbar. In der vorliegenden Dissertation wurde ein Repr{\"a}sentationsschema f{\"u}r Multiagentensimulationen entwickelt werden, das es Fachexperten, wie zum Beispiel Biologen, erm{\"o}glicht, selbst{\"a}ndig ohne traditionelles Programmieren Multiagentenmodelle zu implementieren und mit diesen Experimente durchzuf{\"u}hren. Dieses deklarative Schema beruht auf zwei Basiskonzepten: Der K{\"o}rper eines Agenten besteht aus Zustandsvariablen. Das Verhalten des Agenten kann mit Regeln beschrieben werden. Ausgehend davon werden verschiedene Strukturierungsans{\"a}tze behandelt. Das wichtigste Konzept ist das der "Aktivit{\"a}t", einer Art "Verhaltenszustand": W{\"a}hrend der Agent in einer Aktivit{\"a}t A verweilt, f{\"u}hrt er die zugeh{\"o}rigen Aktionen aus und dies solange, bis eine Regel feuert, die diese Aktivit{\"a}t beendet und eine neue Aktivit{\"a}t ausw{\"a}hlt. Durch Indizierung dieser Regeln bei den zugeh{\"o}rigen Aktivit{\"a}ten und Einf{\"u}hrung von abstrakten Aktivit{\"a}ten entsteht ein Schema f{\"u}r eine vielf{\"a}ltig strukturierbare Verhaltensbeschreibung. Zu diesem Schema wurde ein Interpreter entwickelt, der ein derartig repr{\"a}sentiertes Modell ausf{\"u}hrt und so Simulationsexperimente mit dem Multiagentenmodell erlaubt. Auf dieser Basis wurde die Modellierungs- und Experimentierumgebung SeSAm ("Shell f{\"u}r Simulierte Agentensysteme") entwickelt. Sie verwendet vorhandene Konzepte aus dem visuellen Programmieren. Mit dieser Umgebung wurden Anwendungsmodelle aus verschiedenen Dom{\"a}nen realisiert: Neben abstrakten Spielbeispielen waren dies vor allem Fragestellungen zu sozialen Insekten, z.B. zum Verhalten von Ameisen, Bienen oder der Interaktion zwischen Bienenv{\"o}lkern und Milbenpopulationen.}, subject = {Agent }, language = {de} } @phdthesis{Kuells2000, author = {K{\"u}lls, Christoph}, title = {Groundwater of the North-Western Kalahari, Namibia}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-1180680}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2000}, abstract = {A quantitative model of groundwater flows contributing to the Goblenz state water scheme at the north-western fringe of the Kalahari was developed within this study. The investigated area corresponds to the Upper Omatako basin and encompasses an outer mountainous rim and sediments of the Kalahari sand desert in the centre. This study revealed the eminent importance of the mountainous rim for the water balance of the Kalahari, both in terms of surface and ground water. A hydrochemical subdivision of groundwater types in the mountain rim around the Kalahari was derived from cluster analysis of hydrochemical groundwater data. The western and south-western secondary aquifers within rocks of the Damara Sequence, the Otavi Mountain karst aquifers of the Tsumeb and Abenab subgroups as well as the Waterberg Etjo sandstone aquifer represent the major hydrochemical groups. Ca/Mg and Sr/Ca ratios allowed to trace the groundwater flow from the Otavi Mountains towards the Kalahari near Goblenz. The Otavi Mountains and the Waterberg were identified as the main recharge areas showing almost no or only little isotopic enrichment by evaporation. Soil water balance modelling confirmed that direct groundwater recharge in hard-rock environments tends to be much higher than in areas covered with thick Kalahari sediments. According to the water balance model average recharge rates in hard-rock exposures with only thin sand cover are between 0.1 and 2.5 \% of mean annual rainfall. Within the Kalahari itself very limited recharge was predicted (< 1 \% of mean annual rainfall). In the Upper Omatako basin the highest recharge probability was found in February in the late rainfall season. The water balance model also indicated that surface runoff is produced sporadically, triggering indirect recharge events. Several sinkholes were discovered in the Otavi Foreland to the north of Goblenz forming short-cuts to the groundwater table and preferential recharge zones. Their relevance for the generation of indirect recharge could be demonstrated by stable isotope variations resulting from observed flood events. Within the Kalahari basin several troughs were identified in the pre-Kalahari surface by GIS-based analyses. A map of saturated thickness of Kalahari sediments revealed that these major troughs are partly saturated with groundwater. The main trough, extending from south-west to north-east, is probably connected to the Goblenz state water scheme and represents a major zone of groundwater confluence, receiving groundwater inflows from several recharge areas in the Upper Omatako basin. As a result of the dominance of mountain front recharge the groundwater of the Kalahari carries an isotopic composition of recharge at higher altitudes. The respective percentages of inflow into the Kalahari from different source areas were determined by a mixing-cell approach. According to the mixing model Goblenz receives most of its inflow (70 to 80 \%) from a shallow Kalahari aquifer in the Otavi Foreland which is connected to the Otavi Mountains. Another 15 to 10 \% of groundwater inflow to the Kalahari at Goblenz derive from the Etjo sandstone aquifer to the south and from inflow of a mixed component. In conclusion, groundwater abstraction at Goblenz will be affected by measures that heavily influence groundwater inflow from the Otavi Mountains, the Waterberg, and the fractured aquifer north of the Waterberg.}, subject = {Kalahari}, language = {en} } @phdthesis{Borgstedt2003, author = {Borgstedt, Ariane}, title = {Grundwasserneubildung im Einzugsgebiet des Ouham, Zentralafrikanische Republik : Bestimmung mit klassischen Methoden und einer computergest{\"u}tzten Modellierung}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-10892}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2003}, abstract = {Ziel dieser Arbeit war es, die Grundwasserneubildung im Einzugsgebiet des Ouham mit den vorhandenen zum Teil sehr l{\"u}ckenhaften Daten zu bestimmen. Hierbei sollten unterschiedliche Methoden in der wechselfeuchten, subtropischen Klimazone verglichen und bewertet werden. Das Arbeitsgebiet umfasst das Einzugsgebiet des Oberlaufes des Ouham, eines Flusses im Nordwesten der Zentralafrikanischen Republik. Das hier untersuchte Flussnetz geh{\"o}rt zum Einzugsgebiet des Chari und fließt dem abflusslosen Tschadbecken zu. Das Einzugsgebiet des Ouham liegt in der sahel-sudanischen Klimazone. Zwischen November und M{\"a}rz bzw. April herrschen hier trockene Nordostwinde vor, d.h. messbarer Oberfl{\"a}chenabfluss findet in der Trockenzeit lediglich in den Fl{\"u}ssen erster Ordnung statt. Von Mai bis Oktober bestimmen feuchte S{\"u}dwestwinde das Wetter, es bilden sich zus{\"a}tzlich zu den Abfl{\"u}ssen erster Ordnung Abfl{\"u}sse dort, wo es Morphologie und Bodenverh{\"a}ltnisse zulassen. Das Abflussverhalten des Ouham wird im Untersuchungsgebiet an f{\"u}nf Flusspegeln gemessen. Die gr{\"o}ßten Abflussspenden treten im Westen auf, mit der Abnahme des Niederschlags nach Osten nimmt auch die Abflussspende der einzelnen Einzugsgebiete ab. Die maximalen Abflussmengen der einzelnen Pegel werden in den westlicheren Teileinzugsgebieten im September gemessen, in den {\"o}stlicheren Teileinzugsgebieten erstreckt sich das Maximum {\"u}ber September und Oktober bzw. Oktober. Der Niederschlag nimmt von S{\"u}dwesten nach Nordosten kontinuierlich ab, dieser allgemeine Trend wird durch die Steigungsregen am Massiv von „Bakor{\´e}" modifiziert. Niederschlagsreiche Jahre sind 1951 bis 1952, 1954 bis 1955, 1957, 1960, 1962, 1963 und 1969, ausgepr{\"a}gt niederschlagsarme Jahre sind 1972, 1973, 1977, 1982 bis 1984 und 1986 bis 1987. Das Untersuchungsgebiet besteht zum gr{\"o}ßten Teil aus einem proterozoischen Granit-Gneis-Sockel, der im {\"a}ußersten S{\"u}dwesten von mesozoischen Sandsteinen bedeckt ist. Das gesamte Grundgebirge ist von einer Vielzahl von St{\"o}rungen durchzogen, deren Hauptst{\"o}rungsrichtung Nordwest - S{\"u}dost, bzw. senkrecht dazu verl{\"a}uft. Innerhalb großer St{\"o}rungs- und Intrusionsbereiche ist das Gestein st{\"a}rker gekl{\"u}ftet. Die Grundwasserneubildung wurde mit unterschiedlichen Methoden berechnet, zum erst auf der Basis von Abflussdaten nach drei unterschiedlichen Verfahren (WUNDT, KILLE, MAILLET), dann mit der Wasserhaushaltsgleichung und durch eine Modellierung der Wasserbilanz mit dem Programm MODBIL . Die ermittelten unterirdischen Abfl{\"u}sse differieren deutlich. Am h{\"o}chsten sind die Abflussmengen nach WUNDT, am niedrigsten sind die nach MAILLET berechneten. F{\"u}r das Einzugs¬gebiet des Ouham, mit der vorhandenen, im Westen deutlich ausgepr{\"a}gten Topo¬graphie und den heftigen schub¬weise erfolgenden Niederschl{\"a}gen, wurde die nach KILLE ermittelten Grundwasserneubildungsraten als realistisch gegen{\"u}ber den Grundwasserneubildungsraten nach WUNDT angesehen. Die Grundwasserneubildung nimmt aufgrund des unterschiedlichen Wasserdargebotes von Westen nach Osten ab, im Westen werden in niederschlagsreichen Jahren 150 mm/Jahr, w{\"a}hrend es im Osten lediglich 79 mm/Jahr sind. In niederschlagsarmen Jahren nimmt die Grundwasserneubildung von 106 mm/Jahr im Westen auf 64 mm/Jahr im Osten ab. Nach MAILLET wird eine Grundwasserneubildungsrate von 50 mm/Jahr im Westen und 26 mm/Jahr im Osten berechnet, sie stellt ein Mindestmaß an Grundwasserneubildung dar. Die Bestimmung der Grundwasserneubildung mit der Wasserhaushaltsgleichung wurde als Plausibilit{\"a}tskontrolle der aus Abflussdaten ermittelten Werte durchgef{\"u}hrt. Die ermittelten Grundwasserneubildungsraten liegen deutlich {\"u}ber denen nach dem Verfahren von KILLE und MAILLET berechneten. In einem weiteren Verfahren wurde die Berechnung der Grundwasserneubildung durch Modellierung der Wasser¬bilanz mit dem Programm MODBIL durchgef{\"u}hrt. Hierbei werden vorhandene Punktdaten wie Niederschlag, Temperatur und Verdunstung mit prim{\"a}r existierenden Raumdaten wie Topographie, Morphologie, Landnutzung und Geologie in Raumdaten umgewandelt und auf Grundlage des Bodenwasserhaushaltes die aktuelle Verdunstung, der Abfluss und die Grundwasserneubildung berechnet. Die berechneten Mittelwerte von effektivem Niederschlag, potentieller und aktueller Verdunstung der einzelnen Teileinzugsgebiete lassen einen deutlichen West-Ost-Trend erkennen. Der h{\"o}chste effektive Niederschlag f{\"a}llt im westlichsten Einzugsgebiet und nimmt weiter nach Osten weiter ab. Potentielle und aktuelle Verdunstung nehmen von Westen nach Osten zu, wobei bei der aktuellen Verdunstung dieser Trend nicht sehr stark ausgepr{\"a}gt ist. Das mittlere Abflussverhalten der Teileinzugsgebiete folgt keinem deutlichen West-Ost-Trend. Im Gegensatz dazu nimmt die Grundwasserneubildung von Westen nach Osten ab.}, subject = {Ouham }, language = {de} } @phdthesis{Wilhelm2005, author = {Wilhelm, Thomas}, title = {Konzeption und Evaluation eines Kinematik/Dynamik-Lehrgangs zur Ver{\"a}nderung von Sch{\"u}lervorstellungen mit Hilfe dynamisch ikonischer Repr{\"a}sentationen und graphischer Modellbildung}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-39554}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2005}, abstract = {Auch nach dem herk{\"o}mmlichen Mechanikunterricht in der Oberstufe verf{\"u}gen viele Sch{\"u}ler nicht {\"u}ber angemessene physikalische Vorstellungen {\"u}ber die verwendeten physikalischen Begriffe und deren Zusammenh{\"a}nge. Einf{\"u}hrend wurden in dieser Arbeit allgemeine Aspekte zu Sch{\"u}lervorstellungen (Kapitel 2.1) sowie konkrete Sch{\"u}lervorstellungen zur Mechanik (Kapitel 2.2) und relevante Lehrervorstellungen (Kapitel 2.3) dargelegt. Ein Ziel dieser Arbeit war, ein Gesamtkonzept f{\"u}r einen ver{\"a}nderten Kinematik- und Dynamikunterricht ein- und zweidimensionaler Bewegungen in der Jahrgangsstufe 11 des Gymnasiums zu entwickeln, das m{\"o}glichst vielen Sch{\"u}lern hilft, m{\"o}glichst viele Fehlvorstellungen zur Mechanik aufzuarbeiten. Dazu wurden u.a. computergest{\"u}tzte Experimente und die Visualisierung der physikalischen Gr{\"o}ßen mit dynamisch ikonischen Repr{\"a}sentationen (siehe Kapitel 3.2) eingesetzt, was neue Elementarisierungen und neue Unterrichtsstrategien erm{\"o}glichte (siehe Kapitel 8.2 oder Kapitel 5). Um gute Chancen zu haben, dass dieses Konzept den Schulalltag erreicht, wurde es lehrplankonform zum bayerischen Lehrplan konzipiert. Eine erste Zielsetzung der summativen Evaluation war festzustellen, inwieweit das gesamte Unterrichtskonzept von verschiedenen Lehrern durchf{\"u}hrbar ist und wie diese es einsch{\"a}tzen (siehe Kapitel 8.4 oder Kapitel 6.3). Ein wichtiges Ziel war dann, mit Hilfe von Tests festzustellen, inwieweit es Ver{\"a}nderungen in den Sch{\"u}lervorstellungen gab (Vor-/Nachtest-Design) und diese Ver{\"a}nderungen mit konventionell unterrichteten Klassen zu vergleichen (Trainings-/Kontrollgruppen-Design) (konventionelle Klassen: Kapitel 8.1; Vergleich: Kapitel 8.5; Kapitel 6.4 + 6.5). Dazu wurden haupts{\"a}chlich bereits vorliegende paper-pencil-Tests verwendet, da eine Testneuentwicklung im Rahmen der Arbeit nicht m{\"o}glich gewesen w{\"a}re. Da diese Tests verschiedene Schw{\"a}chen haben, wurden mehrere verschiedene Tests gleichzeitig eingesetzt, die sich gegenseitig erg{\"a}nzen. Die graphische Modellbildung in Verbindung mit Animationen ist ein fakultativer Teil dieses Unterrichtskonzeptes. Hierzu wurde zus{\"a}tzlich eine eigene Interventionsstudie durchgef{\"u}hrt (siehe Kapitel 8.3 und Kapitel 4). Ergebnisse: Dynamisch ikonische Repr{\"a}sentationen k{\"o}nnen dem Lehrer neue unterrichtliche M{\"o}glichkeiten geben und somit dem Sch{\"u}ler helfen, physikalische Konzepte angemessener zu verstehen. Die Einf{\"u}hrung kinematischer Gr{\"o}ßen anhand zweidimensionaler Bewegungen, die nur mit ikonischen Repr{\"a}sentationen in Form von Vektorpfeilen sinnvoll ist (geeignete Elementarisierung), f{\"u}hrt zu einem physikalischeren Verst{\"a}ndnis des Beschleunigungsbegriffes und vermeidet Fehlvorstellungen durch eine ungeeignete Reduktion auf den Spezialfall eindimensionaler Bewegungen. Mehr Sch{\"u}ler konzeptualisieren Beschleunigung wie in der Physik als gerichtete Gr{\"o}ße anstelle einer Gr{\"o}ße, die die {\"A}nderung des Geschwindigkeitsbetrages angibt und allenfalls tangentiale Richtung haben kann. Auch in der Dynamik sind dadurch hilfreiche Darstellungen und so sinnvolle Ver{\"a}nderungen des Unterrichts m{\"o}glich. Um wesentliche Strukturen aufzuzeigen, werden komplexere Versuche mit mehreren Kr{\"a}ften und Reibung eingesetzt, was erst durch eine rechnerunterst{\"u}tzte Aufbereitung mit dynamisch ikonischen Repr{\"a}sentationen erm{\"o}glicht wird. Diese Darstellungen erm{\"o}glichen auch eine aktive Auseinandersetzung der Sch{\"u}ler mit den Themen, indem von ihnen h{\"a}ufig Vorhersagen gefordert werden (geeignete Unterrichtsstrategie). Graphische Modellbildung als weiterer Einsatz bildlicher Darstellungen kann ebenso eine weitere Verst{\"a}ndnishilfe sein. Sch{\"u}ler, die nach dem vorgelegten Unterrichtskonzept unterrichtet wurden, zeigten mehr Verst{\"a}ndnis f{\"u}r den newtonschen Kraftbegriff. Da die entwickelten Ideen tats{\"a}chlich im Unterricht ankamen und dort Ver{\"a}nderungen bewirkten, kann von einer effektiven Lehrerfortbildung mit Transferwirkung gesprochen werden.}, subject = {Physikunterricht}, language = {de} } @incollection{Klein2007, author = {Klein, Ralf}, title = {Der probabilistische Ansatz zur Modellierung des r{\"a}umlichen Einkaufsverhaltens}, series = {Analysemethodik und Modellierung in der geographischen Handelsforschung}, booktitle = {Analysemethodik und Modellierung in der geographischen Handelsforschung}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-185990}, publisher = {Universit{\"a}t W{\"u}rzburg}, pages = {55-73}, year = {2007}, abstract = {No abstract available.}, language = {de} } @phdthesis{Herrler2007, author = {Herrler, Rainer}, title = {Agentenbasierte Simulation zur Ablaufoptimierung in Krankenh{\"a}usern und anderen verteilten, dynamischen Umgebungen}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-24483}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2007}, abstract = {Verteilte dynamische Systeme unter lokalen und globalen Gesichtspunkten zu optimieren ist eine schwierige Aufgabe. Zwar sind grunds{\"a}tzliche Auswirkungen einzelner Maßnahmen h{\"a}ufig bekannt, durch widerstrebende Ziele, Wechselwirkungen zwischen Prozessen und Nebenwirkungen von Maßnahmen ist ein analytisches Vorgehen bei der Optimierung nicht m{\"o}glich. Besonders schwierig wird es, wenn lokale Einheiten einerseits ihre Ziele und Autonomie behalten sollen, aber durch zentrale Vorgaben bzw. Anreize so gesteuert werden sollen, dass ein {\"u}bergeordnetes Ziel erreicht wird. Ein praktisches Beispiel dieses allgemeinen Optimierungsproblems findet sich im Gesundheitswesen. Das Management von modernen Kliniken ist stets mit dem Problem konfrontiert, die Qualit{\"a}t der Pflege zu gew{\"a}hrleisten und gleichzeitig kosteneffizient zu arbeiten. Hier gilt es unter gegeben Rahmenbedingungen und bei Respektierung der Autonomie der Funktionseinheiten, Optimierungsmaßnahmen zu finden und durchzuf{\"u}hren. Vorhandene Werkzeuge zur Simulation und Modellierung bieten f{\"u}r diese Aufgabe keine ausreichend guten Vorgehensmodelle und Modellierungsmechanismen. Die agentenbasierte Simulation erm{\"o}glicht die Abbildung solcher Systeme und die Durchf{\"u}hrung von Simulationsexperimenten zur Bewertung einzelner Maßnahmen. Es werden L{\"o}sungswege und Werkzeuge vorgestellt und evaluiert, die den Benutzer bei der Formalisierung des Wissens und der Modellierung solch komplexer Szenarien unterst{\"u}tzen und ein systematisches Vorgehen zur Optimierung erm{\"o}glichen.}, subject = {Simulation}, language = {de} } @phdthesis{Schwarz2008, author = {Schwarz, Roland}, title = {Modellierung von Metabolismus, Transkriptom und Zellentwicklung bei Arabidopsis, Listerien und anderen Organismen}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-27622}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2008}, abstract = {Im gleichen Maße wie informatisches Wissen mehr und mehr in den wissenschaftlichen Alltag aller Lebenswissenschaften Einzug gehalten hat, hat sich der Schwerpunkt bioinformatischer Forschung in st{\"a}rker mathematisch und informatisch-orientierte Themengebiete verschoben. Bioinformatik heute ist mehr als die computergest{\"u}tzte Verarbeitung großer Mengen an biologischen Daten, sondern hat einen entscheidenden Fokus auf der Modellierung komplexer biologischer Systeme. Zur Anwendung kommen hierbei insbesondere Theorien aus dem Bereich der Stochastik und Statistik, des maschinellen Lernens und der theoretischen Informatik. In der vorliegenden Dissertation beschreibe ich in Fallstudien die systematische Modellierung biologischer Systeme aus einem informatisch - mathematischen Standpunkt unter Anwendung von Verfahren aus den genannten Teilbereichen und auf unterschiedlichen Ebenen biologischer Abstraktion. Ausgehend von der Sequenzinformation {\"u}ber Transkriptom, Metabolom und deren regulatorischer Interaktion hin zur Modellierung von Populationseffekten werden hierbei aktuelle biologische Fragestellungen mit mathematisch - informatischen Modellen und einer Vielzahl experimenteller Daten kombiniert. Ein besonderer Augenmerk liegt dabei auf dem Vorgang der Modellierung und des Modellbegriffs als solchem im Rahmen moderner bioinformatischer Forschung. Im Detail umfassen die Projekte (mehrere Publikationen) die Entwicklung eines neuen Ansatzes zur Einbettung und Visualisierung von Multiplen Sequenz- und Sequenz-Strukturalignments, illustriert am Beispiel eines Hemagglutininalignments unterschiedlicher H5N1 Varianten, sowie die Modellierung des Transkriptoms von A. thaliana, bei welchem mit Hilfe einer kernelisierten nicht-parametrischen Metaanalyse neue, an der Infektionsabwehr beteiligten, Gene ausfindig gemacht werden konnten. Desweiteren ist uns mit Hilfe unserer Software YANAsquare eine detaillierte Untersuchung des Metabolismus von L. monocytogenes unter Aktivierung des Transkriptionsfaktors prfA gelungen, dessen Vorhersagen durch experimentelle 13C Isotopologstudien belegt werden konnten. In einem Anschlußprojekt war der Zusammenhang zwischen Regulation des Metabolismus durch Regulation der Genexpression und der Fluxverteilung des metabolischen Steady- State-Netzwerks das Ziel. Die Modellierung eines komplexen organismischen Ph{\"a}notyps, der Zellgr{\"o}ßenentwicklung der Diatomee Pseudo-nitzschia delicatissima, schließt die Untersuchungen ab.}, subject = {Bioinformatik}, language = {de} } @phdthesis{Kirschke2008, author = {Kirschke, Stefanie}, title = {Bilanzierung des Methanaustauschs zwischen Biosph{\"a}re und Atmosph{\"a}re in Periglazialr{\"a}umen mit Hilfe von Fernerkundung und Modellen am Beispiel des Lena Deltas}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-29024}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2008}, abstract = {Verbleibende Unsicherheiten im Kohlenstoffhaushalt in {\"O}kosystemen der hohen n{\"o}rdlichen Breiten k{\"o}nnen teilweise auf die Schwierigkeiten bei der Erfassung der r{\"a}umlich und zeitlich hoch variablen Methanemissionsraten von Permafrostb{\"o}den zur{\"u}ckgef{\"u}hrt werden. Methan ist ein global abundantes atmosph{\"a}risches Spurengas, welches signifikant zur Erw{\"a}rmung der Atmosph{\"a}re beitr{\"a}gt. Aufgrund der hohen Sensibilit{\"a}t des arktischen Bodenkohlenstoffreservoirs sowie der großen von Permafrost unterlagerten Landfl{\"a}chen sind arktische Gebiete am kritischsten von einem globalen Klimawandel betroffen. Diese Dissertation adressiert den Bedarf an Modellierungsans{\"a}tzen f{\"u}r die Bestimmung der Quellst{\"a}rke nordsibirischer permafrostbeeinflusster {\"O}kosysteme der nassen polygonalen Tundra mit Hinblick auf die Methanemissionen auf regionalem Maßstab. Die Arbeit pr{\"a}sentiert eine methodische Struktur in welcher zwei prozessbasierte Modelle herangezogen werden, um die komplexen Wechselwirkungen zwischen den Kompartimenten Pedosph{\"a}re, Biosph{\"a}re und Atmosph{\"a}re, welche zu Methanemissionen aus Permafrostb{\"o}den f{\"u}hren, zu erfassen. Es wird ein Upscaling der Gesamtmethanfl{\"u}sse auf ein gr{\"o}ßeres, von Permafrost unterlagertes Untersuchungsgebiet auf Basis eines prozessbasierten Modells durchgef{\"u}hrt. Das prozessbasierte Vegetationsmodell Biosphere Energy Hydrology Transfer Model (BETHY/DLR) wird f{\"u}r die Berechnung der Nettoprim{\"a}rproduktion (NPP) arktischer Tundravegetation herangezogen. Die NPP ist ein Maß f{\"u}r die Substratverf{\"u}gbarkeit der Methanproduktion und daher ein wichtiger Eingangsparameter f{\"u}r das zweite Modell: Das prozessbasierte Methanemissionsmodell wird anschließend verwendet, um die Methanfl{\"u}sse einer gegebenen Bodens{\"a}ule explizit zu berechnen. Dabei werden die Prozesse der Methanogenese, Methanotrophie sowie drei verschiedene Transportmechanismen - molekulare Diffusion, Gasblasenbildung und pflanzengebundener Transport durch vaskul{\"a}re Pflanzen - ber{\"u}cksichtigt. Das Methanemissionsmodell ist f{\"u}r Permafrostbedingungen modifiziert, indem das t{\"a}gliche Auftauen des Permafrostbodens in der kurzen arktischen Vegetationsperiode ber{\"u}cksichtigt wird. Der Modellantrieb besteht aus meteorologischen Datens{\"a}tzen des European Center for Medium-Range Weather Forecasts (ECMWF). Die Eingangsdatens{\"a}tze werden mit Hilfe von in situ Messdaten validiert. Zus{\"a}tzliche Eingangsdaten f{\"u}r beide Modelle werden aus Fernerkundungsdaten abgeleitet, welche mit Feldspektralmessungen validiert werden. Eine modifizierte Landklassifikation auf der Basis von Landsat-7 Enhanced Thematic Mapper Plus (ETM+) Daten wird f{\"u}r die Ableitung von Informationen zu Feuchtgebietsverteilung und Vegetationsbedeckung herangezogen. Zeitserien der Auftautiefe werden zur Beschreibung des Auftauens bzw. R{\"u}ckfrierens des Bodens verwendet. Diese Faktoren sind die Haupteinflussgr{\"o}ßen f{\"u}r die Modellierung von Methanemissionen aus permafrostbeeinflussten Tundra{\"o}kosystemen. Die vorgestellten Modellergebnisse werden mittels Eddy-Kovarianz-Messungen der Methanfl{\"u}sse validiert, welche w{\"a}hrend der Vegetationsperioden der Jahre 2003-2006 im s{\"u}dlichen Teil des Lena Deltas (72°N, 126°E) vom Alfred Wegener Institut f{\"u}r Polar- und Meeresforschung (AWI) durchgef{\"u}hrt wurden. Das Untersuchungsgebiet Lena Delta liegt an der Laptewsee in Nordostsibirien und ist durch {\"O}kosysteme der arktischen nassen polygonalen Tundra sowie kalten kontinuierlichen Permafrost charakterisiert. Zeitlich integrierte Werte der modellierten Methanfl{\"u}sse sowie der in situ Messungen zeigen gute {\"U}bereinstimmungen und weisen auf eine leichte Modelluntersch{\"a}tzung von etwa 10\%.}, subject = {Methanemission}, language = {de} } @phdthesis{Mederer2009, author = {Mederer, Joachim}, title = {Water Resources and Dynamics of the Troodos Igneous Aquifer-system, Cyprus - Balanced Groundwater Modelling -}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-37306}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2009}, abstract = {The study investigates the water resources and aquifer dynamics of the igneous fractured aquifer-system of the Troodos Mountains in Cyprus, using a coupled, finite differences water balance and groundwater modelling approach. The numerical water balance modelling forms the quantitative framework by assessing groundwater recharge and evapotranspiration, which form input parameters for the groundwater flow models. High recharge areas are identified within the heavily fractured Gabbro and Sheeted Dyke formations in the upper Troodos Mountains, while the impervious Pillow Lava promontories - with low precipitation and high evapotranspiration - show unfavourable recharge conditions. Within the water balance studies, evapotranspiration is split into actual evapotranspiration and the so called secondary evapotranspiration, representing the water demand for open waters, moist and irrigated areas. By separating the evapotranspiration of open waters and moist areas from the one of irrigated areas, groundwater abstraction needs are quantified, allowing the simulation of single well abstraction rates in the groundwater flow models. Two sets of balanced groundwater models simulate the aquifer dynamics in the presented study: First, the basic groundwater percolation system is investigated using two-dimensional vertical flow models along geological cross-sections, depicting the entire Troodos Mountains up to a depth of several thousands of metres. The deeply percolating groundwater system starts in the high recharge areas of the upper Troodos, shows quasi stratiform flow in the Gabbro and Sheeted Dyke formations, and rises to the surface in the vicinity of the impervious Pillow Lava promontories. The residence times mostly yield less than 25 years, the ones of the deepest fluxes several hundreds of years. Moreover, inter basin flow and indirect recharge of the Circum Troodos Sedimentary Succession are identified. In a second step, the upper and most productive part of the fractured igneous aquifer-system is investigated in a regional, horizontal groundwater model, including management scenarios and inter catchment flow studies. In a natural scenario without groundwater abstractions, the recovery potential of the aquifer is tested. Predicted future water demand is simulated in an increased abstraction scenario. The results show a high sensitivity to well abstraction rate changes in the Pillow Lava and Basal Group promontories. The changes in groundwater heads range from a few tens of metres up to more than one hundred metres. The sensitivity in the more productive parts of the aquifer-system is lower. Inter-catchment flow studies indicate that - besides the dominant effluent conditions in the Troodos Mountains - single reaches show influent conditions and are sub-flown by groundwater. These fluxes influence the local water balance and generate inter catchment flow. The balanced groundwater models form thus a comprehensive modelling system, supplying future detail models with information concerning boundary conditions and inter-catchment flow, and allowing the simulation of impacts of landuse or climate change scenarios on the dynamics and water resources of the Troodos aquifer-system.}, subject = {Zypern}, language = {en} } @phdthesis{Heldens2010, author = {Heldens, Wieke}, title = {Use of airborne hyperspectral data and height information to support urban micro climate characterisation}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-48935}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2010}, abstract = {The urban micro climate has been increasingly recognised as an important aspect for urban planning. Therefore, urban planners need reliable information on the micro climatic characteristics of the urban environment. A suitable spatial scale and large spatial coverage are important requirements for such information. This thesis presents a conceptual framework for the use of airborne hyperspectral data to support urban micro climate characterisation, taking into account the information needs of urban planning. The potential of hyperspectral remote sensing in characterising the micro climate is demonstrated and evaluated by applying HyMap airborne hyperspectral and height data to a case study of the German city of Munich. The developed conceptual framework consists of three parts. The first is concerned with the capabilities of airborne hyperspectral remote sensing to map physical urban characteristics. The high spatial resolution of the sensor allows to separate the relatively small urban objects. The high spectral resolution enables the identification of the large range of surface materials that are used in an urban area at up to sub-pixel level. The surface materials are representative for the urban objects of which the urban landscape is composed. These spatial urban characteristics strongly influence the urban micro climate. The second part of the conceptual framework provides an approach to use the hyperspectral surface information for the characterisation of the urban micro climate. This can be achieved by integrating the remote sensing material map into a micro climate model. Also spatial indicators were found to provide useful information on the micro climate for urban planners. They are commonly used in urban planning to describe building blocks and are related to several micro climatic parameters such as temperature and humidity. The third part of the conceptual framework addresses the combination and presentation of the derived indicators and simulation results under consideration of the planning requirements. Building blocks and urban structural types were found to be an adequate means to group and present the derived information for micro climate related questions to urban planners. The conceptual framework was successfully applied to a case study in Munich. Airborne hyperspectral HyMap data has been used to derive a material map at sub-pixel level by multiple endmember linear spectral unmixing. This technique was developed by the German Research Centre for Geosciences (GFZ) for applications in Dresden and Potsdam. A priori information on building locations was used to support the separation between spectrally similar materials used both on building roofs and non-built surfaces. In addition, surface albedo and leaf area index are derived from the HyMap data. The sub-pixel material map supported by object height data is then used to derive spatial indicators, such as imperviousness or building density. To provide a more detailed micro climate characterisation at building block level, the surface materials, albedo, leaf area index (LAI) and object height are used as input for simulations with the micro climate model ENVI-met. Concluding, this thesis demonstrated the potential of hyperspectral remote sensing to support urban micro climate characterisation. A detailed mapping of surface materials at sub-pixel level could be performed. This provides valuable, detailed information on a large range of spatial characteristics relevant to the assessment of the urban micro climate. The developed conceptual framework has been proven to be applicable to the case study, providing a means to characterise the urban micro climate. The remote sensing products and subsequent micro climatic information are presented at a suitable spatial scale and in understandable maps and graphics. The use of well-known spatial indicators and the framework of urban structural types can simplify the communication with urban planners on the findings on the micro climate. Further research is needed primarily on the sensitivity of the micro climate model towards the remote sensing based input parameters and on the general relation between climate parameters and spatial indicators by comparison with other cities.}, subject = {Mikroklima}, language = {en} } @phdthesis{Philippi2011, author = {Philippi, Nicole}, title = {Modellierung von Signalwegen in verschiedenen biologischen Systemen}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-57690}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2011}, abstract = {Die Apoptose der Leberzellen ist abh{\"a}ngig von externen Signalen wie beispielsweise Komponenten der Extrazellul{\"a}ren Matrix sowie anderen Zell-Zell-Kontakten, welche von einer Vielfalt und Vielzahl an Knoten verarbeitet werden. Einige von ihnen wurden im Rahmen dieser Arbeit auf ihre Systemeffekte hin unter- sucht. Trotz verschiedener {\"a}ußerer Einfl{\"u}sse und nat{\"u}rlicher Selektion ist das System daraufhin optimiert, eine kleine Anzahl verschiedener und klar voneinander unterscheidbarer Systemzust{\"a}nde anzunehmen. Die verschiedenartigen Einfl{\"u}sse und Crosstalk-Mechanismen dienen der Optimierung der vorhandenen Systemzust{\"a}nde. Das in dieser Arbeit vorgestellte Modell zeigt zwei apoptotische sowie zwei nicht-apoptotische stabile Systemzust{\"a}nde, wobei der Grad der Aktivierung eines Knotens bis zu dem Moment stark variieren kann, in welchem der absolute Systemzustand selbst ver{\"a}ndert wird (Philippi et al., BMC Systems Biology,2009) [1]. Dieses Modell stellt zwar eine Vereinfachung des gesamten zellul{\"a}ren Netzwerkes und seiner verschiedenen Zust{\"a}nde dar, ist aber trotz allem in der Lage, unabh{\"a}ngig von detaillierten kinetischen Daten und Parametern der einzelnen Knoten zu agieren. Gleichwohl erlaubt das Modell mit guter qualitativer {\"U}bereinstimmung die Apoptose als Folge einer Stimulation mit FasL zu modellieren. Weiterhin umfasst das Modell sowohl Crosstalk-M{\"o}glichkeiten des Collagen-Integrin-Signalwegs, ebenso ber{\"u}cksichtigt es die Auswirkungen der genetischen Deletion von Bid sowie die Konsequenzen einer viralen Infektion. In einem zweiten Teil werden andere Anwendungsm{\"o}glichkeiten dargestellt. Hormonale Signale in Pflanzen, Virusinfektionen und intrazellul{\"a}re Kommunikation werden semi-quantitativ modelliert. Auch hier zeigte sich eine gute Ubereinstimmung der Modelle mit den experimentellen Daten.}, subject = {Systembiologie}, language = {de} } @phdthesis{Staehle2011, author = {Staehle, Barbara}, title = {Modeling and Optimization Methods for Wireless Sensor and Mesh Networks}, doi = {10.25972/OPUS-4967}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-64884}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2011}, abstract = {Im Internet der Zukunft werden Menschen nicht nur mit Menschen, sondern auch mit „Dingen", und sogar „Dinge" mit „Dingen" kommunizieren. Zus{\"a}tzlich wird das Bed{\"u}rfnis steigen, immer und {\"u}berall Zugang zum Internet zu haben. Folglich gewinnen drahtlose Sensornetze (WSNs) und drahtlose Mesh-Netze (WMNs) an Bedeutung, da sie Daten {\"u}ber die Umwelt ins Internet liefern, beziehungsweise einfache Internet-Zugangsm{\"o}glichkeiten schaffen. In den vier Teilen dieser Arbeit werden unterschiedliche Modellierungs- und Optimierungsmethoden f{\"u}r WSNs und WMNs vorgestellt. Der Energieverbrauch ist die wichtigste Metrik, wenn es darum geht die Kommunikation in einem WSN zu optimieren. Da sich in der Literatur sehr viele unterschiedliche Energiemodelle finden, untersucht der erste Teil der Arbeit welchen Einfluss unterschiedliche Energiemodelle auf die Optimierung von WSNs haben. Aufbauend auf diesen {\"U}berlegungen besch{\"a}ftigt sich der zweite Teil der Arbeit mit drei Problemen, die {\"u}berwunden werden m{\"u}ssen um eine standardisierte energieeffiziente Kommunikations-L{\"o}sung f{\"u}r WSNs basierend auf IEEE 802.15.4 und ZigBee zu realisieren. F{\"u}r WMNs sind beide Probleme von geringem Interesse, die Leistung des Netzes jedoch umso mehr. Der dritte Teil der Arbeit f{\"u}hrt daher Algorithmen f{\"u}r die Berechnung des Max-Min fairen (MMF) Netzwerk-Durchsatzes in WMNs mit mehreren Linkraten und Internet-Gateways ein. Der letzte Teil der Arbeit untersucht die Auswirkungen des LRA-Konzeptes. Dessen grundlegende Idee ist die folgende. Falls f{\"u}r einen Link eine niedrigere Datenrate als theoretisch m{\"o}glich verwendet wird, sinkt zwar der Link-Durchsatz, jedoch ist unter Umst{\"a}nden eine gr{\"o}ßere Anzahl von gleichzeitigen {\"U}bertragungen m{\"o}glich und der Gesamt-Durchsatz des Netzes kann sich erh{\"o}hen. Mithilfe einer analytischen LRA Formulierung und einer systematischen Studie kann gezeigt werden, dass eine netzwerkweite Zuordnung robusterer Datenraten als n{\"o}tig zu einer Erh{\"o}hung des MMF Netzwerk-Durchsatzes f{\"u}hrt. Desweitern kann gezeigt werden, dass sich LRA positiv auf die Leistungsf{\"a}higkeit eines IEEE 802.11 WMNs auswirkt und f{\"u}r die Optimierung des Netzes genutzt werden kann.}, subject = {Drahtloses Sensorsystem}, language = {en} } @phdthesis{Cord2012, author = {Cord, Anna}, title = {Potential of multi-temporal remote sensing data for modeling tree species distributions and species richness in Mexico}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-71021}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2012}, abstract = {Current changes of biodiversity result almost exclusively from human activities. This anthropogenic conversion of natural ecosystems during the last decades has led to the so-called 'biodiversity crisis', which comprises the loss of species as well as changes in the global distribution patterns of organisms. Species richness is unevenly distributed worldwide. Altogether, 17 so-called 'megadiverse' nations cover less than 10\% of the earth's land surface but support nearly 70\% of global species richness. Mexico, the study area of this thesis, is one of those countries. However, due to Mexico's large extent and geographical complexity, it is impossible to conduct reliable and spatially explicit assessments of species distribution ranges based on these collection data and field work alone. In the last two decades, Species distribution models (SDMs) have been established as important tools for extrapolating such in situ observations. SDMs analyze empirical correlations between geo-referenced species occurrence data and environmental variables to obtain spatially explicit surfaces indicating the probability of species occurrence. Remote sensing can provide such variables which describe biophysical land surface characteristics with high effective spatial resolutions. Especially during the last three to five years, the number of studies making use of remote sensing data for modeling species distributions has therefore multiplied. Due to the novelty of this field of research, the published literature consists mostly of selective case studies. A systematic framework for modeling species distributions by means of remote sensing is still missing. This research gap was taken up by this thesis and specific studies were designed which addressed the combination of climate and remote sensing data in SDMs, the suitability of continuous remote sensing variables in comparison with categorical land cover classification data, the criteria for selecting appropriate remote sensing data depending on species characteristics, and the effects of inter-annual variability in remotely sensed time series on the performance of species distribution models. The corresponding novel analyses were conducted with the Maximum Entropy algorithm developed by Phillips et al. (2004). In this thesis, a more comprehensive set of remote sensing predictors than in the existing literature was utilized for species distribution modeling. The products were selected based on their ecological relevance for characterizing species distributions. Two 1 km Terra-MODIS Land 16-day composite standard products including the Enhanced Vegetation Index (EVI), Reflectance Data, and Land Surface Temperature (LST) were assembled into enhanced time series for the time period of 2001 to 2009. These high-dimensional time series data were then transformed into 18 phenological and 35 statistical metrics that were selected based on an extensive literature review. Spatial distributions of twelve tree species were modeled in a hierarchical framework which integrated climate (WorldClim) and MODIS remote sensing data. The species are representative of the major Mexican forest types and cover a variety of ecological traits, such as range size and biotope specificity. Trees were selected because they have a high probability of detection in the field and since mapping vegetation has a long tradition in remote sensing. The result of this thesis showed that the integration of remote sensing data into species distribution models has a significant potential for improving and both spatial detail and accuracy of the model predictions.}, subject = {Fernerkundung}, language = {en} } @phdthesis{Zinner2012, author = {Zinner, Thomas}, title = {Performance Modeling of QoE-Aware Multipath Video Transmission in the Future Internet}, doi = {10.25972/OPUS-6106}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-72324}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2012}, abstract = {Internet applications are becoming more and more flexible to support diverge user demands and network conditions. This is reflected by technical concepts, which provide new adaptation mechanisms to allow fine grained adjustment of the application quality and the corresponding bandwidth requirements. For the case of video streaming, the scalable video codec H.264/SVC allows the flexible adaptation of frame rate, video resolution and image quality with respect to the available network resources. In order to guarantee a good user-perceived quality (Quality of Experience, QoE) it is necessary to adjust and optimize the video quality accurately. But not only have the applications of the current Internet changed. Within network and transport, new technologies evolved during the last years providing a more flexible and efficient usage of data transport and network resources. One of the most promising technologies is Network Virtualization (NV) which is seen as an enabler to overcome the ossification of the Internet stack. It provides means to simultaneously operate multiple logical networks which allow for example application-specific addressing, naming and routing, or their individual resource management. New transport mechanisms like multipath transmission on the network and transport layer aim at an efficient usage of available transport resources. However, the simultaneous transmission of data via heterogeneous transport paths and communication technologies inevitably introduces packet reordering. Additional mechanisms and buffers are required to restore the correct packet order and thus to prevent a disturbance of the data transport. A proper buffer dimensioning as well as the classification of the impact of varying path characteristics like bandwidth and delay require appropriate evaluation methods. Additionally, for a path selection mechanism real time evaluation mechanisms are needed. A better application-network interaction and the corresponding exchange of information enable an efficient adaptation of the application to the network conditions and vice versa. This PhD thesis analyzes a video streaming architecture utilizing multipath transmission and scalable video coding and develops the following optimization possibilities and results: Analysis and dimensioning methods for multipath transmission, quantification of the adaptation possibilities to the current network conditions with respect to the QoE for H.264/SVC, and evaluation and optimization of a future video streaming architecture, which allows a better interaction of application and network.}, subject = {Video{\"u}bertragung}, language = {en} } @phdthesis{Paxian2012, author = {Paxian, Andreas}, title = {Future changes in climate means and extremes in the Mediterranean region deduced from a regional climate model}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-72155}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2012}, abstract = {The Mediterranean area reveals a strong vulnerability to future climate change due to a high exposure to projected impacts and a low capacity for adaptation highlighting the need for robust regional or local climate change projections, especially for extreme events strongly affecting the Mediterranean environment. The prevailing study investigates two major topics of the Mediterranean climate variability: the analysis of dynamical downscaling of present-day and future temperature and precipitation means and extremes from global to regional scale and the comprehensive investigation of temperature and rainfall extremes including the estimation of uncertainties and the comparison of different statistical methods for precipitation extremes. For these investigations, several observational datasets of CRU, E-OBS and original stations are used as well as ensemble simulations of the regional climate model REMO driven by the coupled global general circulation model ECHAM5/MPI-OM and applying future greenhouse gas (GHG) emission and land degradation scenarios.}, subject = {Mittelmeerraum}, language = {en} } @phdthesis{Mischnik2013, author = {Mischnik, Marcel}, title = {Systembiologische Analyse der ADP- und Prostaglandin-vermittelten Signaltransduktion humaner Thrombozyten}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-78807}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2013}, abstract = {Thrombozyten (Blutpl{\"a}ttchen) sind die Vermittler der zellul{\"a}ren H{\"a}mostase. Ihre F{\"a}higkeit zu Aggregieren und sich an das umgebende Gewebe verletzter Blutgef{\"a}sse anzulagern, wird durch ein komplexes intrazellul{\"a}res Signaltransduktionsnetzwerk bestimmt, das sowohl aktivierende, als auch inhibierende Subnetzwerke beinhaltet. Das Verst{\"a}ndnis dieser Prozesse ist von hoher medizinischer Bedeutung. Im Rahmen dieser Arbeit wurde die thrombozyt{\"a}re Signaltransduktion sowohl mittels eines Boole'schen, als auch verschiedener dynamischer Modelle analysiert. Die Boole'sche Modellierung f{\"u}hrte zu interessanten Erkenntnissen {\"u}ber das Zusammenwirken einzelner Subnetzwerke bei der Vermittlung irreversibler Pl{\"a}ttchenaktivierung und zeigte Mechanismen der Interaktion mit dem hemmenden Prostaglandinsystem auf. Das Modell beinhaltet unter Anderem wichtige Systemkomponenten wie Calciumsignalgebung, Aktivierung von Schl{\"u}sselkinasen wie Src und PKC, Integrin-vermitteltes outside-in sowie inside-out Signalgebung und autokrine ADP- und Thromboxan-Produktion. Unter Verwendung dieses Boole'schen Ansatzes wurde weiterhin das System-eigene Schwellenwertverhalten analysiert. Dabei stellte sich eine umgekehrt proportionale Abh{\"a}ngigkeit des relativen aktivierenden Reizes, der notwendig ist um den Schwellenwert zu {\"u}berschreiten, vom absoluten hemmenden Input heraus. Das System adaptiert demnach an h{\"o}here Prostaglandinkonzentrationen durch eine Erh{\"o}hung der Sensitivit{\"a}t f{\"u}r Aktivatoren wie dem van-Willebrandt-Faktor und Kollagen, und erm{\"o}glicht somit auch unter lokal hemmenden Bedingungen eine Pl{\"a}ttchen-vermittelte H{\"a}mostase. Der n{\"a}chste Schritt bestand in der Implementierung eines Differentialgleichungs-basierten Modells der thrombozyt{\"a}ren Prostaglandin-Signaltransduktion, um einen detaillierten {\"U}berblick {\"u}ber die Dynamik des inhibierenden Netzwerkteils zu erhalten. Die kinetischen Parameter dieses Modells wurden teilweise der Literatur entnommen. Der andere Teil wurde anhand einer umfassenden Kombination dosis- und zeitabh{\"a}ngiger cAMP und phospho-VASP Messdaten gesch{\"a}tzt. Der Prozess beinhaltete mehrere Iterationen aus Modellvorhersagen einerseits und experimentellem Design andererseits. Das Modell liefert die quantitativen Effekte der Prostaglandinrezeptoren IP, DP1, EP3 und EP4 und des ADP-Rezeptors P2Y12 auf die zugrunde liegende Signalkaskade. EP4 zeigt den st{\"a}rksten Effekt in der aktivierenden Fraktion, wohingegen EP3 einen st{\"a}rkeren inhibitorischen Effekt aus{\"u}bt, als der durch Clopidogrel hemmbare ADP-Rezeptor P2Y12. Weiterhin wurden die Eigenschaften des negativen feedback-loops der PKA auf den cAMP-Spiegel untersucht, und eine direkte Beeinflussung der Adenylatzyklase durch die PKA festgestellt, in Form einer Reduzierung der maximalen katalytischen Geschwindigkeit. Die Identifizierbarkeit der gesch{\"a}tzten Parameter wurde mittels profile-Likelihood-Sch{\"a}tzung untersucht. In einem dritten Schritt wurde ein sowohl die aktivierenden, als auch die hemmenden Netzwerkteile umfassendes dynamisches Modell implementiert. Die Topologie dieses Modells wurde in Anlehnung an die des Boole'schen Modells auf der Basis von a priori Wissen festgelegt. Die Modellparameter wurden anhand von Western-Blot, Calcium- und Aggregationsmessungen gesch{\"a}tzt. Auch hier wurde die Identifizierbarkeit der Modellparameter durch profile-likelihood-Sch{\"a}tzung {\"u}berpr{\"u}ft. Die bei niedrigen Ligandenkonzentrationen auftretende Reversibilit{\"a}t der Pl{\"a}ttchen-Aggregation konnte mittels dieses Modells reproduziert werden. Jedoch zeigte sich bei mittleren ADP-Konzentrationen ein Fließgleichgewicht in einem teilweise aktivierten Zustand, und damit kein bistabiles Schwellenwertverhalten. Inwiefern dieses Verhalten durch einen Umgebungs-basierteren Mechanismus des Alles-Oder-Nichts-Verhaltens begr{\"u}ndet wird, bei dem der {\"U}bergang von reversibler zu irreversibler Aggregation mehr durch parakrine Effekte des gesammten Thrombus bestimmt wird, als durch spezifische Signaltransduktionseigenschaften der einzelnen Zelle, m{\"u}ssen zuk{\"u}nftige Experimente zeigen. Insgesamt geben die erstellten Modelle interessante Einblicke in die Funktionsweise der Thrombozyten und erm{\"o}glichen die Simulation von pharmakologischen und genetischen Einfl{\"u}ssen, wie Rezeptormodulationen und knock-outs. Sie geben damit Implikationen zur Entstehung und Behandlung pathophysiologischer Zust{\"a}nde, und wertvolle Denkanst{\"o}ße f{\"u}r die weitere Forschung.}, subject = {Thrombozyt}, language = {de} } @phdthesis{Pollinger2013, author = {Pollinger, Felix}, title = {Bewertung und Auswirkungen der Simulationsg{\"u}te f{\"u}hrender Klimamoden in einem Multi-Modell Ensemble}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-97982}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2013}, abstract = {Der rezente und zuk{\"u}nftige Anstieg der atmosph{\"a}rischen Treibhausgaskonzentration bedeutet f{\"u}r das terrestrische Klimasystem einen grundlegenden Wandel, der f{\"u}r die globale Gesellschaft schwer zu bew{\"a}ltigende Aufgaben und Herausforderungen bereit h{\"a}lt. Eine effektive, r{\"u}hzeitige Anpassung an diesen Klimawandel profitiert dabei enorm von m{\"o}glichst genauen Absch{\"a}tzungen k{\"u}nftiger Klima{\"a}nderungen. Das geeignete Werkzeug hierf{\"u}r sind Gekoppelte Atmosph{\"a}re Ozean Modelle (AOGCMs). F{\"u}r solche Fragestellungen m{\"u}ssen allerdings weitreichende Annahmen {\"u}ber die zuk{\"u}nftigen klimarelevanten Randbedingungen getroffen werden. Individuelle Fehler dieser Klimamodelle, die aus der nicht perfekten Abbildung der realen Verh{\"a}ltnisse und Prozesse resultieren, erh{\"o}hen die Unsicherheit langfristiger Klimaprojektionen. So unterscheiden sich die Aussagen verschiedener AOGCMs im Hinblick auf den zuk{\"u}nftigen Klimawandel insbesondere bei regionaler Betrachtung, deutlich. Als Absicherung gegen Modellfehler werden {\"u}blicherweise die Ergebnisse mehrerer AOGCMs, eines Ensembles an Modellen, kombiniert. Um die Absch{\"a}tzung des Klimawandels zu pr{\"a}zisieren, wird in der vorliegenden Arbeit der Versuch unternommen, eine Bewertung der Modellperformance der 24 AOGCMs, die an der dritten Phase des Vergleichsprojekts f{\"u}r gekoppelte Modelle (CMIP3) teilgenommen haben, zu erstellen. Auf dieser Basis wird dann eine nummerische Gewichtung f{\"u}r die Kombination des Ensembles erstellt. Zun{\"a}chst werden die von den AOGCMs simulierten Klimatologien f{\"u}r einige grundlegende Klimaelemente mit den betreffenden klimatologien verschiedener Beobachtungsdatens{\"a}tze quantitativ abgeglichen. Ein wichtiger methodischer Aspekt hierbei ist, dass auch die Unsicherheit der Beobachtungen, konkret Unterschiede zwischen verschiedenen Datens{\"a}tzen, ber{\"u}cksichtigt werden. So zeigt sich, dass die Aussagen, die aus solchen Ans{\"a}tzen resultieren, von zu vielen Unsicherheiten in den Referenzdaten beeintr{\"a}chtigt werden, um generelle Aussagen zur Qualit{\"a}t von AOGCMs zu treffen. Die Nutzung der K{\"o}ppen-Geiger Klassifikation offenbart jedoch, dass die prinzipielle Verteilung der bekannten Klimatypen im kompletten CMIP3 in vergleichbar guter Qualit{\"a}t reproduziert wird. Als Bewertungskriterium wird daher hier die F{\"a}higkeit der AOGCMs die großskalige nat{\"u}rliche Klimavariabilit{\"a}t, konkret die hochkomplexe gekoppelte El Ni{\~n}o-Southern Oscillation (ENSO), realistisch abzubilden herangezogen. Es kann anhand verschiedener Aspekte des ENSO-Ph{\"a}nomens gezeigt werden, dass nicht alle AOGCMs hierzu mit gleicher Realit{\"a}tsn{\"a}he in der Lage sind. Dies steht im Gegensatz zu den dominierenden Klimamoden der Außertropen, die modell{\"u}bergreifend {\"u}berzeugend repr{\"a}sentiert werden. Die wichtigsten Moden werden, in globaler Betrachtung, in verschiedenen Beobachtungsdaten {\"u}ber einen neuen Ansatz identifiziert. So k{\"o}nnen f{\"u}r einige bekannte Zirkulationsmuster neue Indexdefinitionen gewonnen werden, die sich sowohl als {\"a}quivalent zu den Standardverfahren erweisen und im Vergleich zu diesen zudem eine deutliche Reduzierung des Rechenaufwandes bedeuten. Andere bekannte Moden werden dagegen als weniger bedeutsame, regionale Zirkulationsmuster eingestuft. Die hier vorgestellte Methode zur Beurteilung der Simulation von ENSO ist in guter {\"U}bereinstimmung mit anderen Ans{\"a}tzen, ebenso die daraus folgende Bewertung der gesamten Performance der AOGCMs. Das Spektrum des Southern Oscillation-Index (SOI) stellt somit eine aussagekr{\"a}ftige Kenngr{\"o}ße der Modellqualit{\"a}t dar. Die Unterschiede in der F{\"a}higkeit, das ENSO-System abzubilden, erweisen sich als signifikante Unsicherheitsquelle im Hinblick auf die zuk{\"u}nftige Entwicklung einiger fundamentaler und bedeutsamer Klimagr{\"o}ßen, konkret der globalen Mitteltemperatur, des SOIs selbst, sowie des indischen Monsuns. Ebenso zeigen sich signifikante Unterschiede f{\"u}r regionale Klima{\"a}nderungen zwischen zwei Teilensembles des CMIP3, die auf Grundlage der entwickelten Bewertungsfunktion eingeteilt werden. Jedoch sind diese Effekte im Allgemeinen nicht mit den Auswirkungen der anthropogenen Klima{\"a}nderungssignale im Multi-Modell Ensemble vergleichbar, die f{\"u}r die meisten Klimagr{\"o}ßen in einem robusten multivariaten Ansatz detektiert und quantifiziert werden k{\"o}nnen. Entsprechend sind die effektiven Klima{\"a}nderungen, die sich bei der Kombination aller Simulationen als grundlegende Aussage des CMIP3 unter den speziellen Randbedingungen ergeben nahezu unabh{\"a}ngig davon, ob alle L{\"a}ufe mit dem gleichen Einfluss ber{\"u}cksichtigt werden, oder ob die erstellte nummerische Gewichtung verwendet wird. Als eine wesentliche Begr{\"u}ndung hierf{\"u}r kann die Spannbreite der Entwicklung des ENSO-Systems identifiziert werden. Dies bedeutet gr{\"o}ßere Schwankungen in den Ergebnissen der Modelle mit funktionierendem ENSO, was den Stellenwert der nat{\"u}rlichen Variabilit{\"a}t als Unsicherheitsquelle in Fragen des Klimawandels unterstreicht. Sowohl bei Betrachtung der Teilensembles als auch der Gewichtung wirken sich dadurch gegenl{\"a}ufige Trends im SOI ausgleichend auf die Entwicklung anderer Klimagr{\"o}ßen aus, was insbesondere bei letzterem Vorgehen signifikante mittlere Effekte des Ansatzes, verglichen mit der Verwendung des {\"u}blichen arithmetischen Multi-Modell Mittelwert, verhindert.}, subject = {Modell}, language = {de} } @phdthesis{Fritsch2013, author = {Fritsch, Sebastian}, title = {Spatial and temporal patterns of crop yield and marginal land in the Aral Sea Basin: derivation by combining multi-scale and multi-temporal remote sensing data with alight use efficiency model}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-87939}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2013}, abstract = {Irrigated agriculture in the Khorezm region in the arid inner Aral Sea Basin faces enormous challenges due to a legacy of cotton monoculture and non-sustainable water use. Regional crop growth monitoring and yield estimation continuously gain in importance, especially with regard to climate change and food security issues. Remote sensing is the ideal tool for regional-scale analysis, especially in regions where ground-truth data collection is difficult and data availability is scarce. New satellite systems promise higher spatial and temporal resolutions. So-called light use efficiency (LUE) models are based on the fraction of photosynthetic active radiation absorbed by vegetation (FPAR), a biophysical parameter that can be derived from satellite measurements. The general objective of this thesis was to use satellite data, in conjunction with an adapted LUE model, for inferring crop yield of cotton and rice at field (6.5 m) and regional (250 m) scale for multiple years (2003-2009), in order to assess crop yield variations in the study area. Intensive field measurements of FPAR were conducted in the Khorezm region during the growing season 2009. RapidEye imagery was acquired approximately bi-weekly during this time. The normalized difference vegetation index (NDVI) was calculated for all images. Linear regression between image-based NDVI and field-based FPAR was conducted. The analyses resulted in high correlations, and the resulting regression equations were used to generate time series of FPAR at the RapidEye level. RapidEye-based FPAR was subsequently aggregated to the MODIS scale and used to validate the existing MODIS FPAR product. This step was carried out to evaluate the applicability of MODIS FPAR for regional vegetation monitoring. The validation revealed that the MODIS product generally overestimates RapidEye FPAR by about 6 to 15 \%. Mixture of crop types was found to be a problem at the 1 km scale, but less severe at the 250 m scale. Consequently, high resolution FPAR was used to calibrate 8-day, 250 m MODIS NDVI data, this time by linear regression of RapidEye-based FPAR against MODIS-based NDVI. The established FPAR datasets, for both RapidEye and MODIS, were subsequently assimilated into a LUE model as the driving variable. This model operated at both satellite scales, and both required an estimation of further parameters like the photosynthetic active radiation (PAR) or the actual light use efficiency (LUEact). The latter is influenced by crop stress factors like temperature or water stress, which were taken account of in the model. Water stress was especially important, and calculated via the ratio of the actual (ETact) to the potential, crop-specific evapotranspiration (ETc). Results showed that water stress typically occurred between the beginning of May and mid-September and beginning of May and end of July for cotton and rice crops, respectively. The mean water stress showed only minor differences between years. Exceptions occurred in 2008 and 2009, where the mean water stress was higher and lower, respectively. In 2008, this was likely caused by generally reduced water availability in the whole region. Model estimations were evaluated using field-based harvest information (RapidEye) and statistical information at district level (MODIS). The results showed that the model at both the RapidEye and the MODIS scale can estimate regional crop yield with acceptable accuracy. The RMSE for the RapidEye scale amounted to 29.1 \% for cotton and 30.4 \% for rice, respectively. At the MODIS scale, depending on the year and evaluated at Oblast level, the RMSE ranged from 10.5 \% to 23.8 \% for cotton and from -0.4 \% to -19.4 \% for rice. Altogether, the RapidEye scale model slightly underestimated cotton (bias = 0.22) and rice yield (bias = 0.11). The MODIS-scale model, on the other hand, also underestimated official rice yield (bias from 0.01 to 0.87), but overestimated official cotton yield (bias from -0.28 to -0.6). Evaluation of the MODIS scale revealed that predictions were very accurate for some districts, but less for others. The produced crop yield maps indicated that crop yield generally decreases with distance to the river. The lowest yields can be found in the southern districts, close to the desert. From a temporal point of view, there were areas characterized by low crop yields over the span of the seven years investigated. The study at hand showed that light use efficiency-based modeling, based on remote sensing data, is a viable way for regional crop yield prediction. The found accuracies were good within the boundaries of related research. From a methodological viewpoint, the work carried out made several improvements to the existing LUE models reported in the literature, e.g. the calibration of FPAR for the study region using in situ and high resolution RapidEye imagery and the incorporation of crop-specific water stress in the calculation.}, subject = {Fernerkundung}, language = {en} } @phdthesis{ZeeshangebMajeed2014, author = {Zeeshan [geb. Majeed], Saman}, title = {Implementation of Bioinformatics Methods for miRNA and Metabolic Modelling}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-102900}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2014}, abstract = {Dynamic interactions and their changes are at the forefront of current research in bioinformatics and systems biology. This thesis focusses on two particular dynamic aspects of cellular adaptation: miRNA and metabolites. miRNAs have an established role in hematopoiesis and megakaryocytopoiesis, and platelet miRNAs have potential as tools for understanding basic mechanisms of platelet function. The thesis highlights the possible role of miRNAs in regulating protein translation in platelet lifespan with relevance to platelet apoptosis and identifying involved pathways and potential key regulatory molecules. Furthermore, corresponding miRNA/target mRNAs in murine platelets are identified. Moreover, key miRNAs involved in aortic aneurysm are predicted by similar techniques. The clinical relevance of miRNAs as biomarkers, targets, resulting later translational therapeutics, and tissue specific restrictors of genes expression in cardiovascular diseases is also discussed. In a second part of thesis we highlight the importance of scientific software solution development in metabolic modelling and how it can be helpful in bioinformatics tool development along with software feature analysis such as performed on metabolic flux analysis applications. We proposed the "Butterfly" approach to implement efficiently scientific software programming. Using this approach, software applications were developed for quantitative Metabolic Flux Analysis and efficient Mass Isotopomer Distribution Analysis (MIDA) in metabolic modelling as well as for data management. "LS-MIDA" allows easy and efficient MIDA analysis and, with a more powerful algorithm and database, the software "Isotopo" allows efficient analysis of metabolic flows, for instance in pathogenic bacteria (Salmonella, Listeria). All three approaches have been published (see Appendices).}, subject = {miRNS}, language = {en} } @phdthesis{Wolf2015, author = {Wolf, Nadine}, title = {Synthese, Charakterisierung und Modellierung von klassischen Sol-Gel- und Nanopartikel-Funktionsschichten auf der Basis von Zinn-dotiertem Indiumoxid und Aluminium-dotiertem Zinkoxid}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-112416}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2015}, abstract = {Das Ziel dieser Arbeit ist neben der Synthese von Sol-Gel-Funktionsschichten auf der Basis von transparent leitf{\"a}higen Oxiden (transparent conducting oxides, TCOs) die umfassende infrarotoptische und elektrische Charakterisierung sowie Modellierung dieser Schichten. Es wurden sowohl {\"u}ber klassische Sol-Gel-Prozesse als auch {\"u}ber redispergierte Nanopartikel-Sole spektralselektive Funktionsschichten auf Glas- und Polycarbonat-Substraten appliziert, die einen m{\"o}glichst hohen Reflexionsgrad im infraroten Spektralbereich und damit einhergehend einen m{\"o}glichst geringen Gesamtemissionsgrad sowie einen niedrigen elektrischen Fl{\"a}chenwiderstand aufweisen. Zu diesem Zweck wurden dotierte Metalloxide, n{\"a}mlich einerseits Zinn-dotiertes Indiumoxid (tin doped indium oxide, ITO) und andererseits Aluminium-dotiertes Zinkoxid (aluminum doped zinc oxide, AZO)verwendet. Im Rahmen dieser Arbeit wurden vertieft verschiedene Parameter untersucht, die bei der Pr{\"a}paration von niedrigemittierenden ITO- und AZO-Funktionsschichten im Hinblick auf die Optimierung ihrer infrarot-optischen und elektrischen Eigenschaften sowie ihrer Transmission im sichtbaren Spektralbereich von Bedeutung sind. Neben der Sol-Zusammensetzung von klassischen Sol-Gel-ITO-Beschichtungsl{\"o}sungen wurden auch die Beschichtungs- und Ausheizparameter bei der Herstellung von klassischen Sol-Gel-ITO- sowie -AZO-Funktionsschichten charakterisiert und optimiert. Bei den klassischen Sol-Gel- ITO-Funktionsschichten konnte als ein wesentliches Ergebnis der Arbeit der Gesamtemissionsgrad um 0.18 auf 0.17, bei in etwa gleichbleibenden visuellen Transmissionsgraden und elektrischen Fl{\"a}chenwiderst{\"a}nden, reduziert werden, wenn anstelle von (optimierten) Mehrfach-Beschichtungen Einfach-Beschichtungen mit einer schnelleren Ziehgeschwindigkeit anhand des Dip-Coating-Verfahrens hergestellt wurden. Mit einer klassischen Sol-Gel-ITO-Einfach-Beschichtung, die mit einer deutlich erh{\"o}hten Ziehgeschwindigkeit von 600 mm/min gedippt wurde, konnte mit einem Wert von 0.17 der kleinste Gesamtemissionsgrad dieser Arbeit erzielt werden. Die Gesamtemissionsgrade und elektrischen Fl{\"a}chenwiderst{\"a}nde von klassischen Sol-Gel-AZOFunktionsschichten konnten mit dem in dieser Arbeit optimierten Endheizprozess deutlich gesenkt werden. Bei Neunfach-AZO-Beschichtungen konnten der Gesamtemissionsgrad um 0.34 auf 0.50 und der elektrische Fl{\"a}chenwiderstand um knapp 89 \% auf 65 Ω/sq verringert werden. Anhand von Hall-Messungen konnte dar{\"u}ber hinaus nachgewiesen werden, dass mit dem optimierten Endheizprozess, der eine erh{\"o}hte Temperatur w{\"a}hrend der Reduzierung der Schichten aufweist, mit N = 4.3·1019 cm-3 eine etwa doppelt so hohe Ladungstr{\"a}gerdichte und mit µ = 18.7 cm2/Vs eine etwa drei Mal so große Beweglichkeit in den Schichten generiert wurden, im Vergleich zu jenen Schichten, die nach dem alten Endheizprozess ausgeh{\"a}rtet wurden. Das deutet darauf hin, dass bei dem optimierten Heizschema sowohl mehr Sauerstofffehlstellen und damit eine h{\"o}here Ladungstr{\"a}gerdichte als auch Funktionsschichten mit einem h{\"o}heren Kristallisationsgrad und damit einhergehend einer h{\"o}heren Beweglichkeit ausgebildet werden. Ein Großteil der vorliegenden Arbeit behandelt die Optimierung und Charakterisierung von ITO-Nanopartikel-Solen bzw. -Funktionsschichten. Neben den verwendeten Nanopartikeln, dem Dispergierungsprozess, der Beschichtungsart sowie der jeweiligen Beschichtungsparameter und der Nachbehandlung der Funktionsschichten, wurde erstmals in einer ausf{\"u}hrlichen Parameterstudie die Sol-Zusammensetzung im Hinblick auf die Optimierung der infrarot-optischen und elektrischen Eigenschaften der applizierten Funktionsschichten untersucht. Dabei wurde insbesondere der Einfluss der verwendeten Stabilisatoren sowie der verwendeten L{\"o}sungsmittel auf die Schichteigenschaften charakterisiert. Im Rahmen dieser Arbeit wird dargelegt, dass die exakte Zusammensetzung der Nanopartikel-Sole einen große Rolle spielt und die Wahl des verwendeten L{\"o}sungsmittels im Sol einen gr{\"o}ßeren Einfluss auf den Gesamtemissionsgrad und die elektrischen Fl{\"a}chenwiderst{\"a}nde der applizierten Schichten hat als die Wahl des verwendeten Stabilisators. Allerdings wird auch gezeigt, dass keine pauschalen Aussagen dar{\"u}ber getroffen werden k{\"o}nnen, welcher Stabilisator oder welches L{\"o}sungsmittel in den Nanopartikel-Solen zu Funktionsschichten mit kleinen Gesamtemissionsgraden und elektrischen Fl{\"a}chenwiderst{\"a}nden f{\"u}hrt. Stattdessen muss jede einzelne Kombination von verwendetem Stabilisator und L{\"o}sungsmittel empirisch getestet werden, da jede Kombination zu Funktionsschichten mit anderen Eigenschaften f{\"u}hrt. Zudem konnte im Rahmen dieser Arbeit erstmals stabile AZO-Nanopartikel-Sole {\"u}ber verschiedene Rezepte hergestellt werden. Neben der Optimierung und Charakterisierung von ITO- und AZO- klassischen Sol-Gel- sowie Nanopartikel-Solen und -Funktionsschichten wurden auch die infrarot-optischen Eigenschaften dieser Schichten modelliert, um die optischen Konstanten sowie die Schichtdicken zu bestimmen. Dar{\"u}ber hinaus wurden auch kommerziell erh{\"a}ltliche, gesputterte ITO- und AZO-Funktionsschichten modelliert. Die Reflexionsgrade dieser drei Funktionsschicht-Typen wurden einerseits ausschließlich mit dem Drude-Modell anhand eines selbstgeschriebenen Programmes in Sage modelliert, und andererseits mit einem komplexeren Fit-Modell, welches in der kommerziellen Software SCOUT aus dem erweiterten Drude-Modell, einem Kim-Oszillator sowie dem OJL-Modell aufgebaut wurde. In diesem Fit-Modell werden auch die Einfl{\"u}sse der Glas-Substrate auf die Reflexionsgrade der applizierten Funktionsschichten ber{\"u}cksichtigt und es k{\"o}nnen die optischen Konstanten sowie die Dicken der Schichten ermittelt werden. Dar{\"u}ber hinaus wurde im Rahmen dieser Arbeit ein Ellipsometer installiert und geeignete Fit-Modelle entwickelt, anhand derer die Ellipsometer-Messungen ausgewertet und die optischen Konstanten sowie Schichtdicken der pr{\"a}parierten Schichten bestimmt werden k{\"o}nnen.}, subject = {Transparent-leitendes Oxid}, language = {de} } @phdthesis{Hirth2016, author = {Hirth, Matthias Johannes Wilhem}, title = {Modeling Crowdsourcing Platforms - A Use-Case Driven Approach}, issn = {1432-8801}, doi = {10.25972/OPUS-14072}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-140726}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2016}, abstract = {Computer systems have replaced human work-force in many parts of everyday life, but there still exists a large number of tasks that cannot be automated, yet. This also includes tasks, which we consider to be rather simple like the categorization of image content or subjective ratings. Traditionally, these tasks have been completed by designated employees or outsourced to specialized companies. However, recently the crowdsourcing paradigm is more and more applied to complete such human-labor intensive tasks. Crowdsourcing aims at leveraging the huge number of Internet users all around the globe, which form a potentially highly available, low-cost, and easy accessible work-force. To enable the distribution of work on a global scale, new web-based services emerged, so called crowdsourcing platforms, that act as mediator between employers posting tasks and workers completing tasks. However, the crowdsourcing approach, especially the large anonymous worker crowd, results in two types of challenges. On the one hand, there are technical challenges like the dimensioning of crowdsourcing platform infrastructure or the interconnection of crowdsourcing platforms and machine clouds to build hybrid services. On the other hand, there are conceptual challenges like identifying reliable workers or migrating traditional off-line work to the crowdsourcing environment. To tackle these challenges, this monograph analyzes and models current crowdsourcing systems to optimize crowdsourcing workflows and the underlying infrastructure. First, a categorization of crowdsourcing tasks and platforms is developed to derive generalizable properties. Based on this categorization and an exemplary analysis of a commercial crowdsourcing platform, models for different aspects of crowdsourcing platforms and crowdsourcing mechanisms are developed. A special focus is put on quality assurance mechanisms for crowdsourcing tasks, where the models are used to assess the suitability and costs of existing approaches for different types of tasks. Further, a novel quality assurance mechanism solely based on user-interactions is proposed and its feasibility is shown. The findings from the analysis of existing platforms, the derived models, and the developed quality assurance mechanisms are finally used to derive best practices for two crowdsourcing use-cases, crowdsourcing-based network measurements and crowdsourcing-based subjective user studies. These two exemplary use-cases cover aspects typical for a large range of crowdsourcing tasks and illustrated the potential benefits, but also resulting challenges when using crowdsourcing. With the ongoing digitalization and globalization of the labor markets, the crowdsourcing paradigm is expected to gain even more importance in the next years. This is already evident in the currently new emerging fields of crowdsourcing, like enterprise crowdsourcing or mobile crowdsourcing. The models developed in the monograph enable platform providers to optimize their current systems and employers to optimize their workflows to increase their commercial success. Moreover, the results help to improve the general understanding of crowdsourcing systems, a key for identifying necessary adaptions and future improvements.}, subject = {Open Innovation}, language = {en} } @phdthesis{Rygielski2017, author = {Rygielski, Piotr}, title = {Flexible Modeling of Data Center Networks for Capacity Management}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-146235}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2017}, abstract = {Nowadays, data centers are becoming increasingly dynamic due to the common adoption of virtualization technologies. Systems can scale their capacity on demand by growing and shrinking their resources dynamically based on the current load. However, the complexity and performance of modern data centers is influenced not only by the software architecture, middleware, and computing resources, but also by network virtualization, network protocols, network services, and configuration. The field of network virtualization is not as mature as server virtualization and there are multiple competing approaches and technologies. Performance modeling and prediction techniques provide a powerful tool to analyze the performance of modern data centers. However, given the wide variety of network virtualization approaches, no common approach exists for modeling and evaluating the performance of virtualized networks. The performance community has proposed multiple formalisms and models for evaluating the performance of infrastructures based on different network virtualization technologies. The existing performance models can be divided into two main categories: coarse-grained analytical models and highly-detailed simulation models. Analytical performance models are normally defined at a high level of abstraction and thus they abstract many details of the real network and therefore have limited predictive power. On the other hand, simulation models are normally focused on a selected networking technology and take into account many specific performance influencing factors, resulting in detailed models that are tightly bound to a given technology, infrastructure setup, or to a given protocol stack. Existing models are inflexible, that means, they provide a single solution method without providing means for the user to influence the solution accuracy and solution overhead. To allow for flexibility in the performance prediction, the user is required to build multiple different performance models obtaining multiple performance predictions. Each performance prediction may then have different focus, different performance metrics, prediction accuracy, and solving time. The goal of this thesis is to develop a modeling approach that does not require the user to have experience in any of the applied performance modeling formalisms. The approach offers the flexibility in the modeling and analysis by balancing between: (a) generic character and low overhead of coarse-grained analytical models, and (b) the more detailed simulation models with higher prediction accuracy. The contributions of this thesis intersect with technologies and research areas, such as: software engineering, model-driven software development, domain-specific modeling, performance modeling and prediction, networking and data center networks, network virtualization, Software-Defined Networking (SDN), Network Function Virtualization (NFV). The main contributions of this thesis compose the Descartes Network Infrastructure (DNI) approach and include: • Novel modeling abstractions for virtualized network infrastructures. This includes two meta-models that define modeling languages for modeling data center network performance. The DNI and miniDNI meta-models provide means for representing network infrastructures at two different abstraction levels. Regardless of which variant of the DNI meta-model is used, the modeling language provides generic modeling elements allowing to describe the majority of existing and future network technologies, while at the same time abstracting factors that have low influence on the overall performance. I focus on SDN and NFV as examples of modern virtualization technologies. • Network deployment meta-model—an interface between DNI and other meta- models that allows to define mapping between DNI and other descriptive models. The integration with other domain-specific models allows capturing behaviors that are not reflected in the DNI model, for example, software bottlenecks, server virtualization, and middleware overheads. • Flexible model solving with model transformations. The transformations enable solving a DNI model by transforming it into a predictive model. The model transformations vary in size and complexity depending on the amount of data abstracted in the transformation process and provided to the solver. In this thesis, I contribute six transformations that transform DNI models into various predictive models based on the following modeling formalisms: (a) OMNeT++ simulation, (b) Queueing Petri Nets (QPNs), (c) Layered Queueing Networks (LQNs). For each of these formalisms, multiple predictive models are generated (e.g., models with different level of detail): (a) two for OMNeT++, (b) two for QPNs, (c) two for LQNs. Some predictive models can be solved using multiple alternative solvers resulting in up to ten different automated solving methods for a single DNI model. • A model extraction method that supports the modeler in the modeling process by automatically prefilling the DNI model with the network traffic data. The contributed traffic profile abstraction and optimization method provides a trade-off by balancing between the size and the level of detail of the extracted profiles. • A method for selecting feasible solving methods for a DNI model. The method proposes a set of solvers based on trade-off analysis characterizing each transformation with respect to various parameters such as its specific limitations, expected prediction accuracy, expected run-time, required resources in terms of CPU and memory consumption, and scalability. • An evaluation of the approach in the context of two realistic systems. I evaluate the approach with focus on such factors like: prediction of network capacity and interface throughput, applicability, flexibility in trading-off between prediction accuracy and solving time. Despite not focusing on the maximization of the prediction accuracy, I demonstrate that in the majority of cases, the prediction error is low—up to 20\% for uncalibrated models and up to 10\% for calibrated models depending on the solving technique. In summary, this thesis presents the first approach to flexible run-time performance prediction in data center networks, including network based on SDN. It provides ability to flexibly balance between performance prediction accuracy and solving overhead. The approach provides the following key benefits: • It is possible to predict the impact of changes in the data center network on the performance. The changes include: changes in network topology, hardware configuration, traffic load, and applications deployment. • DNI can successfully model and predict the performance of multiple different of network infrastructures including proactive SDN scenarios. • The prediction process is flexible, that is, it provides balance between the granularity of the predictive models and the solving time. The decreased prediction accuracy is usually rewarded with savings of the solving time and consumption of resources required for solving. • The users are enabled to conduct performance analysis using multiple different prediction methods without requiring the expertise and experience in each of the modeling formalisms. The components of the DNI approach can be also applied to scenarios that are not considered in this thesis. The approach is generalizable and applicable for the following examples: (a) networks outside of data centers may be analyzed with DNI as long as the background traffic profile is known; (b) uncalibrated DNI models may serve as a basis for design-time performance analysis; (c) the method for extracting and compacting of traffic profiles may be used for other, non-network workloads as well.}, subject = {Modellierung}, language = {en} } @phdthesis{Ring2018, author = {Ring, Christoph}, title = {Entwicklung und Vergleich von Gewichtungsmetriken zur Analyse probabilistischer Klimaprojektionen aktueller Modellensembles}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-157294}, school = {Universit{\"a}t W{\"u}rzburg}, pages = {XII, 195}, year = {2018}, abstract = {Der anthropogene Klimawandel ist eine der gr{\"o}ßten Herausforderungen des 21. Jahrhunderts. Eine Hauptschwierigkeit liegt dabei in der Unsicherheit bez{\"u}glich der regionalen {\"A}nderung von Niederschlag und Temperatur. Hierdurch wird die Entwicklung geeigneter Anpassungsstrategien deutlich erschwert. In der vorliegenden Arbeit werden vier Evaluationsans{\"a}tze mit insgesamt 13 Metriken f{\"u}r aktuelle globale (zwei Generationen) und regionale Klimamodelle entwickelt und verglichen, um anschließend eine Analyse der Projektionsunsicherheit vorzunehmen. Basierend auf den erstellten Modellbewertungen werden durch Gewichtung Aussagen {\"u}ber den Unsicherheitsbereich des zuk{\"u}nftigen Klimas getroffen. Die Evaluation der Modelle wird im Mittelmeerraum sowie in acht Unterregionen durchgef{\"u}hrt. Dabei wird der saisonale Trend von Temperatur und Niederschlag im Evaluationszeitraum 1960-2009 ausgewertet. Zus{\"a}tzlich wird f{\"u}r bestimmte Metriken jeweils das klimatologische Mittel oder die harmonischen Zeitreiheneigenschaften evaluiert. Abschließend werden zum Test der {\"U}bertragbarkeit der Ergebnisse neben den Hauptuntersuchungsgebieten sechs global verteilte Regionen untersucht. Außerdem wird die zeitliche Konsistenz durch Analyse eines zweiten, leicht versetzten Evaluationszeitraums behandelt, sowie die Abh{\"a}ngigkeit der Modellbewertungen von verschiedenen Referenzdaten mit Hilfe von insgesamt drei Referenzdatens{\"a}tzen untersucht. Die Ergebnisse legen nahe, dass nahezu alle Metriken zur Modellevaluierung geeignet sind. Die Auswertung unterschiedlicher Variablen und Regionen erzeugt Modellbewertungen, die sich in den Kontext aktueller Forschungsergebnisse einf{\"u}gen. So wurde die Leistung der globalen Klimamodelle der neusten Generation (2013) im Vergleich zur Vorg{\"a}ngergeneration (2007) im Schnitt {\"a}hnlich hoch bzw. in vielen Situationen auch st{\"a}rker eingeordnet. Ein durchweg bestes Modell konnte nicht festgestellt werden. Der Großteil der entwickelten Metriken zeigt f{\"u}r {\"a}hnliche Situationen {\"u}bereinstimmende Modellbewertungen. Bei der Gewichtung hat sich der Niederschlag als besonders geeignet herausgestellt. Grund hierf{\"u}r sind die im Schnitt deutlichen Unterschiede der Modellleistungen in Zusammenhang mit einer geringeren Simulationsg{\"u}te. Umgekehrt zeigen die Metriken f{\"u}r die Modelle der Temperatur allgemein {\"u}berwiegend hohe Evaluationsergebnisse, wodurch nur wenig Informationsgewinn durch Gewichtung erreicht werden kann. W{\"a}hrend die Metriken gut f{\"u}r unterschiedliche Regionen und Skalenniveaus verwendet werden Evaluationszeitr{\"a}ume nicht grunds{\"a}tzlich gegeben. Zus{\"a}tzlich zeigen die Modellranglisten unterschiedlicher Regionen und Jahreszeiten h{\"a}ufig nur geringe Korrelationen. Dies gilt besonders f{\"u}r den Niederschlag. Bei der Temperatur sind hingegen leichte {\"U}bereinstimmungen auszumachen. Beim Vergleich der mittleren Ranglisten {\"u}ber alle Modellbewertungen und Situationen der Hauptregionen des Mittelmeerraums mit den Globalregionen besteht eine signifikante Korrelation von 0,39 f{\"u}r Temperatur, w{\"a}hrend sie f{\"u}r Niederschlag um null liegt. Dieses Ergebnis ist f{\"u}r alle drei verwendeten Referenzdatens{\"a}tze im Mittelmeerraum g{\"u}ltig. So schwankt die Korrelation der Modellbewertungen des Niederschlags f{\"u}r unterschiedliche Referenzdatens{\"a}tze immer um Null und die der Temperaturranglisten zwischen 0,36 und 0,44. Generell werden die Metriken als geeignete Evaluationswerkzeuge f{\"u}r Klimamodelle eingestuft. Daher k{\"o}nnen sie einen Beitrag zur {\"A}nderung des Unsicherheitsbereichs und damit zur St{\"a}rkung des Vertrauens in Klimaprojektionen leisten. Die Abh{\"a}ngigkeit der Modellbewertungen von Region und Untersuchungszeitraum muss dabei jedoch ber{\"u}cksichtigt werden. So besitzt die Analyse der Konsistenz von Modellbewertungen sowie der St{\"a}rken und Schw{\"a}chen der Klimamodelle großes Potential f{\"u}r folgende Studien, um das Vertrauen in Modellprojektionen weiter zu steigern.}, subject = {Anthropogene Klima{\"a}nderung}, language = {de} } @phdthesis{Pirner2018, author = {Pirner, Marlies}, title = {Kinetic modelling of gas mixtures}, edition = {1. Auflage}, publisher = {W{\"u}rzburg University Press}, address = {W{\"u}rzburg}, isbn = {978-3-95826-080-1 (Print)}, doi = {10.25972/WUP-978-3-95826-081-8}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-161077}, school = {W{\"u}rzburg University Press}, pages = {xi, 222}, year = {2018}, abstract = {This book deals with the kinetic modelling of gas mixtures. It extends the existing literature in mathematics for one species of gas to the case of gasmixtures. This is more realistic in applications. Thepresentedmodel for gas mixtures is proven to be consistentmeaning it satisfies theconservation laws, it admitsanentropy and an equilibriumstate. Furthermore, we can guarantee the existence, uniqueness and positivity of solutions. Moreover, the model is used for different applications, for example inplasma physics, for fluids with a small deviation from equilibrium and in the case of polyatomic gases.}, subject = {Polyatomare Verbindungen}, language = {en} } @phdthesis{Lauton2021, author = {Lauton, Felix}, title = {Three Essays on the Procurement of Essential Medicines in Developing Countries}, doi = {10.25972/OPUS-22063}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-220631}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2021}, abstract = {The first problem is that of the optimal volume allocation in procurement. The choice of this problem was motivated by a study whose objective was to support decision-making at two procurement organizations for the procurement of Depot Medroxyprogesterone Acetate (DMPA), an injectable contraceptive. At the time of this study, only one supplier that had undergone the costly and lengthy process of WHO pre-qualification was available to these organizations. However, a new entrant supplier was expected to receive WHO qualification within the next year, thus becoming a viable second source for DMPA procurement. When deciding how to allocate the procurement volume between the two suppliers, the buyers had to consider the impact on price as well as risk. Higher allocations to one supplier yield lower prices but expose a buyer to higher supply risks, while an even allocation will result in lower supply risk but also reduce competitive pressure, resulting in higher prices. Our research investigates this single- versus dual-sourcing problem and quantifies in one model the impact of the procurement volume on competition and risk. To support decision-makers, we develop a mathematical framework that accounts for the characteristics of donor-funded global health markets and models the effects of an entrant on purchasing costs and supply risks. Our in-depth analysis provides insights into how the optimal allocation decision is affected by various parameters and explores the trade-off between competition and supply risk. For example, we find that, even if the entrant supplier introduces longer leads times and a higher default risk, the buyer still benefits from dual sourcing. However, these risk-diversification benefits depend heavily on the entrant's in-country registration: If the buyer can ship the entrant's product to only a selected number of countries, the buyer does not benefit from dual sourcing as much as it would if entrant's product could be shipped to all supplied countries. We show that the buyer should be interested in qualifying the entrant's product in countries with high demand first. In the second problem we explore a new tendering mechanism called the postponement tender, which can be useful when buyers in the global health industry want to contract new generics suppliers with uncertain product quality. The mechanism allows a buyer to postpone part of the procurement volume's allocation so the buyer can learn about the unknown quality before allocating the remaining volume to the best supplier in terms of both price and quality. We develop a mathematical model to capture the decision-maker's trade-offs in setting the right split between the initial volume and the postponed volume. Our analysis shows that a buyer can benefit from this mechanism more than it can from a single-sourcing format, as it can decrease the risk of receiving poor quality (in terms of product quality and logistics performance) and even increase competitive pressure between the suppliers, thereby lowering the purchasing costs. By considering market parameters like the buyer's size, the suppliers' value (difference between quality and cost), quality uncertainty, and minimum order volumes, we derive optimal sourcing strategies for various market structures and explore how competition is affected by the buyer's learning about the suppliers' quality through the initial volume. The third problem considers the repeated procurement problem of pharmacies in Kenya that have multi-product inventories. Coordinating orders allows pharmacies to achieve lower procurement prices by using the quantity discounts manufacturers offer and sharing fixed ordering costs, such as logistics costs. However, coordinating and optimizing orders for multiple products is complex and costly. To solve the coordinated procurement problem, also known as the Joint Replenishment Problem (JRP) with quantity discounts, a novel, data-driven inventory policy using sample-average approximation is proposed. The inventory policy is developed based on renewal theory and is evaluated using real-world sales data from Kenyan pharmacies. Multiple benchmarks are used to evaluate the performance of the approach. First, it is compared to the theoretically optimal policy --- that is, a dynamic-programming policy --- in the single-product setting without quantity discounts to show that the proposed policy results in comparable inventory costs. Second, the policy is evaluated for the original multi-product setting with quantity discounts and compared to ex-post optimal costs. The evaluation shows that the policy's performance in the multi-product setting is similar to its performance in the single-product setting (with respect to ex-post optimal costs), suggesting that the proposed policy offers a promising, data-driven solution to these types of multi-product inventory problems.}, subject = {Entwicklungsl{\"a}nder}, language = {en} } @phdthesis{Wilde2022, author = {Wilde, Martina}, title = {Landslide susceptibility assessment in the Chiconquiaco Mountain Range area, Veracruz (Mexico)}, doi = {10.25972/OPUS-27608}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-276085}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2022}, abstract = {In Mexico, numerous landslides occur each year and Veracruz represents the state with the third highest number of events. Especially the Chiconquiaco Mountain Range, located in the central part of Veracruz, is highly affected by landslides and no detailed information on the spatial distribution of existing landslides or future occurrences is available. This leaves the local population exposed to an unknown threat and unable to react appropriately to this hazard or to consider the potential landslide occurrence in future planning processes. Thus, the overall objective of the present study is to provide a comprehensive assessment of the landslide situation in the Chiconquiaco Mountain Range area. Here, the combination of a site-specific and a regional approach enables to investigate the causes, triggers, and process types as well as to model the landslide susceptibility for the entire study area. For the site-specific approach, the focus lies on characterizing the Capul{\´i}n landslide, which represents one of the largest mass movements in the area. In this context, the task is to develop a multi-methodological concept, which concentrates on cost-effective, flexible and non-invasive methods. This approach shows that the applied methods complement each other very well and their combination allows for a detailed characterization of the landslide. The analyses revealed that the Capul{\´i}n landslide is a complex mass movement type. It comprises rotational movement in the upper parts and translational movement in the lower areas, as well as flow processes at the flank and foot area and therefore, is classified as a compound slide-flow according to Cruden and Varnes (1996). Furthermore, the investigations show that the Capul{\´i}n landslide represents a reactivation of a former process. This is an important new information, especially with regard to the other landslides identified in the study area. Both the road reconstructed after the landslide, which runs through the landslide mass, and the stream causing erosion processes at the foot of the landslide severely affect the stability of the landslide, making it highly susceptible to future reactivation processes. This is particularly important as the landslide is located only few hundred meters from the village El Capul{\´i}n and an extension of the landslide area could cause severe damage. The next step in the landslide assessment consists of integrating the data obtained in the site-specific approach into the regional analysis. Here, the focus lies on transferring the generated data to the entire study area. The developed methodological concept yields applicable results, which is supported by different validation approaches. The susceptibility modeling as well as the landslide inventory reveal that the highest probability of landslides occurrence is related to the areas with moderate slopes covered by slope deposits. These slope deposits comprise material from old mass movements and erosion processes and are highly susceptible to landslides. The results give new insights into the landslide situation in the Chiconquiaco Mountain Range area, since previously landslide occurrence was related to steep slopes of basalt and andesite. The susceptibility map is a contribution to a better assessment of the landslide situation in the study area and simultaneously proves that it is crucial to include specific characteristics of the respective area into the modeling process, otherwise it is possible that the local conditions will not be represented correctly.}, subject = {Naturgefahren}, language = {en} } @phdthesis{Schmitt2022, author = {Schmitt, Norbert}, title = {Measurement, Modeling, and Emulation of Power Consumption of Distributed Systems}, doi = {10.25972/OPUS-27658}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-276582}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2022}, abstract = {Today's cloud data centers consume an enormous amount of energy, and energy consumption will rise in the future. An estimate from 2012 found that data centers consume about 30 billion watts of power, resulting in about 263TWh of energy usage per year. The energy consumption will rise to 1929TWh until 2030. This projected rise in energy demand is fueled by a growing number of services deployed in the cloud. 50\% of enterprise workloads have been migrated to the cloud in the last decade so far. Additionally, an increasing number of devices are using the cloud to provide functionalities and enable data centers to grow. Estimates say more than 75 billion IoT devices will be in use by 2025. The growing energy demand also increases the amount of CO2 emissions. Assuming a CO2-intensity of 200g CO2 per kWh will get us close to 227 billion tons of CO2. This emission is more than the emissions of all energy-producing power plants in Germany in 2020. However, data centers consume energy because they respond to service requests that are fulfilled through computing resources. Hence, it is not the users and devices that consume the energy in the data center but the software that controls the hardware. While the hardware is physically consuming energy, it is not always responsible for wasting energy. The software itself plays a vital role in reducing the energy consumption and CO2 emissions of data centers. The scenario of our thesis is, therefore, focused on software development. Nevertheless, we must first show developers that software contributes to energy consumption by providing evidence of its influence. The second step is to provide methods to assess an application's power consumption during different phases of the development process and to allow modern DevOps and agile development methods. We, therefore, need to have an automatic selection of system-level energy-consumption models that can accommodate rapid changes in the source code and application-level models allowing developers to locate power-consuming software parts for constant improvements. Afterward, we need emulation to assess the energy efficiency before the actual deployment.}, subject = {Leistungsbedarf}, language = {en} } @phdthesis{Ziegler2022, author = {Ziegler, Katrin}, title = {Implementierung von verbesserten Landoberfl{\"a}chenparametern und -prozessen in das hochaufgel{\"o}ste Klimamodell REMO}, doi = {10.25972/OPUS-26128}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-261285}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2022}, abstract = {Das Ziel dieser Arbeit war neue Eingangsdaten f{\"u}r die Landoberfl{\"a}chenbeschreibung des regionalen Klimamodells REMO zu finden und ins Modell zu integrieren, um die Vorhersagequalit{\"a}t des Modells zu verbessern. Die neuen Daten wurden so in das Modell eingebaut, dass die bisherigen Daten weiterhin als Option verf{\"u}gbar sind. Dadurch kann {\"u}berpr{\"u}ft werden, ob und in welchem Umfang sich die von jedem Klimamodell ben{\"o}tigten Rahmendaten auf Modellergebnisse auswirken. Im Zuge der Arbeit wurden viele unterschiedliche Daten und Methoden zur Generierung neuer Parameter miteinander verglichen, denn neben dem Ersetzen der konstanten Eingangswerte f{\"u}r verschiedene Oberfl{\"a}chenparameter und den damit verbundenen {\"A}nderungen wurden als zus{\"a}tzliche Verbesserung auch Ver{\"a}nderungen an der Parametrisierung des Bodens speziell in Hinblick auf die Bodentemperaturen in REMO vorgenommen. Im Rahmen dieser Arbeit wurden die durch die verschiedenen {\"A}nderungen ausgel{\"o}sten Auswirkungen f{\"u}r das CORDEX-Gebiet EUR-44 mit einer Aufl{\"o}sung von ca. 50km und f{\"u}r das in dem darin eingebetteten neu definierten Deutschlandgebiet GER-11 mit einer Aufl{\"o}sung von ca. 12km getestet sowie alle {\"A}nderungen anhand von verschiedenen Beobachtungsdatens{\"a}tzen validiert. Die vorgenommenen Arbeiten gliederten sich in drei Hauptteile. Der erste Teil bestand in dem vom eigentlichen Klimamodell unabh{\"a}ngigen Vergleich der verschiedenen Eingangsdaten auf unterschiedlichen Aufl{\"o}sungen und deren Performanz in allen Teilen der Erde, wobei ein besonderer Fokus auf der Qualit{\"a}t in den sp{\"a}teren Modellgebieten lag. Unter Ber{\"u}cksichtigung der Faktoren, wie einer globalen Verf{\"u}gbarkeit der Daten, einer verbesserten r{\"a}umlichen Aufl{\"o}sung und einer kostenlosen Nutzung der Daten sowie verschiedener Validationsergebnissen von anderen Studien, wurden in dieser Arbeit vier neue Topographiedatens{\"a}tze (SRTM, ALOS, TANDEM und ASTER) und drei neue Bodendatens{\"a}tze (FAOn, Soilgrid und HWSD) f{\"u}r die Verwendung im Pr{\"a}prozess von REMO aufbereitet und miteinander sowie mit den bisher in REMO verwendeten Daten verglichen. Auf Grundlage dieser Vergleichsstudien schieden bei den Topographiedaten die verwendeten Datensatz-Versionen von SRTM, ALOS und TANDEM f{\"u}r die in dieser Arbeit durchgef{\"u}hrten REMO-L{\"a}ufe aus. Bei den neuen Bodendatens{\"a}tzen wurde ausgenutzt, dass diese verschiedenen Bodeneigenschaften f{\"u}r unterschiedliche Tiefen als Karten zur Verf{\"u}gung stellen. In REMO wurden bisher alle ben{\"o}tigten Bodenparameter abh{\"a}ngig von f{\"u}nf verschiedenen Bodentexturklassen und einer zus{\"a}tzlichen Torfklasse ausgewiesen und als konstant {\"u}ber die gesamte Modellbodens{\"a}ule (bis ca. 10m) angenommen. Im zweiten Teil wurden auf Basis der im ersten Teil ausgew{\"a}hlten neuen Datens{\"a}tze und den neu verf{\"u}gbaren Bodenvariablen verschiedene Sensitivit{\"a}tsstudien {\"u}ber das Beispieljahr 2000 durchgef{\"u}hrt. Dabei wurden verschiedene neue Parametrisierungen f{\"u}r die bisher aus der Textur abgeleiteten Bodenvariablen und die Parametrisierung von weiteren hydrologischen und thermalen Bodeneigenschaften verglichen. Ferner wurde aufgrund der neuen nicht {\"u}ber die Tiefe konstanten Bodeneigenschaften eine neue numerische Methode zur Berechnung der Bodentemperaturen der f{\"u}nf Schichten in REMO getestet, welche wiederum andere Anpassungen erforderte. Der Test und die Auswahl der verschiedenen Datensatz- und Parametrisierungsversionen auf die Modellperformanz wurde in drei Experimentpl{\"a}ne unterteilt. Im ersten Plan wurden die Auswirkungen der ausgew{\"a}hlten Topographie- und Bodendatens{\"a}tze {\"u}berpr{\"u}ft. Der zweite Plan behandelte die Unterschiede der verschiedenen Parametrisierungsarten der Bodenvariablen hinsichtlich der verwendeten Variablen zur Berechnung der Bodeneigenschaften, der {\"u}ber die Tiefe variablen oder konstanten Eigenschaften und der verwendeten Berechnungsmethode der Bodentemperatur{\"a}nderungen. Durch die Erkenntnisse aus diesen beiden Experimentpl{\"a}nen, die f{\"u}r beide Untersuchungsgebiete durchgef{\"u}hrt wurden, ergaben sich im dritten Plan weitere Parametrisierungs{\"a}nderungen. Alle {\"A}nderungen dieses dritten Experimentplans wurden sukzessiv getestet, sodass der paarweise Vergleich von zwei aufeinanderfolgenden Modelll{\"a}ufen die Auswirkungen der Neuerung im jeweils zweiten Lauf widerspiegelt. Der letzte Teil der Arbeit bestand aus der Analyse von f{\"u}nf l{\"a}ngeren Modelll{\"a}ufen (2000-2018), die zur {\"U}berpr{\"u}fung der Ergebnisse aus den Sensitivit{\"a}tsstudien sowie zur Einsch{\"a}tzung der Performanz in weiteren teilweise extremen atmosph{\"a}rischen Bedingungen durchgef{\"u}hrt wurden. Hierf{\"u}r wurden die bisherige Modellversion von REMO (id01) f{\"u}r die beiden Untersuchungsgebiete EUR-44 und GER-11 als Referenzl{\"a}ufe, zwei aufgrund der Vergleichsergebnisse von Experimentplan 3 selektierte Modellversionen (id06 und id15a f{\"u}r GER-11) sowie die finale Version (id18a f{\"u}r GER-11), die alle vorgenommenen {\"A}nderungen dieser Arbeit enth{\"a}lt, ausgew{\"a}hlt. Es stellte sich heraus, dass sowohl die neuen Topographiedaten als auch die neuen Bodendaten große Differenzen zu den bisherigen Daten in REMO haben. Zudem {\"a}nderten sich die von diesen konstanten Eingangsdaten abgeleiteten Hilfsvariablen je nach verwendeter Parametrisierung sehr deutlich. Dies war besonders gut anhand der Bodenparameter zu erkennen. Sowohl die r{\"a}umliche Verteilung als auch der Wertebereich der verschiedenen Modellversionen unterschieden sich stark. Eine Einsch{\"a}tzung der Qualit{\"a}t der resultierenden Parameter wurde jedoch dadurch erschwert, dass auch die verschiedenen zur Validierung herangezogenen Bodendatens{\"a}tze f{\"u}r diese Parameter deutlich voneinander abweichen. Die finale Modellversion id18a {\"a}hnelte trotz der umfassenden {\"A}nderungen in den meisten Variablen den Ergebnissen der bisherigen REMO-Version. Je nach zeitlicher und r{\"a}umlicher Aggregation sowie unterschiedlichen Regionen und Jahreszeiten wurden leichte Verbesserungen, aber auch leichte Verschlechterungen im Vergleich zu den klimatologischen Validationsdaten festgestellt. Gr{\"o}ßere Ver{\"a}nderungen im Vergleich zur bisherigen Modellversion konnten in den tieferen Bodenschichten aufgezeigt werden, welche allerdings aufgrund von fehlenden Validationsdaten nicht beurteilt werden konnten. F{\"u}r alle 2m-Temperaturen konnte eine tendenzielle leichte Erw{\"a}rmung im Vergleich zum bisherigen Modelllauf beobachtet werden, was sich einerseits negativ auf die ohnehin durchschnittlich zu hohe Minimumtemperatur, aber andererseits positiv auf die bisher zu niedrige Maximumtemperatur des Modells in den betrachteten Gebieten auswirkte. Im Niederschlagssignal und in den 10m-Windvariablen konnten keine signifikanten {\"A}nderungen nachgewiesen werden, obwohl die neue Topographie an manchen Stellen im Modellgebiet deutlich von der bisherigen abweicht. Des Weiteren variierte das Ranking der verschiedenen Modellversionen jeweils nach dem angewendeten Qualit{\"a}tsindex. Um diese Ergebnisse besser einordnen zu k{\"o}nnen, muss ber{\"u}cksichtigt werden, dass die neuen Daten f{\"u}r Modellgebiete mit 50 bzw. 12km r{\"a}umlicher Aufl{\"o}sung und der damit verbundenen hydrostatischen Modellversion getestet wurden. Zudem sind vor allem in Fall der Topographie die bisher enthaltenen GTOPO-Daten (1km Aufl{\"o}sung) f{\"u}r die Aggregation auf diese gr{\"o}bere Modellaufl{\"o}sung geeignet. Die bisherigen Bodendaten stoßen jedoch mit 50km Aufl{\"o}sung bereits an ihre Grenzen. Zus{\"a}tzlich ist zu beachten, dass nicht nur die Mittelwerte dieser Daten, sondern auch deren Subgrid-Variabilit{\"a}t als Variablen im Modell f{\"u}r verschiedene Parametrisierungen verwendet werden. Daher ist es essentiell, dass die Eingangsdaten eine deutlich h{\"o}here Aufl{\"o}sung bereitstellen als die zur Modellierung definierte Aufl{\"o}sung. F{\"u}r lokale Klimasimulationen mit Aufl{\"o}sungen im niedrigen Kilometerbereich spielen auch die Vertikalbewegungen (nicht-hydrostatische Modellversion) eine wichtige Rolle, die stark von der Topographie sowie deren horizontaler und vertikaler {\"A}nderungsrate beeinflusst werden, was die in dieser Arbeit eingebauten wesentlich h{\"o}her aufgel{\"o}sten Daten f{\"u}r die zuk{\"u}nftige Weiterentwicklung von REMO wertvoll machen kann.}, subject = {Klimamodell}, language = {de} } @phdthesis{Steininger2023, author = {Steininger, Michael}, title = {Deep Learning for Geospatial Environmental Regression}, doi = {10.25972/OPUS-31312}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-313121}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2023}, abstract = {Environmental issues have emerged especially since humans burned fossil fuels, which led to air pollution and climate change that harm the environment. These issues' substantial consequences evoked strong efforts towards assessing the state of our environment. Various environmental machine learning (ML) tasks aid these efforts. These tasks concern environmental data but are common ML tasks otherwise, i.e., datasets are split (training, validatition, test), hyperparameters are optimized on validation data, and test set metrics measure a model's generalizability. This work focuses on the following environmental ML tasks: Regarding air pollution, land use regression (LUR) estimates air pollutant concentrations at locations where no measurements are available based on measured locations and each location's land use (e.g., industry, streets). For LUR, this work uses data from London (modeled) and Zurich (measured). Concerning climate change, a common ML task is model output statistics (MOS), where a climate model's output for a study area is altered to better fit Earth observations and provide more accurate climate data. This work uses the regional climate model (RCM) REMO and Earth observations from the E-OBS dataset for MOS. Another task regarding climate is grain size distribution interpolation where soil properties at locations without measurements are estimated based on the few measured locations. This can provide climate models with soil information, that is important for hydrology. For this task, data from Lower Franconia is used. Such environmental ML tasks commonly have a number of properties: (i) geospatiality, i.e., their data refers to locations relative to the Earth's surface. (ii) The environmental variables to estimate or predict are usually continuous. (iii) Data can be imbalanced due to relatively rare extreme events (e.g., extreme precipitation). (iv) Multiple related potential target variables can be available per location, since measurement devices often contain different sensors. (v) Labels are spatially often only sparsely available since conducting measurements at all locations of interest is usually infeasible. These properties present challenges but also opportunities when designing ML methods for such tasks. In the past, environmental ML tasks have been tackled with conventional ML methods, such as linear regression or random forests (RFs). However, the field of ML has made tremendous leaps beyond these classic models through deep learning (DL). In DL, models use multiple layers of neurons, producing increasingly higher-level feature representations with growing layer depth. DL has made previously infeasible ML tasks feasible, improved the performance for many tasks in comparison to existing ML models significantly, and eliminated the need for manual feature engineering in some domains due to its ability to learn features from raw data. To harness these advantages for environmental domains it is promising to develop novel DL methods for environmental ML tasks. This thesis presents methods for dealing with special challenges and exploiting opportunities inherent to environmental ML tasks in conjunction with DL. To this end, the proposed methods explore the following techniques: (i) Convolutions as in convolutional neural networks (CNNs) to exploit reoccurring spatial patterns in geospatial data. (ii) Posing the problems as regression tasks to estimate the continuous variables. (iii) Density-based weighting to improve estimation performance for rare and extreme events. (iv) Multi-task learning to make use of multiple related target variables. (v) Semi-supervised learning to cope with label sparsity. Using these techniques, this thesis considers four research questions: (i) Can air pollution be estimated without manual feature engineering? This is answered positively by the introduction of the CNN-based LUR model MapLUR as well as the off-the-shelf LUR solution OpenLUR. (ii) Can colocated pollution data improve spatial air pollution models? Multi-task learning for LUR is developed for this, showing potential for improvements with colocated data. (iii) Can DL models improve the quality of climate model outputs? The proposed DL climate MOS architecture ConvMOS demonstrates this. Additionally, semi-supervised training of multilayer perceptrons (MLPs) for grain size distribution interpolation is presented, which can provide improved input data. (iv) Can DL models be taught to better estimate climate extremes? To this end, density-based weighting for imbalanced regression (DenseLoss) is proposed and applied to the DL architecture ConvMOS, improving climate extremes estimation. These methods show how especially DL techniques can be developed for environmental ML tasks with their special characteristics in mind. This allows for better models than previously possible with conventional ML, leading to more accurate assessment and better understanding of the state of our environment.}, subject = {Deep learning}, language = {en} } @phdthesis{Saulin2023, author = {Saulin, Anne Christin}, title = {Sustainability of empathy as driver for prosocial behavior and social closeness: insights from computational modelling and functional magnetic resonance imaging}, doi = {10.25972/OPUS-30555}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-305550}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2023}, abstract = {Empathy, the act of sharing another person's affective state, is a ubiquitous driver for helping others and feeling close to them. These experiences are integral parts of human behavior and society. The studies presented in this dissertation aimed to investigate the sustainability and stability of social closeness and prosocial decision-making driven by empathy and other social motives. In this vein, four studies were conducted in which behavioral and neural indicators of empathy sustainability were identified using model-based functional magnetic resonance imaging (fMRI). Applying reinforcement learning, drift-diffusion modelling (DDM), and fMRI, the first two studies were designed to investigate the formation and sustainability of empathy-related social closeness (study 1) and examined how sustainably empathy led to prosocial behavior (study 2). Using DDM and fMRI, the last two studies investigated how empathy combined with reciprocity, the social norm to return a favor, on the one hand and empathy combined with the motive of outcome maximization on the other hand altered the behavioral and neural social decision process. The results showed that empathy-related social closeness and prosocial decision tendencies persisted even if empathy was rarely reinforced. The sustainability of these empathy effects was related to recalibration of the empathy-related social closeness learning signal (study 1) and the maintenance of a prosocial decision bias (study 2). The findings of study 3 showed that empathy boosted the processing of reciprocity-based social decisions, but not vice versa. Study 4 revealed that empathy-related decisions were modulated by the motive of outcome maximization, depending on individual differences in state empathy. Together, the studies strongly support the concept of empathy as a sustainable driver of social closeness and prosocial behavior.}, subject = {Einf{\"u}hlung }, language = {en} } @phdthesis{Gerner2023, author = {Gerner, Bettina}, title = {Improvement of oral antineoplastic therapy by means of pharmacometric approaches \& therapeutic drug monitoring}, doi = {10.25972/OPUS-32196}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-321966}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2023}, abstract = {Oral antineoplastic drugs are an important component in the treatment of solid tumour diseases, haematological and immunological malignancies. Oral drug administration is associated with positive features (e.g., non-invasive drug administration, outpatient care with a high level of independence for the patient and reduced costs for the health care system). The systemic exposure after oral intake however is prone to high IIV as it strongly depends on gastrointestinal absorption processes, which are per se characterized by high inter-and intraindividual variability. Disease and patient-specific characteristics (e.g., disease state, concomitant diseases, concomitant medication, patient demographics) may additionally contribute to variability in plasma concentrations between individual patients. In addition, many oral antineoplastic drugs show complex PK, which has not yet been fully investigated and elucidated for all substances. All this may increase the risk of suboptimal plasma exposure (either subtherapeutic or toxic), which may ultimately jeopardise the success of therapy, either through a loss of efficacy or through increased, intolerable adverse drug reactions. TDM can be used to detect suboptimal plasma levels and prevent permanent under- or overexposure. It is essential in the treatment of ACC with mitotane, a substance with unfavourable PK and high IIV. In the current work a HPLC-UV method for the TDM of mitotane using VAMS was developed. A low sample volume (20 µl) of capillary blood was used in the developed method, which facilitates dense sampling e.g., at treatment initiation. However, no reference ranges for measurements from capillary blood are established so far and a simple conversion from capillary concentrations to plasma concentrations was not possible. To date the therapeutic range is established only for plasma concentrations and observed capillary concentrations could not be reliable interpretated.The multi-kinase inhibitor cabozantinib is also used for the treatment of ACC. However, not all PK properties, like the characteristic second peak in the cabozantinib concentration-time profile have been fully understood so far. To gain a mechanistic understanding of the compound, a PBPK model was developed and various theories for modelling the second peak were explored, revealing that EHC of the compound is most plausible. Cabozantinib is mainly metabolized via CYP3A4 and susceptible to DDI with e.g., CYP3A4 inducers. The DDI between cabozantinib and rifampin was investigated with the developed PBPK model and revealed a reduced cabozantinib exposure (AUC) by 77\%. Hence, the combination of cabozantinib with strong CYP inducers should be avoided. If this is not possible, co administration should be monitored using TDM. The model was also used to simulate cabozantinib plasma concentrations at different stages of liver injury. This showed a 64\% and 50\% increase in total exposure for mild and moderate liver injury, respectively.Ruxolitinib is used, among others, for patients with acute and chronic GvHD. These patients often also receive posaconazole for invasive fungal prophylaxis leading to CYP3A4 mediated DDI between both substances. Different dosing recommendations from the FDA and EMA on the use of ruxolitinib in combination with posaconazole complicate clinical use. To simulate the effect of this relevant DDI, two separate PBPK models for ruxolitinib and posaconazole were developed and combined. Predicted ruxolitinib exposure was compared to observed plasma concentrations obtained in GvHD patients. The model simulations showed that the observed ruxolitinib concentrations in these patients were generally higher than the simulated concentrations in healthy individuals, with standard dosing present in both scenarios. According to the developed model, EMA recommended RUX dose reduction seems to be plausible as due to the complexity of the disease and intake of extensive co-medication, RUX plasma concentration can be higher than expected.}, subject = {Arzneimittel{\"u}berwachung}, language = {en} }