TY - THES A1 - Steininger, Michael T1 - Deep Learning for Geospatial Environmental Regression T1 - Deep Learning für Regressionsmodelle mit georäumlichen Umweltdaten N2 - Environmental issues have emerged especially since humans burned fossil fuels, which led to air pollution and climate change that harm the environment. These issues’ substantial consequences evoked strong efforts towards assessing the state of our environment. Various environmental machine learning (ML) tasks aid these efforts. These tasks concern environmental data but are common ML tasks otherwise, i.e., datasets are split (training, validatition, test), hyperparameters are optimized on validation data, and test set metrics measure a model’s generalizability. This work focuses on the following environmental ML tasks: Regarding air pollution, land use regression (LUR) estimates air pollutant concentrations at locations where no measurements are available based on measured locations and each location’s land use (e.g., industry, streets). For LUR, this work uses data from London (modeled) and Zurich (measured). Concerning climate change, a common ML task is model output statistics (MOS), where a climate model’s output for a study area is altered to better fit Earth observations and provide more accurate climate data. This work uses the regional climate model (RCM) REMO and Earth observations from the E-OBS dataset for MOS. Another task regarding climate is grain size distribution interpolation where soil properties at locations without measurements are estimated based on the few measured locations. This can provide climate models with soil information, that is important for hydrology. For this task, data from Lower Franconia is used. Such environmental ML tasks commonly have a number of properties: (i) geospatiality, i.e., their data refers to locations relative to the Earth’s surface. (ii) The environmental variables to estimate or predict are usually continuous. (iii) Data can be imbalanced due to relatively rare extreme events (e.g., extreme precipitation). (iv) Multiple related potential target variables can be available per location, since measurement devices often contain different sensors. (v) Labels are spatially often only sparsely available since conducting measurements at all locations of interest is usually infeasible. These properties present challenges but also opportunities when designing ML methods for such tasks. In the past, environmental ML tasks have been tackled with conventional ML methods, such as linear regression or random forests (RFs). However, the field of ML has made tremendous leaps beyond these classic models through deep learning (DL). In DL, models use multiple layers of neurons, producing increasingly higher-level feature representations with growing layer depth. DL has made previously infeasible ML tasks feasible, improved the performance for many tasks in comparison to existing ML models significantly, and eliminated the need for manual feature engineering in some domains due to its ability to learn features from raw data. To harness these advantages for environmental domains it is promising to develop novel DL methods for environmental ML tasks. This thesis presents methods for dealing with special challenges and exploiting opportunities inherent to environmental ML tasks in conjunction with DL. To this end, the proposed methods explore the following techniques: (i) Convolutions as in convolutional neural networks (CNNs) to exploit reoccurring spatial patterns in geospatial data. (ii) Posing the problems as regression tasks to estimate the continuous variables. (iii) Density-based weighting to improve estimation performance for rare and extreme events. (iv) Multi-task learning to make use of multiple related target variables. (v) Semi–supervised learning to cope with label sparsity. Using these techniques, this thesis considers four research questions: (i) Can air pollution be estimated without manual feature engineering? This is answered positively by the introduction of the CNN-based LUR model MapLUR as well as the off-the-shelf LUR solution OpenLUR. (ii) Can colocated pollution data improve spatial air pollution models? Multi-task learning for LUR is developed for this, showing potential for improvements with colocated data. (iii) Can DL models improve the quality of climate model outputs? The proposed DL climate MOS architecture ConvMOS demonstrates this. Additionally, semi-supervised training of multilayer perceptrons (MLPs) for grain size distribution interpolation is presented, which can provide improved input data. (iv) Can DL models be taught to better estimate climate extremes? To this end, density-based weighting for imbalanced regression (DenseLoss) is proposed and applied to the DL architecture ConvMOS, improving climate extremes estimation. These methods show how especially DL techniques can be developed for environmental ML tasks with their special characteristics in mind. This allows for better models than previously possible with conventional ML, leading to more accurate assessment and better understanding of the state of our environment. N2 - Umweltprobleme sind vor allem seit der Verbrennung fossiler Brennstoffe durch den Menschen entstanden. Dies hat zu Luftverschmutzung und Klimawandel geführt, was die Umwelt schädigt. Die schwerwiegenden Folgen dieser Probleme haben starke Bestrebungen ausgelöst, den Zustand unserer Umwelt zu untersuchen. Verschiedene Ansätze des maschinellen Lernens (ML) im Umweltbereich unterstützen diese Bestrebungen. Bei diesen Aufgaben handelt es sich um gewöhnliche ML-Aufgaben, z. B. werden die Datensätze aufgeteilt (Training, Validation, Test), Hyperparameter werden auf den Validierungsdaten optimiert, und die Metriken auf den Testdaten messen die Generalisierungsfähigkeit eines Modells, aber sie befassen sich mit Umweltdaten. Diese Arbeit konzentriert sich auf die folgenden Umwelt-ML-Aufgaben: In Bezug auf Luftverschmutzung schätzt Land Use Regression (LUR) die Luftschadstoffkonzentration an Orten, an denen keine Messungen verfügbar sind auf Basis von gemessenen Orten und der Landnutzung (z. B. Industrie, Straßen) der Orte. Für LUR werden in dieser Arbeit Daten aus London (modelliert) und Zürich (gemessen) verwendet. Im Zusammenhang mit dem Klimawandel ist eine häufige ML-Aufgabe Model Output Statistics (MOS), bei der die Ausgaben eines Klimamodells so angepasst werden, dass sie mit Erdbeobachtungen besser übereinstimmen. Dadurch werden genauere Klimadaten erzeugt. Diese Arbeit verwendet das regionale Klimamodell REMO und Erdbeobachtungen aus dem E-OBS-Datensatz für MOS. Eine weitere Aufgabe im Zusammenhang mit dem Klima ist die Interpolation von Korngrößenverteilungen. Hierbei werden Bodeneigenschaften an Orten ohne Messungen auf Basis von wenigen gemessenen Orten geschätzt, um Klimamodelle mit Bodeninformationen zu versorgen, die für die Hydrologie wichtig sind. Für diese Aufgabe werden in dieser Arbeit Bodenmessungen aus Unterfranken herangezogen. Solche Umwelt-ML-Aufgaben haben oft eine Reihe von Eigenschaften: (i) Georäumlichkeit, d. h. ihre Daten beziehen sich auf Standorte relativ zur Erdoberfläche. (ii) Die zu schätzenden oder vorherzusagenden Umweltvariablen sind normalerweise kontinuierlich. (iii) Daten können unbalanciert sein, was auf relativ seltene Extremereignisse (z. B. extreme Niederschläge) zurückzuführen ist. (iv) Pro Standort können mehrere verwandte potenzielle Zielvariablen verfügbar sein, da Messgeräte oft verschiedene Sensoren enthalten. (v) Zielwerte sind räumlich oft nur spärlich vorhanden, da die Durchführung von Messungen an allen gewünschten Orten in der Regel nicht möglich ist. Diese Eigenschaften stellen eine Herausforderung, aber auch eine Chance bei der Entwicklung von ML-Methoden für derlei Aufgaben dar. In der Vergangenheit wurden ML-Aufgaben im Umweltbereich mit konventionellen ML-Methoden angegangen, wie z. B. lineare Regression oder Random Forests (RFs). In den letzten Jahren hat der Bereich ML jedoch durch Deep Learning (DL) enorme Fortschritte über diese klassischen Modelle hinaus gemacht. Bei DL verwenden die Modelle mehrere Schichten von Neuronen, die mit zunehmender Schichtungstiefe immer abstraktere Merkmalsdarstellungen erzeugen. DL hat zuvor undurchführbare ML-Aufgaben realisierbar gemacht, die Leistung für viele Aufgaben im Vergleich zu bestehenden ML-Modellen erheblich verbessert und die Notwendigkeit für manuelles Feature-Engineering in einigen Bereichen aufgrund seiner Fähigkeit, Features aus Rohdaten zu lernen, eliminiert. Um diese Vorteile für ML-Aufgaben in der Umwelt nutzbar zu machen, ist es vielversprechend, geeignete DL-Methoden für diesen Bereich zu entwickeln. In dieser Arbeit werden Methoden zur Bewältigung der besonderen Herausforderungen und zur Nutzung der Möglichkeiten von Umwelt-ML-Aufgaben in Verbindung mit DL vorgestellt. Zu diesem Zweck werden in den vorgeschlagenen Methoden die folgenden Techniken untersucht: (i) Faltungen wie in Convolutional Neural Networks (CNNs), um wiederkehrende räumliche Muster in Geodaten zu nutzen. (ii) Probleme als Regressionsaufgaben stellen, um die kontinuierlichen Variablen zu schätzen. (iii) Dichtebasierte Gewichtung zur Verbesserung der Schätzungen bei seltenen und extremen Ereignissen. (iv) Multi-Task-Lernen, um mehrere verwandte Zielvariablen zu nutzen. (v) Halbüber- wachtes Lernen, um auch mit wenigen bekannten Zielwerten zurechtzukommen. Mithilfe dieser Techniken werden in der Arbeit vier Forschungsfragen untersucht: (i) Kann Luftverschmutzung ohne manuelles Feature Engineering geschätzt werden? Dies wird durch die Einführung des CNN-basierten LUR-Modells MapLUR sowie der automatisierten LUR–Lösung OpenLUR positiv beantwortet. (ii) Können kolokalisierte Verschmutzungsdaten räumliche Luftverschmutzungsmodelle verbessern? Hierfür wird Multi-Task-Learning für LUR entwickelt, das Potenzial für Verbesserungen mit kolokalisierten Daten zeigt. (iii) Können DL-Modelle die Qualität der Ausgaben von Klimamodellen verbessern? Die vorgeschlagene DL-MOS-Architektur ConvMOS demonstriert das. Zusätzlich wird halbüberwachtes Training von Multilayer Perceptrons (MLPs) für die Interpolation von Korngrößenverteilungen vorgestellt, das verbesserte Eingabedaten liefern kann. (iv) Kann man DL-Modellen beibringen, Klimaextreme besser abzuschätzen? Zu diesem Zweck wird eine dichtebasierte Gewichtung für unbalancierte Regression (DenseLoss) vorgeschlagen und auf die DL-Architektur ConvMOS angewendet, um die Schätzung von Klimaextremen zu verbessern. Diese Methoden zeigen, wie speziell DL-Techniken für Umwelt-ML-Aufgaben unter Berücksichtigung ihrer besonderen Eigenschaften entwickelt werden können. Dies ermöglicht bessere Modelle als konventionelles ML bisher erlaubt hat, was zu einer genaueren Bewertung und einem besseren Verständnis des Zustands unserer Umwelt führt. KW - Deep learning KW - Modellierung KW - Umwelt KW - Geospatial KW - Environmental KW - Regression KW - Neuronales Netz KW - Maschinelles Lernen KW - Geoinformationssystem Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-313121 ER - TY - THES A1 - Saulin, Anne Christin T1 - Sustainability of empathy as driver for prosocial behavior and social closeness: insights from computational modelling and functional magnetic resonance imaging T1 - Nachhaltigkeit von Empathie als Motiv für prosoziales Verhalten und soziale Nähe: Erkenntnisse auf Grundlage von computational modelling und funktioneller Magnetresonanztomographie N2 - Empathy, the act of sharing another person’s affective state, is a ubiquitous driver for helping others and feeling close to them. These experiences are integral parts of human behavior and society. The studies presented in this dissertation aimed to investigate the sustainability and stability of social closeness and prosocial decision-making driven by empathy and other social motives. In this vein, four studies were conducted in which behavioral and neural indicators of empathy sustainability were identified using model-based functional magnetic resonance imaging (fMRI). Applying reinforcement learning, drift-diffusion modelling (DDM), and fMRI, the first two studies were designed to investigate the formation and sustainability of empathy-related social closeness (study 1) and examined how sustainably empathy led to prosocial behavior (study 2). Using DDM and fMRI, the last two studies investigated how empathy combined with reciprocity, the social norm to return a favor, on the one hand and empathy combined with the motive of outcome maximization on the other hand altered the behavioral and neural social decision process. The results showed that empathy-related social closeness and prosocial decision tendencies persisted even if empathy was rarely reinforced. The sustainability of these empathy effects was related to recalibration of the empathy-related social closeness learning signal (study 1) and the maintenance of a prosocial decision bias (study 2). The findings of study 3 showed that empathy boosted the processing of reciprocity-based social decisions, but not vice versa. Study 4 revealed that empathy-related decisions were modulated by the motive of outcome maximization, depending on individual differences in state empathy. Together, the studies strongly support the concept of empathy as a sustainable driver of social closeness and prosocial behavior. N2 - Empathie, das Teilen des Affekts einer anderen Person, ist eine allgegenwärtige Motivation, anderen Menschen zu helfen und sich ihnen nahe zu fühlen. Diese Erfahrungen sind wesentliche Bestandteile menschlichen Verhaltens und zentral für unsere Gesellschaft. Die vorliegende Dissertation setzte sich zum Ziel, die Nachhaltigkeit und Stabilität sozialer Nähe sowie prosozialem Entscheidungsverhalten basierend auf Empathie und anderen sozialen Motiven zu beleuchten. In den vier Studien wurden das Verhalten und neuronale Indikatoren für die Nachhaltigkeit von Empathie mit modellbasierter funktioneller Magnetresonanztomographie (fMRT) untersucht. Unter Verwendung von Verstärkungslernmodellen, Drift-Diffusionsmodellen (DDM) und fMRT untersuchten die ersten zwei Studien den zeitlichen Verlauf von empathiebasierter sozialer Nähe und prosozialem Verhalten. Mit Hilfe von DDM und fMRT wurde in den abschließenden Studien untersucht, wie Empathie in Kombination mit Reziprozität, der sozialen Norm, Gefallen zurückzuzahlen, und Empathie in Kombination mit dem Motiv der Gewinnmaximierung den verhaltensbezogenen und neuronalen sozialen Entscheidungsprozess verändert. Die Ergebnisse zeigten, dass empathiebasierte soziale Nähe und prosoziale Entscheidungstendenzen selbst dann fortbestanden wenn Empathie nur noch selten verstärkt wurde. Die Nachhaltigkeit dieser Effekte hing mit der Rekalibrierung des empathiebasierten Lernsignals für soziale Nähe (Studie 1) und dem Aufrechterhalten eines prosozialen Entscheidungsbias zusammen (Studie 2). Die Ergebnisse von Studie 3 zeigten, dass Empathie reziprozitätsbasierte soziale Entscheidungen stärkt, aber nicht umgekehrt. Studie 4 zeigte, dass empathiebasierte soziale Entscheidungen durch das Motiv der Gewinnmaximierung vereinfacht werden können. Zusammengefasst unterstützen die Ergebnisse der vorliegenden Dissertation nachdrücklich das Konzept von Empathie als nachhaltige Triebkraft für soziale Nähe und prosoziales Verhalten. KW - Einfühlung KW - Bestärkendes Lernen KW - Modellierung KW - Funktionelle Kernspintomografie KW - Prosoziales Verhalten KW - drift-diffusion model KW - reciprocity KW - anterior insula KW - temporo-parietal junction KW - inferior frontal gyrus Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-305550 ER - TY - THES A1 - Gerner, Bettina T1 - Improvement of oral antineoplastic therapy by means of pharmacometric approaches & therapeutic drug monitoring T1 - Verbesserung der oralen antineoplastischen Therapie mit Hilfe von pharmakometrischen Ansätzen und therapeutischem drug monitoring N2 - Oral antineoplastic drugs are an important component in the treatment of solid tumour diseases, haematological and immunological malignancies. Oral drug administration is associated with positive features (e.g., non-invasive drug administration, outpatient care with a high level of independence for the patient and reduced costs for the health care system). The systemic exposure after oral intake however is prone to high IIV as it strongly depends on gastrointestinal absorption processes, which are per se characterized by high inter-and intraindividual variability. Disease and patient-specific characteristics (e.g., disease state, concomitant diseases, concomitant medication, patient demographics) may additionally contribute to variability in plasma concentrations between individual patients. In addition, many oral antineoplastic drugs show complex PK, which has not yet been fully investigated and elucidated for all substances. All this may increase the risk of suboptimal plasma exposure (either subtherapeutic or toxic), which may ultimately jeopardise the success of therapy, either through a loss of efficacy or through increased, intolerable adverse drug reactions. TDM can be used to detect suboptimal plasma levels and prevent permanent under- or overexposure. It is essential in the treatment of ACC with mitotane, a substance with unfavourable PK and high IIV. In the current work a HPLC-UV method for the TDM of mitotane using VAMS was developed. A low sample volume (20 µl) of capillary blood was used in the developed method, which facilitates dense sampling e.g., at treatment initiation. However, no reference ranges for measurements from capillary blood are established so far and a simple conversion from capillary concentrations to plasma concentrations was not possible. To date the therapeutic range is established only for plasma concentrations and observed capillary concentrations could not be reliable interpretated.The multi-kinase inhibitor cabozantinib is also used for the treatment of ACC. However, not all PK properties, like the characteristic second peak in the cabozantinib concentration-time profile have been fully understood so far. To gain a mechanistic understanding of the compound, a PBPK model was developed and various theories for modelling the second peak were explored, revealing that EHC of the compound is most plausible. Cabozantinib is mainly metabolized via CYP3A4 and susceptible to DDI with e.g., CYP3A4 inducers. The DDI between cabozantinib and rifampin was investigated with the developed PBPK model and revealed a reduced cabozantinib exposure (AUC) by 77%. Hence, the combination of cabozantinib with strong CYP inducers should be avoided. If this is not possible, co administration should be monitored using TDM. The model was also used to simulate cabozantinib plasma concentrations at different stages of liver injury. This showed a 64% and 50% increase in total exposure for mild and moderate liver injury, respectively.Ruxolitinib is used, among others, for patients with acute and chronic GvHD. These patients often also receive posaconazole for invasive fungal prophylaxis leading to CYP3A4 mediated DDI between both substances. Different dosing recommendations from the FDA and EMA on the use of ruxolitinib in combination with posaconazole complicate clinical use. To simulate the effect of this relevant DDI, two separate PBPK models for ruxolitinib and posaconazole were developed and combined. Predicted ruxolitinib exposure was compared to observed plasma concentrations obtained in GvHD patients. The model simulations showed that the observed ruxolitinib concentrations in these patients were generally higher than the simulated concentrations in healthy individuals, with standard dosing present in both scenarios. According to the developed model, EMA recommended RUX dose reduction seems to be plausible as due to the complexity of the disease and intake of extensive co-medication, RUX plasma concentration can be higher than expected. N2 - Orale antineoplastische Arzneimittel (OADs) sind ein wichtiger Bestandteil der Behandlung von soliden Tumorerkrankungen, hämatologischen und immunologischen Malignomen. Die orale Verabreichung von Arzneimitteln geht mit positiven Eigenschaften einher (z. B. nicht-invasive Anwendung, ambulante Versorgung mit einem hohen Maß an Unabhängigkeit für den Patienten und geringere Kosten für das Gesundheitssystem). Die systemische Exposition nach oraler Einnahme unterliegt jedoch einer hohen interindividuellen Variabilität, da sie stark von gastrointestinalen Absorptionsprozessen abhängt, die per se durch eine hohe inter- und intraindividuelle Variabilität gekennzeichnet sind. Krankheits- und patientenspezifische Merkmale (z. B. Krankheitszustand, Begleiterkrankungen, Begleitmedikation, Demographie der Patienten) können zusätzlich zu einer Variabilität in den Plasmakonzentrationen zwischen einzelnen Patienten beitragen. Darüber hinaus weisen viele OADs eine komplexe Pharmakokinetik (PK) auf, die noch nicht für alle Substanzen hinreichend untersucht und aufgeklärt wurde. All dies kann das Risiko einer suboptimalen Plasmaexposition (entweder subtherapeutisch oder toxisch) erhöhen, was letztendlich den Therapieerfolg gefährden kann, entweder durch einen Wirkungsverlust oder durch vermehrt auftretende, nicht tolerierbare unerwünschte Arzneimittelwirkungen. Therapeutisches Drug Monitoring (TDM) kann eingesetzt werden, um suboptimale Plasmaspiegel zu erkennen und eine dauerhafte Unter- oder Überexposition zu verhindern. TDM ist in der Behandlung des Nebennierenrindenkarzinoms (ACC) mit Mitotane, einer Substanz, die sich durch ungünstige PK-Eigenschaften und einer hohen IIV auszeichnet, unerlässlich. In der vorliegenden Arbeit wurde eine HPLC-UV Methode für das TDM von Mitotane aus Trockenblut unter Verwendung volumetrisch absorptiver Mikroprobenahme (VAMS) entwickelt. Bei der entwickelten Methode wurde ein geringes Probenvolumen (20 µl) aus Kapillarblut verwendet, was eine häufigere Probenahme, z. B. zu Beginn der Behandlung, erleichtert. Allerdings gibt es bisher keine Referenzbereiche für Messungen aus Kapillarblut, und eine einfache Umrechnung von Kapillarkonzentrationen in Plasmakonzentrationen erwies sich als schwierig. Bislang ist der therapeutische Bereich nur für Plasmakonzentrationen festgelegt, und beobachtete Kapillarkonzentrationen konnten nicht zuverlässig interpretiert werden. Der Multi-Kinase-Inhibitor Cabozantinib wird ebenfalls für die Behandlung des ACC eingesetzt. Allerdings sind noch nicht alle PK-Eigenschaften, wie der charakteristische zweite Peak im Konzentrations-Zeit-Profil von Cabozantinib, vollständig untersucht. Um ein mechanistisches Verständnis des Wirkstoffs zu erlangen, wurde ein physiologie basiertes pharmakokinetisches (PBPK) Model entwickelt und verschiedene Theorien zur Modellierung des zweiten Peaks untersucht, wobei sich herausstellte, dass eine enterohepatische Rezirkulation der Substanz am plausibelsten ist. Cabozantinib wird hauptsächlich über CYP3A4 metabolisiert und ist daher anfällig für Wechselwirkungen mit z. B. CYP3A4-Induktoren. Die DDI zwischen Cabozantinib und Rifampin wurde mit dem entwickelten PBPK-Modell untersucht und ergab eine um 77 % verringerte Cabozantinib-Exposition (AUC). Daher sollte die Kombination von Cabozantinib mit starken CYP-Induktoren vermieden werden. Wenn dies nicht möglich ist, sollte die gemeinsame Verabreichung mittels TDM überwacht werden. Das Modell wurde außerdem verwendet, um die Cabozantinib Plasmakonzentrationen bei unterschiedlicher Schwere einer Leberschädigung zu simulieren. Hier zeigte sich eine um 64 % bzw. 50 % erhöhte Gesamtexposition bei leichter beziehungsweise mittlerer Leberschädigung. Ruxolitinib wird unter anderem bei Patienten mit akuter (aGvHD) und chronischer (cGvHD) Graft-versus-Host-Erkrankung eingesetzt. Diese Patienten erhalten häufig auch Posaconazol zur Prophylaxe invasiver Pilzerkrankungen, was zu einer CYP3A4-vermittelten DDI zwischen beiden Substanzen führen kann. Unterschiedliche Dosierungsempfehlungen der FDA und der EMA für die Verwendung von Ruxolitinib in Kombination mit Posaconazol erschweren die klinische Anwendung. Um die Auswirkung dieser relevanten DDI zu simulieren, wurden zunächst zwei separate PBPK-Modelle für Ruxolitinib und Posaconazol entwickelt, welche anschließend miteinander kombiniert wurden. Die vorhergesagte Ruxolitinib Exposition wurde mit beobachteten Plasmakonzentrationen von GvHD-Patienten verglichen. Die Modellsimulationen zeigten, dass die beobachteten Ruxolitinib Konzentrationen bei diesen Patienten im Allgemeinen höher waren als die simulierten Konzentrationen bei gesunden Personen, wobei in beiden Szenarien eine Standarddosierung vorlag. Dem Modell zufolge schient die von der EMA empfohlene Reduzierung der RUX-Dosis um 50 % daher plausibler bzw. ausreichend zu sein. KW - pharmacometrics KW - kinase inhibitor KW - modelling KW - Pharmakometrie KW - Kinaseinhibitor KW - Arzneimittelüberwachung KW - Modellierung KW - TDM KW - Therapeutisches Drug Monitoring Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-321966 ER - TY - THES A1 - Wilde, Martina T1 - Landslide susceptibility assessment in the Chiconquiaco Mountain Range area, Veracruz (Mexico) T1 - Bewertung der Rutschungssuszeptibilität in der Chiconquiaco Gebirgsregion, Veracruz (Mexiko) N2 - In Mexico, numerous landslides occur each year and Veracruz represents the state with the third highest number of events. Especially the Chiconquiaco Mountain Range, located in the central part of Veracruz, is highly affected by landslides and no detailed information on the spatial distribution of existing landslides or future occurrences is available. This leaves the local population exposed to an unknown threat and unable to react appropriately to this hazard or to consider the potential landslide occurrence in future planning processes. Thus, the overall objective of the present study is to provide a comprehensive assessment of the landslide situation in the Chiconquiaco Mountain Range area. Here, the combination of a site-specific and a regional approach enables to investigate the causes, triggers, and process types as well as to model the landslide susceptibility for the entire study area. For the site-specific approach, the focus lies on characterizing the Capulín landslide, which represents one of the largest mass movements in the area. In this context, the task is to develop a multi-methodological concept, which concentrates on cost-effective, flexible and non-invasive methods. This approach shows that the applied methods complement each other very well and their combination allows for a detailed characterization of the landslide. The analyses revealed that the Capulín landslide is a complex mass movement type. It comprises rotational movement in the upper parts and translational movement in the lower areas, as well as flow processes at the flank and foot area and therefore, is classified as a compound slide-flow according to Cruden and Varnes (1996). Furthermore, the investigations show that the Capulín landslide represents a reactivation of a former process. This is an important new information, especially with regard to the other landslides identified in the study area. Both the road reconstructed after the landslide, which runs through the landslide mass, and the stream causing erosion processes at the foot of the landslide severely affect the stability of the landslide, making it highly susceptible to future reactivation processes. This is particularly important as the landslide is located only few hundred meters from the village El Capulín and an extension of the landslide area could cause severe damage. The next step in the landslide assessment consists of integrating the data obtained in the site-specific approach into the regional analysis. Here, the focus lies on transferring the generated data to the entire study area. The developed methodological concept yields applicable results, which is supported by different validation approaches. The susceptibility modeling as well as the landslide inventory reveal that the highest probability of landslides occurrence is related to the areas with moderate slopes covered by slope deposits. These slope deposits comprise material from old mass movements and erosion processes and are highly susceptible to landslides. The results give new insights into the landslide situation in the Chiconquiaco Mountain Range area, since previously landslide occurrence was related to steep slopes of basalt and andesite. The susceptibility map is a contribution to a better assessment of the landslide situation in the study area and simultaneously proves that it is crucial to include specific characteristics of the respective area into the modeling process, otherwise it is possible that the local conditions will not be represented correctly. N2 - In Mexico ereignen sich jedes Jahr zahlreiche Rutschungen und Veracruz ist der Bundesstaat mit der dritthöchsten Anzahl von solchen Ereignissen. Besonders das Chiconquiaco Gebirge, welches im zentralen Bereich von Veracruz liegt, ist stark von Rutschungen betroffen und trotzdem sind keine detaillierten Informationen zur räumlichen Verbreitung existierender Rutschungen oder zu deren erwarteten, zukünftigen Auftreten verfügbar. Dadurch ist die lokale Bevölkerung mit einer nicht einschätzbaren Bedrohungslage konfrontiert und kann weder auf diese angemessen reagieren noch das potentielle Auftreten von Rutschungen in künftigen Planungsprozessen berücksichtigen. Das übergeordnete Ziel der vorliegenden Arbeit besteht daher darin, eine umfassende Beurteilung der Rutschungssituation im Chiconquiaco Gebirge zu erstellen. Hierbei ermöglicht die Kombination eines standortspezifischen und eines regionalen Ansatzes sowohl die Untersuchung der Ursachen, Auslöser und Prozesstypen, als auch die Modellierung der Rutschanfälligkeit für das gesamte Untersuchungsgebiet. Bei dem standortspezifischen Ansatz liegt der Schwerpunkt auf der Charakterisierung der Capulín Rutschung, bei der es sich um eine der größten Massenbewegungen in dieser Region handelt. In diesem Rahmen besteht die Aufgabe darin, ein multi-methodologisches Konzept zu entwickeln, welches sich hauptsächlich auf kostengünstige, flexible und nicht-invasive Methoden konzentriert. Dieser Ansatz zeigt, dass sich die verwendeten Methoden sehr gut ergänzen und ihre Kombination eine detaillierte Charakterisierung der Rutschung ermöglicht. Die Ergebnisse legen dar, dass die Capulín Rutschung eine komplexe Massenbewegung ist. So umfasst sie Rotationsbewegungen im oberen und Translationsbewegungen im unteren Bereich, sowie Fließprozesse an der Flanke und im Fußbereich und kann daher nach Cruden und Varnes (1996) als Kombination aus Gleit- und Fließprozessen (compound slide-flow) klassifiziert werden. Des Weiteren zeigen die Ergebnisse, dass es sich bei der Capulín Rutschung um eine Reaktivierung einer älteren Rutschung handelt. Das ist eine wichtige neue Erkenntnis besonders im Hinblick auf die anderen Rutschungen, die im Untersuchungsgebiet festgestellt wurden. Sowohl die nach der Rutschung wieder aufgebaute Straße, die durch die Rutschmasse verläuft, als auch der Fluss, der Erosionsprozesse am Fuß der Rutschung verursacht, beeinträchtigen die Stabilität der Capulín Rutschung maßgeblich, was sie sehr anfällig für zukünftige Reaktivierungsprozesse macht. Dies ist besonders wichtig, da die Rutschung nur wenige hundert Meter von dem Ort El Capulín entfernt ist und eine Erweiterung des Rutschgebietes erhebliche Schäden verursachen könnte. Im Anschluss werden die durch den lokalen Ansatz erhaltenen Daten in die regionale Analyse integriert. Der Fokus bei diesem Vorgehen liegt dabei auf der Übertragung der generierten Daten auf das gesamte Untersuchungsgebiet. Das hier entwickelte methodische Konzept erzielt verwertbare Ergebnisse, was durch verschiedene Validierungsansätze bekräftigt werden kann. Sowohl die Suszeptibilitätsmodellierung als auch das Rutschungsinventar zeigen, dass die höchste Wahrscheinlichkeit für das Auftreten von Rutschungen vor allem in den Gebieten mit moderater Hangneigung liegt, welche mit Hangschutt bedeckt sind. Diese Hangablagerungen bestehen aus Material von alten Massenbewegungen und Erosionsprozessen und zeigen eine hohe Anfälligkeit für Rutschungen. Die Ergebnisse liefern neue Erkenntnisse über die Rutschungssituation im Chiconquiaco Gebirge, da vorher das Auftreten von Rutschungen mit den steilen Hängen aus Basalt und Andesit in Verbindung gebracht wurde. Auf Grundlage der generierten Suszeptibilitätskarte ist eine bessere Bewertung der Rutschungssituation im Untersuchungsgebiet möglich. Weiterhin zeigt sie, dass es von entscheidender Bedeutung ist, spezifische Eigenschaften der jeweiligen Untersuchungsgebiete in die Modellierung miteinzubeziehen, da sonst die Gefahr besteht, dass die örtlichen Gegebenheiten fehlerhaft eingeschätzt werden. KW - Naturgefahren KW - Landslide susceptibility modeling KW - Geomorphologie KW - Rutschungen KW - Modellierung KW - Veracruz KW - Mexiko KW - UAV KW - Digital Elevation Model KW - Hangstabilitätsmodellierung Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-276085 ER - TY - THES A1 - Schmitt, Norbert T1 - Measurement, Modeling, and Emulation of Power Consumption of Distributed Systems T1 - Messung, Modellierung und Emulation des Stromverbrauchs von verteilten Systemen N2 - Today’s cloud data centers consume an enormous amount of energy, and energy consumption will rise in the future. An estimate from 2012 found that data centers consume about 30 billion watts of power, resulting in about 263TWh of energy usage per year. The energy consumption will rise to 1929TWh until 2030. This projected rise in energy demand is fueled by a growing number of services deployed in the cloud. 50% of enterprise workloads have been migrated to the cloud in the last decade so far. Additionally, an increasing number of devices are using the cloud to provide functionalities and enable data centers to grow. Estimates say more than 75 billion IoT devices will be in use by 2025. The growing energy demand also increases the amount of CO2 emissions. Assuming a CO2-intensity of 200g CO2 per kWh will get us close to 227 billion tons of CO2. This emission is more than the emissions of all energy-producing power plants in Germany in 2020. However, data centers consume energy because they respond to service requests that are fulfilled through computing resources. Hence, it is not the users and devices that consume the energy in the data center but the software that controls the hardware. While the hardware is physically consuming energy, it is not always responsible for wasting energy. The software itself plays a vital role in reducing the energy consumption and CO2 emissions of data centers. The scenario of our thesis is, therefore, focused on software development. Nevertheless, we must first show developers that software contributes to energy consumption by providing evidence of its influence. The second step is to provide methods to assess an application’s power consumption during different phases of the development process and to allow modern DevOps and agile development methods. We, therefore, need to have an automatic selection of system-level energy-consumption models that can accommodate rapid changes in the source code and application-level models allowing developers to locate power-consuming software parts for constant improvements. Afterward, we need emulation to assess the energy efficiency before the actual deployment. N2 - Die heutigen Cloud-Rechenzentren verbrauchen eine enorme Menge an Energie, und der Energieverbrauch wird in Zukunft noch steigen. Eine Schätzung aus dem Jahr 2012 ergab, dass Rechenzentren etwa 30 Milliarden Watt Strom verbrauchen, was einem Energieverbrauch von etwa 263TWh pro Jahr entspricht. Der Energieverbrauch wird bis zum Jahr 2030 auf 1929TWh ansteigen. Dieser prognostizierte Anstieg des Energiebedarfs wird durch die wachsende Zahl der in der Cloud bereitgestellten Dienste angeheizt. In den letzten zehn Jahren wurden bereits 50% der Arbeitslasten in Unternehmen in die Cloud verlagert. Außerdem nutzen immer mehr Geräte die Cloud, um Funktionen bereitzustellen und das Wachstum von Rechenzentren zu ermöglichen. Schätzungen zufolge werden bis 2025 mehr als 75 Milliarden IoT-Geräte im Einsatz sein. Der wachsende Energiebedarf erhöht auch die Menge der CO2-Emissionen. Geht man von einer CO2-Intensität von 200g CO2 pro kWh in einem eher optimistischen Szenario aus, kommen wir auf fast 227 Milliarden Tonnen CO2. Dieser Ausstoß ist mehr CO2 als die Emissionen aller energieerzeugenden Kraftwerke in Deutschland im Jahr 2020. Rechenzentren verbrauchen jedoch Energie, weil sie auf Serviceanfragen reagieren, die durch Rechenressourcen erfüllt werden. Es sind also nicht die Benutzer und Geräte, die in einem Rechenzentrum Energie verbrauchen, sondern die Software, die die Hardware steuert. Obwohl die Hardware physisch Energie verbraucht, ist sie nicht immer für die Energieverschwendung verantwortlich. Die Software selbst spielt eine wichtige Rolle bei der Reduzierung des Energieverbrauchs und der CO2-Emissionen von Rechenzentren. Das Szenario unserer Arbeit konzentriert sich daher auf die Softwareentwicklung. Dennoch müssen wir die Entwickler zunächst darauf hinweisen, dass die Software zum Energieverbrauch beiträgt, indem wir ihren Einfluss nachweisen. Der zweite Schritt ist die Bereitstellung von Methoden zur Bewertung des Energieverbrauchs einer Anwendung in den verschiedenen Phasen des Entwicklungsprozesses, um moderne DevOps und agile Entwicklungsmethoden zu ermöglichen. Wir brauchen daher eine automatische Auswahl von Energieverbrauchsmodellen auf Systemebene, die schnelle Änderungen im Quellcode berücksichtigen können, und Modelle auf Anwendungsebene, die es den Entwicklern ermöglichen, stromverbrauchende Softwareteile für ständige Verbesserungen zu lokalisieren. Danach benötigen wir eine Emulation, um die Energieeffizienz vor dem eigentlichen Einsatz zu bewerten KW - Leistungsbedarf KW - Energieeffizienz KW - Cloud Computing KW - Rechenzentrum KW - Modellierung KW - Power Consumption KW - Energy Efficiency KW - Cloud KW - Distributed System KW - Modeling Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-276582 ER - TY - THES A1 - Lauton, Felix T1 - Three Essays on the Procurement of Essential Medicines in Developing Countries T1 - Drei Aufsätze zur Beschaffung unentbehrlicher Medikamente in Entwicklungsländern N2 - The first problem is that of the optimal volume allocation in procurement. The choice of this problem was motivated by a study whose objective was to support decision-making at two procurement organizations for the procurement of Depot Medroxyprogesterone Acetate (DMPA), an injectable contraceptive. At the time of this study, only one supplier that had undergone the costly and lengthy process of WHO pre-qualification was available to these organizations. However, a new entrant supplier was expected to receive WHO qualification within the next year, thus becoming a viable second source for DMPA procurement. When deciding how to allocate the procurement volume between the two suppliers, the buyers had to consider the impact on price as well as risk. Higher allocations to one supplier yield lower prices but expose a buyer to higher supply risks, while an even allocation will result in lower supply risk but also reduce competitive pressure, resulting in higher prices. Our research investigates this single- versus dual-sourcing problem and quantifies in one model the impact of the procurement volume on competition and risk. To support decision-makers, we develop a mathematical framework that accounts for the characteristics of donor-funded global health markets and models the effects of an entrant on purchasing costs and supply risks. Our in-depth analysis provides insights into how the optimal allocation decision is affected by various parameters and explores the trade-off between competition and supply risk. For example, we find that, even if the entrant supplier introduces longer leads times and a higher default risk, the buyer still benefits from dual sourcing. However, these risk-diversification benefits depend heavily on the entrant’s in-country registration: If the buyer can ship the entrant’s product to only a selected number of countries, the buyer does not benefit from dual sourcing as much as it would if entrant’s product could be shipped to all supplied countries. We show that the buyer should be interested in qualifying the entrant’s product in countries with high demand first. In the second problem we explore a new tendering mechanism called the postponement tender, which can be useful when buyers in the global health industry want to contract new generics suppliers with uncertain product quality. The mechanism allows a buyer to postpone part of the procurement volume’s allocation so the buyer can learn about the unknown quality before allocating the remaining volume to the best supplier in terms of both price and quality. We develop a mathematical model to capture the decision-maker’s trade-offs in setting the right split between the initial volume and the postponed volume. Our analysis shows that a buyer can benefit from this mechanism more than it can from a single-sourcing format, as it can decrease the risk of receiving poor quality (in terms of product quality and logistics performance) and even increase competitive pressure between the suppliers, thereby lowering the purchasing costs. By considering market parameters like the buyer’s size, the suppliers’ value (difference between quality and cost), quality uncertainty, and minimum order volumes, we derive optimal sourcing strategies for various market structures and explore how competition is affected by the buyer’s learning about the suppliers’ quality through the initial volume. The third problem considers the repeated procurement problem of pharmacies in Kenya that have multi-product inventories. Coordinating orders allows pharmacies to achieve lower procurement prices by using the quantity discounts manufacturers offer and sharing fixed ordering costs, such as logistics costs. However, coordinating and optimizing orders for multiple products is complex and costly. To solve the coordinated procurement problem, also known as the Joint Replenishment Problem (JRP) with quantity discounts, a novel, data-driven inventory policy using sample-average approximation is proposed. The inventory policy is developed based on renewal theory and is evaluated using real-world sales data from Kenyan pharmacies. Multiple benchmarks are used to evaluate the performance of the approach. First, it is compared to the theoretically optimal policy --- that is, a dynamic-programming policy --- in the single-product setting without quantity discounts to show that the proposed policy results in comparable inventory costs. Second, the policy is evaluated for the original multi-product setting with quantity discounts and compared to ex-post optimal costs. The evaluation shows that the policy’s performance in the multi-product setting is similar to its performance in the single-product setting (with respect to ex-post optimal costs), suggesting that the proposed policy offers a promising, data-driven solution to these types of multi-product inventory problems. N2 - Der erste Teil, welcher eine gemeinsame Arbeit mit Dr. Alexander Rothkopf und Prof. Dr. Richard Pibernik entstanden ist, ist durch eine Studie motiviert, die Entscheidungsträgern zweier Einkaufsorganisationen beim Einkauf von Depot Medroxyprogesterone Acetate (DMPA), einem länger wirkenden Verhütungsmittel, unterstützen sollte. Zum Zeitpunkt der Studie stand den Organisationen nur ein qualifizierter Lieferant zur Verfügung. Ein zweiter Zulieferer stand kurz vor der Zulassung. Ziel der Arbeit war es den Mehrwert des neuen Lieferanten zu quantifizieren und die optimale Aufteilung der Bestellmengen zwischen beiden Lieferanten zu ermitteln. Hierbei spielt die Abwägung von Preisen (getrieben durch den Wettbewerb zwischen beiden Lieferanten) und Risiko (getrieben durch unsichere Lieferzeiten und Ausfallwahrscheinlichkeiten) eine entscheidende Rolle. In unserer Arbeit zeigen wir wie sich die optimale Aufteilung anhand diverser Parameter, wie Lieferzuverlässigkeit, Kosten und Kapazität, verändert, und untersuchen die Abwägungsentscheidung zwischen Wettbewerb und Risiken. Im zweiten Teil, der ebenfalls eine gemeinsame Arbeit mit Dr. Alexander Rothkopf und Prof. Dr. Richard Pibernik ist, untersuchen wir einen innovativen Einkaufsmechanismus den wir "Postponement Tender" nennen. Das zugrundeliegende Problem ist das eines Einkäufers, welcher mit der unsicheren Qualität eines neuen Lieferanten konfrontiert ist, und der daraus resultierenden Allokationsentscheidung zwischen bestehendem und neuen Lieferanten. Anstatt alles auf einmal zu vergeben, kann der Einkäufer auch zuerst einen Teil des Volumens an beide Lieferanten vergeben, um die unsichere Qualität des neuen Lieferanten besser einzuschätzen. Nachdem die Lieferanten die ersten Volumina geliefert haben kann der Einkäufer die Qualität der Lieferanten besser beurteilen und kauft dann die nachgelagerte Menge vom besseren Lieferanten. Da die Lieferanten bereits zu Beginn Preise festlegen müssen, kann der Einkäufer durch diesen Mechanismus sowohl durch verbesserten Wettbewerb profitieren als auch von einem niedrigeren Qualitätsrisiko, da er dabei etwas über die Qualität der Lieferanten lernt. Wir zeigen in einer detaillierten Analyse wie, abhängig von Einkaufs- und Wettbewerbssituation, die Aufteilung zwischen dem ersten und dem zweiten Teil erfolgen sollte und unter welchen Bedingungen der "Postponement Tender" besser als eine klassische Einzelquellenbeschaffung ist. Der dritte Teil ist durch den Business Case kenianischer Apotheken motiviert: diese können durch die Koordination von Bestellungen niedrigere Einkaufspreise aufgrund von Mengenrabatten bei Lieferanten erzielen sowie fixe Bestellkosten wie Logistikkosten teilen. Aufgrund einer Vielzahl von Produkten ist diese Koordination allerdings sehr komplex und mit einem hohen Aufwand sowie Kosten verbunden. Um diese Hürde zu überwinden entwickle ich eine neue, datengetriebene Bestellpolitik für mehrperiodische Bestandsmanagementprobleme mit mehreren Produkten und Skaleneffekten in fixen sowie variablen Bestellkosten. Die entwickelte Politik beruht auf den Prinzipien von Erneuerungstheorie und Sample Average Approximation. Des Weiteren analysiere ich die Performance dieser Politik anhand realer Daten aus dem zugrundeliegenden Business Case. In einer ersten Auswertung zeigt sich, dass die resultierenden Kosten nah an denen der theoretisch optimalen Bestellpolitik liegen. Weiter wird gezeigt, dass sich das Verhältnis zu ex-post optimalen Kosten in Szenarien, in denen es keine theoretisch optimale Bestellpolitik gibt (mehrere Produkte und Mengenrabatte) im selben Rahmen befindet wie in Szenarien mit optimaler Bestellpolitik. Insgesamt zeigt der entwickelte Ansatz viel Potential für die Lösung komplexer Bestandsplanungsprobleme. KW - Entwicklungsländer KW - Beschaffung KW - Gesundheitswesen KW - Global Health KW - Procurement KW - Supply Chain KW - Data Driven Operations KW - Supply Chain Management KW - Einkauf KW - Modellierung KW - Operations Management Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-220631 ER - TY - THES A1 - Pirner, Marlies T1 - Kinetic modelling of gas mixtures T1 - Kinetische Modellierung von Gasgemischen N2 - This book deals with the kinetic modelling of gas mixtures. It extends the existing literature in mathematics for one species of gas to the case of gasmixtures. This is more realistic in applications. Thepresentedmodel for gas mixtures is proven to be consistentmeaning it satisfies theconservation laws, it admitsanentropy and an equilibriumstate. Furthermore, we can guarantee the existence, uniqueness and positivity of solutions. Moreover, the model is used for different applications, for example inplasma physics, for fluids with a small deviation from equilibrium and in the case of polyatomic gases. N2 - Die vorliegende Arbeit beschäftigt sich mit der Modellierung von Gasgemischen mittels einer kinetischen Beschreibung. Es werden Grundlagen über die Boltzmanngleichung für Gasgemische und die BGK-Aproximation präsentiert. Insbesondere wird auf deren Erweiterung auf Gasgemische eingegangen. Es wird ein Gasgemisch bestehend aus zwei Sorten von Gasen ohne chemische Reaktionen betrachtet. Das Gemisch wird mittels eines Systems kinetischer BGK-Gleichungen modelliert, welches je zwei Wechselwirkungsterme enthält, die den Impuls- und Energieaustausch berücksichtigen. Das hier vorgestellte Modell enthält einige von Physikern und Ingenieuren vorgeschlagene Modelle als Spezialfälle. Es wird gezeigt, dass das hier vorgeschlagene Modell die wesentlichen physikalischen Eigenschaften, wie Erhaltungseigenschaften, Positivität aller Temperaturen, das H-Theorem und Maxwellverteilungen im Gleichgewicht, erfüllt. Des Weiteren können die üblichen makroskopischen Gleichungen daraus hergeleitet werden. In der Literatur gibt es ein weiteres vorgeschlagenes Modell für Gasgemische mit nur einem Wechselwirkungsterm von Andries, Aoki und Perthame. In dieser Arbeit werden die Vorteile dieses Modells aus der Literatur und des hier vorgeschlagenen Modells diskutiert. Es wird die Nützlichkeit des hier vorgeschlagenen Modells illustriert, indem es dazu benutzt wird eine unbekannte Funktion in dem makroskopischen Modell für Gasgemische von Dellacherie herzuleiten. Des Weiteren wird für jedes dieser beiden Modelle Existenz, Eindeutigkeit und Positivität der Lösungen gezeigt. Dann wird das hier vorgeschlagene Modell auf bestimmte physikalische Situationen angewandt: auf Elektronen und Ionen in einem Plasma, auf ein Gasgemisch, welches sich nicht im Gleichgewicht befindet und ein Gasgemisch bestehend aus Molekülen mit zusätzlichen inneren Freiheitsgraden. Als erste Anwendung wird das Modell für geladene Teilchen erweitert und auf ein Gemisch aus Elektronen und Ionen angewandt, welches sich teilweise im Gleichgewicht befindet, teilweise nicht. Man findet solch eine Konstellation zum Beispiel bei der Fusion in einem Tokamak. Das Modell, welches hier vorgestellt wird, wird hier benutzt, da es die Wechselwirkungen zwischen Teilchen von der gleichen Sorte und Wechselwirkungen zwischen Teilchen verschiedener Sorten separiert. Dann wird ein neues Modell mithilfe der Mikro-Makro-Zerlegung hergeleitet, welches numerisch in einem Regime angewandt wird, in dem Gase teilweise im Gleichgewicht sind, teilweise nicht. Es werden theoretische Ergebnisse vorgestellt, zum einen Konvergenzraten gegen das Gleichgewicht im räumlich homogenen Fall, zum anderen die Landau-Dämpfung für Gasgemische, um sie mit Ergebnissen aus numerischen Simulationen vergleichen zu können. Als zweite Anwendung wird ein Gasgemisch betrachtet, welches eine Abweichung vom Gleichgewichtszustand hat und makroskopisch mithilfe der Navier-Stokes-Gleichungen beschrieben wird. In dieser makroskopischen Beschreibung erwartet man vier physikalische Größen, die das physikalische Verhalten eines Gases beschreiben, den Diffusionskoeffizienten, den Viskositätskoeffizienten, die Wärmeleitfähigkeit und den thermischen Diffusionsparameter. Es wird eine Chapman-Enskog-Entwicklung des hier vorgestellten Modells durchgeführt, um drei dieser vier physikalischen Größen zu bestimmen. Zusatzlich werden mehrere mögliche Erweiterungen zu einem ES-BGK-Modell für Gasgemische vorgeschlagen um die vierte physikalische Größe zu bestimmen. Es wird eine Erweiterung präsentiert, die möglichst einfach gehalten ist, eine intuitive Erweiterung, die den Fall einer Gassorte ähnelt und eine Erweiterung, die die physikalische Motivation des Physikers Holway, der das ES-BGK-Modell erfunden hat, berücksichtigt. Es wird gezeigt, dass die Erweiterungen die Erhaltungseigenschaften erfüllen, alle Temperaturen positiv sind und das H-Theorem erfüllt ist. Als dritte Anwendung wird das hier vorgestellte Modell zu einem Modell für Moleküle mit zusätzlichen inneren Freiheitsgraden erweitert. Die zwei Gassorten dürfen dabei eine unterschiedliche Anzahl an inneren Freiheitsgraden haben und werden beschrieben durch ein System von kinetischen ES-BGK-Gleichungen. Es wird gezeigt, dass das Modell die Erhaltungseigenschaften erfülllt, dass alle Temperaturen positiv sind und dass das H-Theorem erfüllt ist. Für numerische Zwecke wird die Chu-Reduktion angewandt um die Komplexität des Modells zu reduzieren und eine Anwendung gezeigt, bei dem eine Gassorte keine inneren Freiheitsgrade hat und die andere Sorte zwei Rotationsfreiheitsgrade besitzt. Als letztes wird der Grenzwert des hier vorgestellten Modells zu den dissipativen Eulergleichungen bewiesen. N2 - The present thesis considers the modelling of gas mixtures via a kinetic description. Fundamentals about the Boltzmann equation for gas mixtures and the BGK approximation are presented. Especially, issues in extending these models to gas mixtures are discussed. A non-reactive two component gas mixture is considered. The two species mixture is modelled by a system of kinetic BGK equations featuring two interaction terms to account for momentum and energy transfer between the two species. The model presented here contains several models from physicists and engineers as special cases. Consistency of this model is proven: conservation properties, positivity of all temperatures and the H-theorem. The form in global equilibrium as Maxwell distributions is specified. Moreover, the usual macroscopic conservation laws can be derived. In the literature, there is another type of BGK model for gas mixtures developed by Andries, Aoki and Perthame, which contains only one interaction term. In this thesis, the advantages of these two types of models are discussed and the usefulness of the model presented here is shown by using this model to determine an unknown function in the energy exchange of the macroscopic equations for gas mixtures described in the literature by Dellacherie. In addition, for each of the two models existence and uniqueness of mild solutions is shown. Moreover, positivity of classical solutions is proven. Then, the model presented here is applied to three physical applications: a plasma consisting of ions and electrons, a gas mixture which deviates from equilibrium and a gas mixture consisting of polyatomic molecules. First, the model is extended to a model for charged particles. Then, the equations of magnetohydrodynamics are derived from this model. Next, we want to apply this extended model to a mixture of ions and electrons in a special physical constellation which can be found for example in a Tokamak. The mixture is partly in equilibrium in some regions, in some regions it deviates from equilibrium. The model presented in this thesis is taken for this purpose, since it has the advantage to separate the intra and interspecies interactions. Then, a new model based on a micro-macro decomposition is proposed in order to capture the physical regime of being partly in equilibrium, partly not. Theoretical results are presented, convergence rates to equilibrium in the space-homogeneous case and the Landau damping for mixtures, in order to compare it with numerical results. Second, the model presented here is applied to a gas mixture which deviates from equilibrium such that it is described by Navier-Stokes equations on the macroscopic level. In this macroscopic description it is expected that four physical coefficients will show up, characterizing the physical behaviour of the gases, namely the diffusion coefficient, the viscosity coefficient, the heat conductivity and the thermal diffusion parameter. A Chapman-Enskog expansion of the model presented here is performed in order to capture three of these four physical coefficients. In addition, several possible extensions to an ellipsoidal statistical model for gas mixtures are proposed in order to capture the fourth coefficient. Three extensions are proposed: An extension which is as simple as possible, an intuitive extension copying the one species case and an extension which takes into account the physical motivation of the physicist Holway who invented the ellipsoidal statistical model for one species. Consistency of the extended models like conservation properties, positivity of all temperatures and the H-theorem are proven. The shape of global Maxwell distributions in equilibrium are specified. Third, the model presented here is applied to polyatomic molecules. A multi component gas mixture with translational and internal energy degrees of freedom is considered. The two species are allowed to have different degrees of freedom in internal energy and are modelled by a system of kinetic ellipsoidal statistical equations. Consistency of this model is shown: conservation properties, positivity of the temperature, H-theorem and the form of Maxwell distributions in equilibrium. For numerical purposes the Chu reduction is applied to the developed model for polyatomic gases to reduce the complexity of the model and an application for a gas consisting of a mono-atomic and a diatomic gas is given. Last, the limit from the model presented here to the dissipative Euler equations for gas mixtures is proven. KW - Polyatomare Verbindungen KW - Gasgemisch KW - Transportkoeffizient KW - Plasma KW - multi-fluid mixture KW - kinetic description of gases KW - entropy inequality KW - transport coefficients KW - Modellierung KW - well posedness KW - plasma modelling KW - polyatomic molecules KW - hydrodynamic limits Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-161077 SN - 978-3-95826-080-1 (Print) SN - 978-3-95826-081-8 (Online) N1 - Parallel erschienen als Druckausgabe in Würzburg University Press, ISBN 978-3-95826-080-1, 27,80 EUR. PB - Würzburg University Press CY - Würzburg ET - 1. Auflage ER - TY - THES A1 - Rygielski, Piotr T1 - Flexible Modeling of Data Center Networks for Capacity Management T1 - Elastische Modellierung von Rechenzentren-Netzen zwecks Kapazitätsverwaltung N2 - Nowadays, data centers are becoming increasingly dynamic due to the common adoption of virtualization technologies. Systems can scale their capacity on demand by growing and shrinking their resources dynamically based on the current load. However, the complexity and performance of modern data centers is influenced not only by the software architecture, middleware, and computing resources, but also by network virtualization, network protocols, network services, and configuration. The field of network virtualization is not as mature as server virtualization and there are multiple competing approaches and technologies. Performance modeling and prediction techniques provide a powerful tool to analyze the performance of modern data centers. However, given the wide variety of network virtualization approaches, no common approach exists for modeling and evaluating the performance of virtualized networks. The performance community has proposed multiple formalisms and models for evaluating the performance of infrastructures based on different network virtualization technologies. The existing performance models can be divided into two main categories: coarse-grained analytical models and highly-detailed simulation models. Analytical performance models are normally defined at a high level of abstraction and thus they abstract many details of the real network and therefore have limited predictive power. On the other hand, simulation models are normally focused on a selected networking technology and take into account many specific performance influencing factors, resulting in detailed models that are tightly bound to a given technology, infrastructure setup, or to a given protocol stack. Existing models are inflexible, that means, they provide a single solution method without providing means for the user to influence the solution accuracy and solution overhead. To allow for flexibility in the performance prediction, the user is required to build multiple different performance models obtaining multiple performance predictions. Each performance prediction may then have different focus, different performance metrics, prediction accuracy, and solving time. The goal of this thesis is to develop a modeling approach that does not require the user to have experience in any of the applied performance modeling formalisms. The approach offers the flexibility in the modeling and analysis by balancing between: (a) generic character and low overhead of coarse-grained analytical models, and (b) the more detailed simulation models with higher prediction accuracy. The contributions of this thesis intersect with technologies and research areas, such as: software engineering, model-driven software development, domain-specific modeling, performance modeling and prediction, networking and data center networks, network virtualization, Software-Defined Networking (SDN), Network Function Virtualization (NFV). The main contributions of this thesis compose the Descartes Network Infrastructure (DNI) approach and include: • Novel modeling abstractions for virtualized network infrastructures. This includes two meta-models that define modeling languages for modeling data center network performance. The DNI and miniDNI meta-models provide means for representing network infrastructures at two different abstraction levels. Regardless of which variant of the DNI meta-model is used, the modeling language provides generic modeling elements allowing to describe the majority of existing and future network technologies, while at the same time abstracting factors that have low influence on the overall performance. I focus on SDN and NFV as examples of modern virtualization technologies. • Network deployment meta-model—an interface between DNI and other meta- models that allows to define mapping between DNI and other descriptive models. The integration with other domain-specific models allows capturing behaviors that are not reflected in the DNI model, for example, software bottlenecks, server virtualization, and middleware overheads. • Flexible model solving with model transformations. The transformations enable solving a DNI model by transforming it into a predictive model. The model transformations vary in size and complexity depending on the amount of data abstracted in the transformation process and provided to the solver. In this thesis, I contribute six transformations that transform DNI models into various predictive models based on the following modeling formalisms: (a) OMNeT++ simulation, (b) Queueing Petri Nets (QPNs), (c) Layered Queueing Networks (LQNs). For each of these formalisms, multiple predictive models are generated (e.g., models with different level of detail): (a) two for OMNeT++, (b) two for QPNs, (c) two for LQNs. Some predictive models can be solved using multiple alternative solvers resulting in up to ten different automated solving methods for a single DNI model. • A model extraction method that supports the modeler in the modeling process by automatically prefilling the DNI model with the network traffic data. The contributed traffic profile abstraction and optimization method provides a trade-off by balancing between the size and the level of detail of the extracted profiles. • A method for selecting feasible solving methods for a DNI model. The method proposes a set of solvers based on trade-off analysis characterizing each transformation with respect to various parameters such as its specific limitations, expected prediction accuracy, expected run-time, required resources in terms of CPU and memory consumption, and scalability. • An evaluation of the approach in the context of two realistic systems. I evaluate the approach with focus on such factors like: prediction of network capacity and interface throughput, applicability, flexibility in trading-off between prediction accuracy and solving time. Despite not focusing on the maximization of the prediction accuracy, I demonstrate that in the majority of cases, the prediction error is low—up to 20% for uncalibrated models and up to 10% for calibrated models depending on the solving technique. In summary, this thesis presents the first approach to flexible run-time performance prediction in data center networks, including network based on SDN. It provides ability to flexibly balance between performance prediction accuracy and solving overhead. The approach provides the following key benefits: • It is possible to predict the impact of changes in the data center network on the performance. The changes include: changes in network topology, hardware configuration, traffic load, and applications deployment. • DNI can successfully model and predict the performance of multiple different of network infrastructures including proactive SDN scenarios. • The prediction process is flexible, that is, it provides balance between the granularity of the predictive models and the solving time. The decreased prediction accuracy is usually rewarded with savings of the solving time and consumption of resources required for solving. • The users are enabled to conduct performance analysis using multiple different prediction methods without requiring the expertise and experience in each of the modeling formalisms. The components of the DNI approach can be also applied to scenarios that are not considered in this thesis. The approach is generalizable and applicable for the following examples: (a) networks outside of data centers may be analyzed with DNI as long as the background traffic profile is known; (b) uncalibrated DNI models may serve as a basis for design-time performance analysis; (c) the method for extracting and compacting of traffic profiles may be used for other, non-network workloads as well. N2 - Durch Virtualisierung werden moderne Rechenzentren immer dynamischer. Systeme sind in der Lage ihre Kapazität hoch und runter zu skalieren , um die ankommende Last zu bedienen. Die Komplexität der modernen Systeme in Rechenzentren wird nicht nur von der Softwarearchitektur, Middleware und Rechenressourcen sondern auch von der Netzwerkvirtualisierung beeinflusst. Netzwerkvirtualisierung ist noch nicht so ausgereift wie die Virtualisierung von Rechenressourcen und es existieren derzeit unterschiedliche Netzwerkvirtualisierungstechnologien. Man kann aber keine der Technologien als Standardvirtualisierung für Netzwerke bezeichnen. Die Auswahl von Ansätzen durch Performanzanalyse von Netzwerken stellt eine Herausforderung dar, weil existierende Ansätze sich mehrheitlich auf einzelne Virtualisierungstechniken fokussieren und es keinen universellen Ansatz für Performanzanalyse gibt, der alle Techniken in Betracht nimmt. Die Forschungsgemeinschaft bietet verschiedene Performanzmodelle und Formalismen für Evaluierung der Performanz von virtualisierten Netzwerken an. Die bekannten Ansätze können in zwei Gruppen aufgegliedert werden: Grobetaillierte analytische Modelle und feindetaillierte Simulationsmodelle. Die analytischen Performanzmodelle abstrahieren viele Details und liefern daher nur beschränkt nutzbare Performanzvorhersagen. Auf der anderen Seite fokussiert sich die Gruppe der simulationsbasierenden Modelle auf bestimmte Teile des Systems (z.B. Protokoll, Typ von Switches) und ignoriert dadurch das große Bild der Systemlandschaft. ... KW - Modellierung KW - Leistungsbewertung KW - Netzwerk KW - Meta-modeling KW - Model transformation KW - Performance analysis KW - Simulation Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-146235 ER - TY - THES A1 - Hirth, Matthias Johannes Wilhem T1 - Modeling Crowdsourcing Platforms - A Use-Case Driven Approach T1 - Modellierung von Crowdsourcing-Plattformen anhand von Anwendungsfällen N2 - Computer systems have replaced human work-force in many parts of everyday life, but there still exists a large number of tasks that cannot be automated, yet. This also includes tasks, which we consider to be rather simple like the categorization of image content or subjective ratings. Traditionally, these tasks have been completed by designated employees or outsourced to specialized companies. However, recently the crowdsourcing paradigm is more and more applied to complete such human-labor intensive tasks. Crowdsourcing aims at leveraging the huge number of Internet users all around the globe, which form a potentially highly available, low-cost, and easy accessible work-force. To enable the distribution of work on a global scale, new web-based services emerged, so called crowdsourcing platforms, that act as mediator between employers posting tasks and workers completing tasks. However, the crowdsourcing approach, especially the large anonymous worker crowd, results in two types of challenges. On the one hand, there are technical challenges like the dimensioning of crowdsourcing platform infrastructure or the interconnection of crowdsourcing platforms and machine clouds to build hybrid services. On the other hand, there are conceptual challenges like identifying reliable workers or migrating traditional off-line work to the crowdsourcing environment. To tackle these challenges, this monograph analyzes and models current crowdsourcing systems to optimize crowdsourcing workflows and the underlying infrastructure. First, a categorization of crowdsourcing tasks and platforms is developed to derive generalizable properties. Based on this categorization and an exemplary analysis of a commercial crowdsourcing platform, models for different aspects of crowdsourcing platforms and crowdsourcing mechanisms are developed. A special focus is put on quality assurance mechanisms for crowdsourcing tasks, where the models are used to assess the suitability and costs of existing approaches for different types of tasks. Further, a novel quality assurance mechanism solely based on user-interactions is proposed and its feasibility is shown. The findings from the analysis of existing platforms, the derived models, and the developed quality assurance mechanisms are finally used to derive best practices for two crowdsourcing use-cases, crowdsourcing-based network measurements and crowdsourcing-based subjective user studies. These two exemplary use-cases cover aspects typical for a large range of crowdsourcing tasks and illustrated the potential benefits, but also resulting challenges when using crowdsourcing. With the ongoing digitalization and globalization of the labor markets, the crowdsourcing paradigm is expected to gain even more importance in the next years. This is already evident in the currently new emerging fields of crowdsourcing, like enterprise crowdsourcing or mobile crowdsourcing. The models developed in the monograph enable platform providers to optimize their current systems and employers to optimize their workflows to increase their commercial success. Moreover, the results help to improve the general understanding of crowdsourcing systems, a key for identifying necessary adaptions and future improvements. N2 - Computer haben menschliche Arbeitskräfte mittlerweile in vielen Bereichen des täglichen Lebens ersetzt. Dennoch gibt es immer noch eine große Anzahl von Aufgaben, die derzeit nicht oder nur teilweise automatisierbar sind. Hierzu gehören auch solche, welche als sehr einfach erachtet werden, beispielsweise das Kategorisieren von Bildinhalten oder subjektive Bewertungen. Traditionell wurden diese Aufgaben vorwiegend von eigens angestellten Mitarbeitern oder über Outsourcing gelöst. In den vergangenen Jahren wurde hierfür jedoch immer häufiger Crowdsourcing verwendet, wobei die große Anzahl an weltweiten Internetnutzern als hoch verfügbare, kostengünstige und einfach zu erreichende Arbeiterschaft eingesetzt wird. Um eine weltweite Verteilung von Arbeit zu ermöglichen hat sich eine neue Art von Internetdienstleistern entwickelt, die sogenannten Crowdsourcingplattformen. Diese dienen als Vermittler zwischen Arbeitgebern, welche Aufgaben auf den Plattformen einstellen und Arbeitnehmer, welche diese Aufgaben bearbeiten. Hierbei ergeben sich zwei Arten von Herausforderungen. Einerseits entstehen Herausforderungen technischer Art, wie etwa Fragen bezüglich der Dimensionierung der Plattforminfrastruktur oder der Realisierung von Programmierschnittstellen zur Verbindung von Crowdsourcingplattformen mit anderen Cloudanbietern. Andererseits ergeben sich konzeptionelle Herausforderungen, wie etwa die Identifikation vertrauenswürdiger Arbeitnehmer oder Methoden zur Migration von traditionellen Arbeitsaufgaben in Crowdsourcing-basierte Arbeit. In diesem Monograph werden beide Arten von Herausforderungen adressiert. Hierzu werden aktuelle Crowdsourcingsysteme analysiert und modelliert, um basieren auf den gewonnenen Erkenntnissen, Arbeitsabläufe im Crowdsourcing und die den Systemen zu Grunde liegende Infrastruktur zu optimieren. Zunächst wird hierfür eine Kategorisierung von Crowdsourcing Aufgaben und Plattformen entwickelt um generalisierbare Eigenschaften abzuleiten. Basierend auf dieser Kategorisierung und einer beispielhaften Analyse einer kommerziellen Crowdsourcingplattform werden Modelle entwickelt, die verschiedene Aspekte der Plattformen sowie der eingesetzten Mechanismen abbilden. Hierbei wird ein besonderer Fokus auf die Verlässlichkeit von Qualitätssicherungsmechanismen, deren Kosten und Einsetzbarkeit für verschiedene Aufgabentypen gelegt. Ferner wird ein neuer Qualitätssicherungsmechanismus vorgestellt und evaluiert, welcher lediglich auf den Interaktionen der Crowdsourcingarbeitnehmer mit der Nutzeroberfläche basiert. Die Erkenntnisse, aus der Analyse existierender Plattformen, den abgeleiteten Modellen und dem entwickelten Qualitätssicherungsmechanismus fließen schließlich in konkrete Designempfehlungen für zwei exemplarische Crowdsourcinganwendungsfälle ein. Die beiden gewählten Anwendungsfälle decken Aspekte einer Vielzahl von Crowdsourcingaufgaben ab und zeigen sowohl die Vorteile als auch die Herausforderungen beim Einsatz von Crowdsourcing. Aufgrund der zunehmenden Digitalisierung und Globalisierung des Arbeitsmarkes ist es zu erwarten, dass Crowdsourcing in den nächsten Jahren noch weiter an Bedeutung gewinnt. Dies zeigt sich bereits daran, dass Crowdsourcingansätze mittlerweile vermehrt in Unternehmen oder im mobilen Umfeld eingesetzt werden. Die Modelle aus diesem Monograph, ermöglichen Plattformbetreibern eine Optimierung ihrer Systeme und Arbeitgebern eine Optimierung ihrer Arbeitsabläufe. Weiterhin helfen die gewonnenen Erkenntnisse das prinzipielle Verständnis von Crowdsourcingsystemen zu verbessern, was wiederum eine Grundvoraussetzung für das Erkennen von Anpassungsbedarf und Optimierungspotential ist. T3 - Würzburger Beiträge zur Leistungsbewertung Verteilter Systeme - 02/16 KW - Open Innovation KW - Leistungsbewertung KW - Optimiertung KW - Modellierung KW - Studie KW - Crowdsourcing KW - Quality of Experience KW - Modelling KW - Performance Evaluation KW - Optimization KW - Modellierung KW - Nutzerstudie KW - Crowdsourcing Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-140726 SN - 1432-8801 ER - TY - THES A1 - Zeeshan [geb. Majeed], Saman T1 - Implementation of Bioinformatics Methods for miRNA and Metabolic Modelling T1 - Die Umsetzung der Bioinformatik-Methoden für miRNA-und der Metabolischen Modellierung N2 - Dynamic interactions and their changes are at the forefront of current research in bioinformatics and systems biology. This thesis focusses on two particular dynamic aspects of cellular adaptation: miRNA and metabolites. miRNAs have an established role in hematopoiesis and megakaryocytopoiesis, and platelet miRNAs have potential as tools for understanding basic mechanisms of platelet function. The thesis highlights the possible role of miRNAs in regulating protein translation in platelet lifespan with relevance to platelet apoptosis and identifying involved pathways and potential key regulatory molecules. Furthermore, corresponding miRNA/target mRNAs in murine platelets are identified. Moreover, key miRNAs involved in aortic aneurysm are predicted by similar techniques. The clinical relevance of miRNAs as biomarkers, targets, resulting later translational therapeutics, and tissue specific restrictors of genes expression in cardiovascular diseases is also discussed. In a second part of thesis we highlight the importance of scientific software solution development in metabolic modelling and how it can be helpful in bioinformatics tool development along with software feature analysis such as performed on metabolic flux analysis applications. We proposed the “Butterfly” approach to implement efficiently scientific software programming. Using this approach, software applications were developed for quantitative Metabolic Flux Analysis and efficient Mass Isotopomer Distribution Analysis (MIDA) in metabolic modelling as well as for data management. “LS-MIDA” allows easy and efficient MIDA analysis and, with a more powerful algorithm and database, the software “Isotopo” allows efficient analysis of metabolic flows, for instance in pathogenic bacteria (Salmonella, Listeria). All three approaches have been published (see Appendices). N2 - Dynamische Wechselwirkungen und deren Veränderungen sind wichtige Themen der aktuellen Forschung in Bioinformatik und Systembiologie. Diese Promotionsarbeit konzentriert sich auf zwei besonders dynamische Aspekte der zellulären Anpassung: miRNA und Metabolite. miRNAs spielen eine wichtige Rolle in der Hämatopoese und Megakaryozytopoese, und die Thrombozyten miRNAs helfen uns, grundlegende Mechanismen der Thrombozytenfunktion besser zu verstehen. Die Arbeit analysiert die potentielle Rolle von miRNAs bei der Proteintranslation, der Thrombozytenlebensdauer sowie der Apoptose von Thrombozyten und ermöglichte die Identifizierung von beteiligten Signalwegen und möglicher regulatorischer Schlüsselmoleküle. Darüber hinaus wurden entsprechende miRNA / Ziel-mRNAs in murinen Thrombozyten systematisch gesammelt. Zudem wurden wichtige miRNAs, die am Aortenaneurysma beteiligt sein könnten, durch ähnliche Techniken vorhergesagt. Die klinische Relevanz von miRNAs als Biomarker, und resultierende potentielle Therapeutika, etwa über eine gewebsspezifische Beeinflussung der Genexpression bei Herz-Kreislauf Erkrankungen wird ebenfalls diskutiert. In einem zweiten Teil der Dissertation wird die Bedeutung der Entwicklung wissenschaftlicher Softwarelösungen für die Stoffwechselmodellierung aufgezeigt, mit einer Software-Feature-Analyse wurden verschiedene Softwarelösungen in der Bioinformatik verglichen. Wir vorgeschlagen dann den "Butterfly"-Ansatz, um effiziente wissenschaftliche Software-Programmierung zu implementieren. Mit diesem Ansatz wurden für die quantitative Stoffflussanalyse mit Isotopomeren effiziente Software-Anwendungen und ihre Datenverwaltung entwickelt: LS-MIDA ermöglicht eine einfache und effiziente Analyse, die Software "Isotopo" ermöglicht mit einem leistungsfähigeren Algorithmus und einer Datenbank, eine noch effizientere Analyse von Stoffwechselflüssen, zum Beispiel in pathogenen Bakterien (Salmonellen, Listerien). Alle drei Ansätze wurden bereits veröffentlicht (siehe Appendix). KW - miRNS KW - Bioinformatics KW - miRNA KW - Metabolic Modelling KW - Spectral Data Analysis KW - Butterfly KW - Thrombozyt KW - Bioinformatik KW - Stoffwechsel KW - Modellierung KW - Metabolischen Modellierung Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-102900 ER - TY - THES A1 - Fritsch, Sebastian T1 - Spatial and temporal patterns of crop yield and marginal land in the Aral Sea Basin: derivation by combining multi-scale and multi-temporal remote sensing data with alight use efficiency model T1 - Räumliche und zeitliche Muster von Erntemengen und marginalem Land im Aralseebecken: Erfassung durch die Kombination von multiskaligen und multitemporalen Fernerkundungsdaten mit einem Lichtnutzungseffizienzmodell N2 - Irrigated agriculture in the Khorezm region in the arid inner Aral Sea Basin faces enormous challenges due to a legacy of cotton monoculture and non-sustainable water use. Regional crop growth monitoring and yield estimation continuously gain in importance, especially with regard to climate change and food security issues. Remote sensing is the ideal tool for regional-scale analysis, especially in regions where ground-truth data collection is difficult and data availability is scarce. New satellite systems promise higher spatial and temporal resolutions. So-called light use efficiency (LUE) models are based on the fraction of photosynthetic active radiation absorbed by vegetation (FPAR), a biophysical parameter that can be derived from satellite measurements. The general objective of this thesis was to use satellite data, in conjunction with an adapted LUE model, for inferring crop yield of cotton and rice at field (6.5 m) and regional (250 m) scale for multiple years (2003-2009), in order to assess crop yield variations in the study area. Intensive field measurements of FPAR were conducted in the Khorezm region during the growing season 2009. RapidEye imagery was acquired approximately bi-weekly during this time. The normalized difference vegetation index (NDVI) was calculated for all images. Linear regression between image-based NDVI and field-based FPAR was conducted. The analyses resulted in high correlations, and the resulting regression equations were used to generate time series of FPAR at the RapidEye level. RapidEye-based FPAR was subsequently aggregated to the MODIS scale and used to validate the existing MODIS FPAR product. This step was carried out to evaluate the applicability of MODIS FPAR for regional vegetation monitoring. The validation revealed that the MODIS product generally overestimates RapidEye FPAR by about 6 to 15 %. Mixture of crop types was found to be a problem at the 1 km scale, but less severe at the 250 m scale. Consequently, high resolution FPAR was used to calibrate 8-day, 250 m MODIS NDVI data, this time by linear regression of RapidEye-based FPAR against MODIS-based NDVI. The established FPAR datasets, for both RapidEye and MODIS, were subsequently assimilated into a LUE model as the driving variable. This model operated at both satellite scales, and both required an estimation of further parameters like the photosynthetic active radiation (PAR) or the actual light use efficiency (LUEact). The latter is influenced by crop stress factors like temperature or water stress, which were taken account of in the model. Water stress was especially important, and calculated via the ratio of the actual (ETact) to the potential, crop-specific evapotranspiration (ETc). Results showed that water stress typically occurred between the beginning of May and mid-September and beginning of May and end of July for cotton and rice crops, respectively. The mean water stress showed only minor differences between years. Exceptions occurred in 2008 and 2009, where the mean water stress was higher and lower, respectively. In 2008, this was likely caused by generally reduced water availability in the whole region. Model estimations were evaluated using field-based harvest information (RapidEye) and statistical information at district level (MODIS). The results showed that the model at both the RapidEye and the MODIS scale can estimate regional crop yield with acceptable accuracy. The RMSE for the RapidEye scale amounted to 29.1 % for cotton and 30.4 % for rice, respectively. At the MODIS scale, depending on the year and evaluated at Oblast level, the RMSE ranged from 10.5 % to 23.8 % for cotton and from -0.4 % to -19.4 % for rice. Altogether, the RapidEye scale model slightly underestimated cotton (bias = 0.22) and rice yield (bias = 0.11). The MODIS-scale model, on the other hand, also underestimated official rice yield (bias from 0.01 to 0.87), but overestimated official cotton yield (bias from -0.28 to -0.6). Evaluation of the MODIS scale revealed that predictions were very accurate for some districts, but less for others. The produced crop yield maps indicated that crop yield generally decreases with distance to the river. The lowest yields can be found in the southern districts, close to the desert. From a temporal point of view, there were areas characterized by low crop yields over the span of the seven years investigated. The study at hand showed that light use efficiency-based modeling, based on remote sensing data, is a viable way for regional crop yield prediction. The found accuracies were good within the boundaries of related research. From a methodological viewpoint, the work carried out made several improvements to the existing LUE models reported in the literature, e.g. the calibration of FPAR for the study region using in situ and high resolution RapidEye imagery and the incorporation of crop-specific water stress in the calculation. N2 - Die vorliegende Arbeit beschäftigt sich mit der Modellierung regionaler Erntemengen von Baumwolle und Reis in der usbekischen Region Khorezm, einem Bewässerungsgebiet das geprägt ist von langjähriger Baumwoll-Monokultur und nicht-nachhaltiger Land- und Wassernutzung. Basis für die Methodik waren Satellitendaten, die durch ihre großflächige Abdeckung und Objektivität einen enormen Vorteil in solch datenarmen und schwer zugänglichen Regionen darstellen. Bei dem verwendeten Modell handelt es sich um ein sog. Lichtnutzungseffizienz-Modell (im Englischen Light Use Efficiency [LUE] Model), das auf dem Anteil der photosynthetisch aktiven Strahlung basiert, welcher von Pflanzen für das Wachstum aufgenommen wird (Fraction of Photosynthetic Active Radiation, FPAR). Dieser Parameter kann aus Satellitendaten abgeleitet werden. Das allgemeine Ziel der vorliegenden Arbeit war die Nutzung von Satellitendaten für die Ableitung der Erntemengen von Baumwolle und Reis. Dazu wurde ein Modell entwickelt, das sowohl auf der Feldebene (Auflösung von 6,5 m) als auch auf der regionalen Ebene (Auflösung von 250 m) operieren kann. Während die Ableitung der Erntemengen auf der Feldebene nur für ein Jahr erfolgte (2009), wurden sie auf der regionalen Ebene für den Zeitraum 2003 bis 2009 modelliert. Intensive Feldmessungen von FPAR wurden im Studiengebiet während der Wachstumssaison 2009 durchgeführt. Parallel dazu wurden RapidEye-Daten in ca. zweiwöchentlichem Abstand aufgezeichnet. Aus den RapidEye-Daten wurde der Normalized Difference Vegetation Index (NDVI) berechnet, der anschließend mit den im Feld gemessenen FPAR-Werten korreliert wurde. Die entstandenen Regressionsgleichungen wurden benutzt um Zeitserien von FPAR auf RapidEye-Niveau zu erstellen. Anschließend wurden diese Zeitserien auf die MODIS-Skala aggregiert um damit das MODIS FPAR-Produkt zu validieren (1 km), bzw. eine Kalibrierung des 8-tägigen 250 m NDVI-Datensatzes vorzunehmen. Der erste Schritt zeigte dass das MODIS-Produkt im Allgemeinen die RapidEye-basierten FPAR-Werte um 6 bis 15 % überschätzt. Aufgrund der besseren Auflösung wurde das kalibrierte 250 m FPAR-Produkt für die weitere Modellierung verwendet. Für die eigentliche Modellierung wurden neben den FPAR-Eingangsdaten noch weitere Daten und Parameter benötigt. Dazu gehörte z.B. die tatsächliche Lichtnutzungseffizienz (LUEact), welche von Temperatur- und Wasserstress beeinflusst wird. Wasserstress wurde berechnet aus dem Verhältnis von tatsächlicher (ETact) zu potentieller, feldfruchtspezifischer Evapotranspiration (ETc), die beide aus einer Kombination von Satelliten- und Wetterdaten abgeleitet wurden. Der durchschnittliche Wasserstress schwankte nur geringfügig von Jahr zu Jahr, mit Ausnahmen in den Jahren 2008 und 2009. Die Modellschätzungen wurden durch feldbasierte Ernteinformationen (RapidEye-Ebene) sowie regionale statistische Daten (MODIS-Ebene) evaluiert. Die Ergebnisse zeigten, dass beide Modellskalen regionale Ernteerträge mit guter Genauigkeit nachbilden können. Der Fehler für das RapidEye-basierte Modell betrug 29,1 % für Baumwolle und 30,4 % für Reis. Die Genauigkeiten für das MODIS-basierte Modell variierten, in Abhängigkeit des betrachteten Jahres, zwischen 10,5 % und 23,8 % für Baumwolle und zwischen -0,4 % und -19,4 % für Reis. Insgesamt gab es eine leichte Unterschätzung der Baumwoll- (Bias = 0,22) und Reisernte (Bias = 0,11) seitens des RapidEye-Modells. Das MODIS-Modell hingegen unterschätzte zwar auch die (offizielle) Reisernte (mit einem Bias zwischen 0,01 und 0,87), überschätzte jedoch die offiziellen Erntemengen für die Baumwolle (Bias zwischen -0,28 und -0,6). Die Evaluierung der MODIS-Skala zeigte dass die Genauigkeiten extrem zwischen den verschiedenen Distrikten schwankten. Die erstellten Erntekarten zeigten dass Erntemengen grundsätzlich mit der Distanz zum Fluss abnehmen. Die niedrigsten Erntemengen traten in den südlichsten Distrikten auf, in der Nähe der Wüste. Betrachtet man die Ergebnisse schließlich über die Zeit hinweg, gab es Gebiete die über den gesamten Zeitraum von sieben Jahren stets von niedrigen Erntemengen gekennzeichnet waren. Die vorliegende Studie zeigt, dass satellitenbasierte Lichtnutzungseffizienzmodelle ein geeignetes Werkzeug für die Ableitung und die Analyse regionaler Erntemengen in zentralasiatischen Bewässerungsregionen darstellen. Verglichen mit verwandten Studien stellten sich die ermittelten Genauigkeiten sowohl auf der RapidEye- als auch auf der MODIS-Skala als gut dar. Vom methodischen Standpunkt aus gesehen ergänzte diese Arbeit vorhanden LUE-Modelle um einige Neuerungen und Verbesserungen, wie z.B. die Validierung und Kalibrierung von FPAR für die Studienregion mittels Feld- und hochaufgelösten RapidEye-Daten und dem Einbezug von feldfrucht-spezifischem Wasserstress in die Modellierung. KW - Fernerkundung KW - Modellierung KW - Ernte KW - Baumwollpflanze KW - Reis KW - Satellit KW - Erdbeobachtung KW - remote sensing KW - crop yield KW - modeling KW - light use efficiency KW - irrigation Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-87939 ER - TY - THES A1 - Cord, Anna T1 - Potential of multi-temporal remote sensing data for modeling tree species distributions and species richness in Mexico T1 - Eignung multi-temporaler Fernerkundungsdaten für die Modellierung von Artverbreitungsgebieten und Diversität von Baumarten in Mexiko N2 - Current changes of biodiversity result almost exclusively from human activities. This anthropogenic conversion of natural ecosystems during the last decades has led to the so-called ‘biodiversity crisis’, which comprises the loss of species as well as changes in the global distribution patterns of organisms. Species richness is unevenly distributed worldwide. Altogether, 17 so-called ‘megadiverse’ nations cover less than 10% of the earth’s land surface but support nearly 70% of global species richness. Mexico, the study area of this thesis, is one of those countries. However, due to Mexico’s large extent and geographical complexity, it is impossible to conduct reliable and spatially explicit assessments of species distribution ranges based on these collection data and field work alone. In the last two decades, Species distribution models (SDMs) have been established as important tools for extrapolating such in situ observations. SDMs analyze empirical correlations between geo-referenced species occurrence data and environmental variables to obtain spatially explicit surfaces indicating the probability of species occurrence. Remote sensing can provide such variables which describe biophysical land surface characteristics with high effective spatial resolutions. Especially during the last three to five years, the number of studies making use of remote sensing data for modeling species distributions has therefore multiplied. Due to the novelty of this field of research, the published literature consists mostly of selective case studies. A systematic framework for modeling species distributions by means of remote sensing is still missing. This research gap was taken up by this thesis and specific studies were designed which addressed the combination of climate and remote sensing data in SDMs, the suitability of continuous remote sensing variables in comparison with categorical land cover classification data, the criteria for selecting appropriate remote sensing data depending on species characteristics, and the effects of inter-annual variability in remotely sensed time series on the performance of species distribution models. The corresponding novel analyses were conducted with the Maximum Entropy algorithm developed by Phillips et al. (2004). In this thesis, a more comprehensive set of remote sensing predictors than in the existing literature was utilized for species distribution modeling. The products were selected based on their ecological relevance for characterizing species distributions. Two 1 km Terra-MODIS Land 16-day composite standard products including the Enhanced Vegetation Index (EVI), Reflectance Data, and Land Surface Temperature (LST) were assembled into enhanced time series for the time period of 2001 to 2009. These high-dimensional time series data were then transformed into 18 phenological and 35 statistical metrics that were selected based on an extensive literature review. Spatial distributions of twelve tree species were modeled in a hierarchical framework which integrated climate (WorldClim) and MODIS remote sensing data. The species are representative of the major Mexican forest types and cover a variety of ecological traits, such as range size and biotope specificity. Trees were selected because they have a high probability of detection in the field and since mapping vegetation has a long tradition in remote sensing. The result of this thesis showed that the integration of remote sensing data into species distribution models has a significant potential for improving and both spatial detail and accuracy of the model predictions. N2 - Sämtliche aktuell zu beobachtenden Veränderungen in der Biodiversität lassen sich fast ausschließlich auf menschliche Aktivitäten zurückführen. In den letzten Jahrzehnten hat insbesondere die anthropogene Umwandlung bisher unberührter, natürlicher Ökosysteme zur sogenannten ‚Biodiversitätskrise‘ geführt. Diese umfasst nicht nur das Aussterben von Arten, sondern auch räumliche Verschiebungen in deren Verbreitungsgebieten. Global gesehen ist der Artenreichtum ungleich verteilt. Nur insgesamt 17 sogenannte ‚megadiverse‘ Länder, welche 10% der globalen Landoberfläche umfassen, beherbergen fast 70% der weltweiten Artenvielfalt. Mexiko, das Studiengebiet dieser Arbeit, ist eine dieser außerordentlich artenreichen Nationen. Aufgrund seiner großen Ausdehnung und geographischen Komplexität kann eine verlässliche und detaillierte räumliche Erfassung von Artverbreitungsgebieten in Mexiko jedoch nicht nur auf Basis dieser Datenbanken sowie von Feldarbeiten erfolgen. In den letzten beiden Jahrzehnten haben sich Artverbreitungsmodelle (Species distribution models, SDMs) als wichtige Werkzeuge für die räumliche Interpolation solcher in situ Beobachtungen in der Ökologie etabliert. Artverbreitungsmodelle umfassen die Analyse empirischer Zusammenhänge zwischen georeferenzierten Fundpunkten einer Art und Umweltvariablen mit dem Ziel, räumlich kontinuierliche Vorhersagen zur Wahrscheinlichkeit des Vorkommens der jeweiligen Art zu treffen. Mittels Fernerkundung können Umweltvariablen mit Bezug zu den biophysikalischen Eigenschaften der Landoberfläche in hohen effektiven räumlichen Auflösungen bereitgestellt werden. Insbesondere in den letzten drei bis fünf Jahren ist daher die Verwendung von Fernerkundungsdaten in der Artverbreitungsmodellierung sprunghaft angestiegen. Da es sich hierbei jedoch immer noch um ein sehr neues Forschungsfeld handelt, stellen diese meist nur Einzelstudien mit Beispielcharakter dar. Eine systematische Untersuchung zur Modellierung von Artverbreitungsgebieten mit Hilfe von Fernerkundungsdaten fehlt bisher. Diese Forschungslücke wurde in der vorliegenden Arbeit aufgegriffen. Hierzu wurden spezifische Untersuchungen durchgeführt, welche insbesondere folgende Aspekte betrachteten: die sinnvolle Verknüpfung von Klima- und Fernerkundungsdaten im Rahmen von Artverbreitungsmodellen, den quantitativen Vergleich von kontinuierlichen Fernerkundungsdaten und einer bestehenden kategorialen Landbedeckungsklassifikation, die Identifizierung von Kriterien zur Auswahl geeigneter Fernerkundungsprodukte, welche die Eigenschaften der Studienarten berücksichtigen, sowie der Einfluss inter-annueller Variabilität in fernerkundlichen Zeitreihen auf die Ergebnisse und Leistungsfähigkeit von Artverbreitungsmodellen. Die entsprechenden neuen Analysen wurden mit Hilfe des von Phillips et al. (2004) entwickelten Maximum Entropy Algorithmus zur Artverbreitungsmodellierung durchgeführt. Im Rahmen dieser Arbeit wurde ein umfangreicherer Datensatz an Fernerkundungsvariablen als in der bisherigen Literatur verwendet. Die entsprechenden Fernerkundungsprodukte wurden spezifisch aufgrund ihrer Eignung für die Beschreibung ökologisch relevanter Parameter, die sich auf die Verbreitungsgebiete von Arten auswirken, ausgewählt. Für den Zeitraum von 2001 bis 2009 wurden zwei Terra-MODIS Standardprodukte mit 1 km räumlicher und 16-tägiger zeitlicher Auflösung zu geglätteten, kontinuierlichen Zeitreihen zusammengefügt. Diese Produkte beinhalten den verbesserten Vegetationsindex (Enhanced Vegetation Index, EVI), Reflexionsgrade und die Landoberflächentemperatur (Land Surface Temperature, LST). Diese hochdimensionalen Zeitreihendaten wurden in insgesamt 18 phänologische sowie 35 statistische Maßzahlen überführt, welche auf der Basis einer umfassenden Sichtung der vorhandenen Literatur zusammengestellt wurden. Die Verbreitungsgebiete von zwölf Baumarten wurden mit Hilfe eines hierarchisch aufgebauten Ansatzes, welcher sowohl Klimadaten (WorldClim) als auch Fernerkundungsdaten des MODIS-Sensors berücksichtigt, modelliert. Die Studienarten sind repräsentativ für die in Mexiko vorkommenden Waldtypen und decken eine breite Spannweite ökologischer Eigenschaften wie Größe des Verbreitungsgebietes und Breite der ökologischen Nische ab. Als Studienobjekte wurden Bäume ausgewählt, weil sie im Feld mit hoher Wahrscheinlichkeit richtig erfasst werden und außerdem die fernerkundungsbasierte Kartierung von Vegetation bereits auf eine Vielzahl an Studien zurückgreifen kann. Durch die im Rahmen dieser Dissertation durchgeführten Untersuchungen konnte gezeigt werden, dass die Integration von Fernerkundungsdaten in Artverbreitungsmodelle ein signifikantes Potential zur Verbesserung der räumlichen Detailgenauigkeit und der Güte der Modellvorhersagen bietet. KW - Fernerkundung KW - Biodiversität KW - Landnutzung KW - Zeitreihenanalyse KW - Mexiko KW - Artverbreitungsmodellierung KW - Maximum Entropy Algorithmus KW - MODIS KW - Modellierung KW - Remote sensing KW - Species distribution modeling KW - Maximum Entropy algorithm KW - MODIS KW - Mexico Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-71021 ER - TY - THES A1 - Zinner, Thomas T1 - Performance Modeling of QoE-Aware Multipath Video Transmission in the Future Internet T1 - Leistungsmodellierung einer Mehrpfad Video Übertragung im zukünftigen Internet unter Berücksichtigung der QoE N2 - Internet applications are becoming more and more flexible to support diverge user demands and network conditions. This is reflected by technical concepts, which provide new adaptation mechanisms to allow fine grained adjustment of the application quality and the corresponding bandwidth requirements. For the case of video streaming, the scalable video codec H.264/SVC allows the flexible adaptation of frame rate, video resolution and image quality with respect to the available network resources. In order to guarantee a good user-perceived quality (Quality of Experience, QoE) it is necessary to adjust and optimize the video quality accurately. But not only have the applications of the current Internet changed. Within network and transport, new technologies evolved during the last years providing a more flexible and efficient usage of data transport and network resources. One of the most promising technologies is Network Virtualization (NV) which is seen as an enabler to overcome the ossification of the Internet stack. It provides means to simultaneously operate multiple logical networks which allow for example application-specific addressing, naming and routing, or their individual resource management. New transport mechanisms like multipath transmission on the network and transport layer aim at an efficient usage of available transport resources. However, the simultaneous transmission of data via heterogeneous transport paths and communication technologies inevitably introduces packet reordering. Additional mechanisms and buffers are required to restore the correct packet order and thus to prevent a disturbance of the data transport. A proper buffer dimensioning as well as the classification of the impact of varying path characteristics like bandwidth and delay require appropriate evaluation methods. Additionally, for a path selection mechanism real time evaluation mechanisms are needed. A better application-network interaction and the corresponding exchange of information enable an efficient adaptation of the application to the network conditions and vice versa. This PhD thesis analyzes a video streaming architecture utilizing multipath transmission and scalable video coding and develops the following optimization possibilities and results: Analysis and dimensioning methods for multipath transmission, quantification of the adaptation possibilities to the current network conditions with respect to the QoE for H.264/SVC, and evaluation and optimization of a future video streaming architecture, which allows a better interaction of application and network. N2 - Die Applikationen im Internet passen sich immer besser an unterschiedliche Anforderungen der Nutzer und variierende Netzwerkbedingungen an. Neue Mechanismen ermöglichen die zielgerichtete Anpassung der Anwendungsqualität und damit der benötigten Bandbreite. Im Falle von Videostreaming ermöglicht der skalierbare Videocodec H.264/SVC, die flexible Veränderung der Bildwiederholungsrate, der Auflösung des Videos und der Bildqualität an die vorhandenen Ressourcen im Netzwerk. Um eine gute vom Nutzer erfahrene Dienstgüte (Quality of Experience, QoE) zu garantieren, muss die Videoqualität richtig angepasst und optimiert werden. Aber nicht nur die Anwendungen des heutigen Internets haben sich verändert. Gerade in den letzten Jahren entstanden neue Netzwerk- und Transporttechnologien, welche eine flexiblere und effizientere Nutzung der Kommunikationsnetze erlauben. Eine dieser Techniken ist die Virtualisierung von Netzwerken. Sie erlaubt es auf einem gemeinsamen physikalischen Netz verschiedene logische Netze zu betreiben, die zum Beispiel Anwendungs-abhängige Adressierung unterstützen, eigene Namensgebung erlauben oder ein individuelles Ressourcen Management ermöglichen. Neuartige Transportmechanismen wie Mehrpfadübertragung auf Netzwerk- und Transportebene des ISO/OSI Stacks streben eine effiziente Ausnutzung der zur Verfügung stehenden Übertragungsmöglichkeiten an. Doch die simultane Übertragung von Daten über heterogene Kommunikationspfade und –technologien führt unausweichlich zu einer Veränderung der Reihenfolge, in der die Pakete ankommen. Es werden zusätzliche Mechanismen und Puffer benötigt, um die ursprüngliche Paketreihenfolge wieder herzustellen und so einen störenden Einfluss auf den Datentransport zu verhindern. Die richtige Dimensionierung dieser Puffer sowie die Klassifizierung des Einflusses von variierenden Pfadparametern wie Bandbreite und Verzögerungen setzen passende Evaluierungsmethoden voraus. Darüber hinaus werden für die Auswahl von geeigneten Pfaden aus einer Menge vorhandener Pfade echtzeitfähige Bewertungsmechanismen benötigt. Eine bessere Interaktion zwischen Applikationen und Netzwerk und der damit verbundene Informationsaustausch ermöglicht die effiziente Anpassung der Applikationsqualität an das Netzwerk und umgekehrt. Diese Doktorarbeit analysiert eine auf Mehrpfadübertragung und skalierbarer Videokodierung basierende Videostreaming Architektur und erarbeitet die folgenden Optimierungsmöglichkeiten und Auswertungen: Analyse- und Dimensionierungsmethoden für Mehrpfadübertragung, Quantifizierung der Anpassungsmöglichkeiten von SVC an das Netzwerk unter Berücksichtigung der QoE und Evaluierung und Optimierung einer zukünftigen Videostreaming Architektur, welche eine stärkere Interaktion zwischen Applikation und Netzwerk ermöglicht. T3 - Würzburger Beiträge zur Leistungsbewertung Verteilter Systeme - 03/12 KW - Videoübertragung KW - H.264 SVC KW - Modellierung KW - Quality-of-Experience KW - Mehrpfadübertragung KW - Multipath Transmission KW - Video Streaming KW - H.264/SVC KW - QoE KW - Performance Modeling Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-72324 ER - TY - THES A1 - Paxian, Andreas T1 - Future changes in climate means and extremes in the Mediterranean region deduced from a regional climate model T1 - Zukünftige Veränderungen von Klimamittelwerten und -extremwerten im Mittelmeerraum abgeleitet von einem regionalen Klimamodell N2 - The Mediterranean area reveals a strong vulnerability to future climate change due to a high exposure to projected impacts and a low capacity for adaptation highlighting the need for robust regional or local climate change projections, especially for extreme events strongly affecting the Mediterranean environment. The prevailing study investigates two major topics of the Mediterranean climate variability: the analysis of dynamical downscaling of present-day and future temperature and precipitation means and extremes from global to regional scale and the comprehensive investigation of temperature and rainfall extremes including the estimation of uncertainties and the comparison of different statistical methods for precipitation extremes. For these investigations, several observational datasets of CRU, E-OBS and original stations are used as well as ensemble simulations of the regional climate model REMO driven by the coupled global general circulation model ECHAM5/MPI-OM and applying future greenhouse gas (GHG) emission and land degradation scenarios. N2 - Der Mittelmeerraum weist eine starke Vulnerabilität gegenüber dem zukünftigen Klimawandel auf, da für diese Region starke klimatische Auswirkungen vorhergesagt werden, aber nur eine geringe Anpassungsfähigkeit besteht. Daher werden präzise Vorhersagen des regionalen oder lokalen Klimawandels benötigt, v.a. für Extremereignisse, welche den Mittelmeer-Lebensraum stark beeinträchtigen. Die vorliegende Studie untersucht zwei Hauptaspekte der Klimavariabilität im Mittelmeerraum: Zum Einen wird das dynamische Downscaling gegenwärtiger und zukünftiger Mittelwerte und Extremereignisse von Temperatur und Niederschlag von der globalen zur regionalen Skala analysiert. Zum Anderen wird eine umfassende Untersuchung von Temperatur- und Niederschlagsextremen samt Unsicherheitsabschätzung und Vergleich unterschiedlicher statistischer Methoden zur Bestimmung von Niederschlagsextremen durchgeführt. Für diese Untersuchungen stehen verschiedene Beobachtungsdaten von CRU, E-OBS und Messstationen sowie Ensemble-Simulationen des regionalen Klimamodells REMO zur Verfügung, das vom gekoppelten globalen “General Circulation Model” ECHAM5/MPI-OM angetrieben wird und zukünftige Treibhausgasemissions- und Landnutzungsänderungs-Szenarien verwendet. KW - Mittelmeerraum KW - Klima KW - Klimaänderung KW - Temperatur KW - Modell KW - Niederschlag KW - Klimaschwankung KW - Klimamodellierung KW - regionales Klimamodell KW - Mittelmeer KW - Modellierung KW - Extremwertstatistik KW - climate modelling KW - regional climate model Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-72155 ER - TY - THES A1 - Staehle, Barbara T1 - Modeling and Optimization Methods for Wireless Sensor and Mesh Networks T1 - Modellierungs- und Optimierungs-Methoden für drahtlose Sensor- und Mesh-Netze N2 - Im Internet der Zukunft werden Menschen nicht nur mit Menschen, sondern auch mit „Dingen“, und sogar „Dinge“ mit „Dingen“ kommunizieren. Zusätzlich wird das Bedürfnis steigen, immer und überall Zugang zum Internet zu haben. Folglich gewinnen drahtlose Sensornetze (WSNs) und drahtlose Mesh-Netze (WMNs) an Bedeutung, da sie Daten über die Umwelt ins Internet liefern, beziehungsweise einfache Internet-Zugangsmöglichkeiten schaffen. In den vier Teilen dieser Arbeit werden unterschiedliche Modellierungs- und Optimierungsmethoden für WSNs und WMNs vorgestellt. Der Energieverbrauch ist die wichtigste Metrik, wenn es darum geht die Kommunikation in einem WSN zu optimieren. Da sich in der Literatur sehr viele unterschiedliche Energiemodelle finden, untersucht der erste Teil der Arbeit welchen Einfluss unterschiedliche Energiemodelle auf die Optimierung von WSNs haben. Aufbauend auf diesen Überlegungen beschäftigt sich der zweite Teil der Arbeit mit drei Problemen, die überwunden werden müssen um eine standardisierte energieeffiziente Kommunikations-Lösung für WSNs basierend auf IEEE 802.15.4 und ZigBee zu realisieren. Für WMNs sind beide Probleme von geringem Interesse, die Leistung des Netzes jedoch umso mehr. Der dritte Teil der Arbeit führt daher Algorithmen für die Berechnung des Max-Min fairen (MMF) Netzwerk-Durchsatzes in WMNs mit mehreren Linkraten und Internet-Gateways ein. Der letzte Teil der Arbeit untersucht die Auswirkungen des LRA-Konzeptes. Dessen grundlegende Idee ist die folgende. Falls für einen Link eine niedrigere Datenrate als theoretisch möglich verwendet wird, sinkt zwar der Link-Durchsatz, jedoch ist unter Umständen eine größere Anzahl von gleichzeitigen Übertragungen möglich und der Gesamt-Durchsatz des Netzes kann sich erhöhen. Mithilfe einer analytischen LRA Formulierung und einer systematischen Studie kann gezeigt werden, dass eine netzwerkweite Zuordnung robusterer Datenraten als nötig zu einer Erhöhung des MMF Netzwerk-Durchsatzes führt. Desweitern kann gezeigt werden, dass sich LRA positiv auf die Leistungsfähigkeit eines IEEE 802.11 WMNs auswirkt und für die Optimierung des Netzes genutzt werden kann. N2 - In the future Internet, the people-centric communication paradigm will be complemented by a ubiquitous communication among people and devices, or even a communication between devices. This comes along with the need for a more flexible, cheap, widely available Internet access. Two types of wireless networks are considered most appropriate for attaining those goals. While wireless sensor networks (WSNs) enhance the Internet’s reach by providing data about the properties of the environment, wireless mesh networks (WMNs) extend the Internet access possibilities beyond the wired backbone. This monograph contains four chapters which present modeling and optimization methods for WSNs and WMNs. Minimizing energy consumptions is the most important goal of WSN optimization and the literature consequently provides countless energy consumption models. The first part of the monograph studies to what extent the used energy consumption model influences the outcome of analytical WSN optimizations. These considerations enable the second contribution, namely overcoming the problems on the way to a standardized energy-efficient WSN communication stack based on IEEE 802.15.4 and ZigBee. For WMNs both problems are of minor interest whereas the network performance has a higher weight. The third part of the work, therefore, presents algorithms for calculating the max-min fair network throughput in WMNs with multiple link rates and Internet gateway. The last contribution of the monograph investigates the impact of the LRA concept which proposes to systematically assign more robust link rates than actually necessary, thereby allowing to exploit the trade-off between spatial reuse and per-link throughput. A systematical study shows that a network-wide slightly more conservative LRA than necessary increases the throughput of a WMN where max-min fairness is guaranteed. It moreover turns out that LRA is suitable for increasing the performance of a contention-based WMN and is a valuable optimization tool. T3 - Würzburger Beiträge zur Leistungsbewertung Verteilter Systeme - 01/11 KW - Drahtloses Sensorsystem KW - Drahtloses vermaschtes Netz KW - Modellierung KW - Optimierung KW - IEEE 802.11 KW - IEEE 802.15.4 KW - Energieeffizienz KW - Fairness KW - Linkratenanpassung KW - Energy efficiency KW - Fairness KW - Link rate adaptation Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-64884 ER - TY - THES A1 - Heldens, Wieke T1 - Use of airborne hyperspectral data and height information to support urban micro climate characterisation T1 - Anwendung von Hyperspektraldaten und Höheninformationen zur Unterstützung der städtischen Mikroklimacharakterisierung N2 - The urban micro climate has been increasingly recognised as an important aspect for urban planning. Therefore, urban planners need reliable information on the micro climatic characteristics of the urban environment. A suitable spatial scale and large spatial coverage are important requirements for such information. This thesis presents a conceptual framework for the use of airborne hyperspectral data to support urban micro climate characterisation, taking into account the information needs of urban planning. The potential of hyperspectral remote sensing in characterising the micro climate is demonstrated and evaluated by applying HyMap airborne hyperspectral and height data to a case study of the German city of Munich. The developed conceptual framework consists of three parts. The first is concerned with the capabilities of airborne hyperspectral remote sensing to map physical urban characteristics. The high spatial resolution of the sensor allows to separate the relatively small urban objects. The high spectral resolution enables the identification of the large range of surface materials that are used in an urban area at up to sub-pixel level. The surface materials are representative for the urban objects of which the urban landscape is composed. These spatial urban characteristics strongly influence the urban micro climate. The second part of the conceptual framework provides an approach to use the hyperspectral surface information for the characterisation of the urban micro climate. This can be achieved by integrating the remote sensing material map into a micro climate model. Also spatial indicators were found to provide useful information on the micro climate for urban planners. They are commonly used in urban planning to describe building blocks and are related to several micro climatic parameters such as temperature and humidity. The third part of the conceptual framework addresses the combination and presentation of the derived indicators and simulation results under consideration of the planning requirements. Building blocks and urban structural types were found to be an adequate means to group and present the derived information for micro climate related questions to urban planners. The conceptual framework was successfully applied to a case study in Munich. Airborne hyperspectral HyMap data has been used to derive a material map at sub-pixel level by multiple endmember linear spectral unmixing. This technique was developed by the German Research Centre for Geosciences (GFZ) for applications in Dresden and Potsdam. A priori information on building locations was used to support the separation between spectrally similar materials used both on building roofs and non-built surfaces. In addition, surface albedo and leaf area index are derived from the HyMap data. The sub-pixel material map supported by object height data is then used to derive spatial indicators, such as imperviousness or building density. To provide a more detailed micro climate characterisation at building block level, the surface materials, albedo, leaf area index (LAI) and object height are used as input for simulations with the micro climate model ENVI-met. Concluding, this thesis demonstrated the potential of hyperspectral remote sensing to support urban micro climate characterisation. A detailed mapping of surface materials at sub-pixel level could be performed. This provides valuable, detailed information on a large range of spatial characteristics relevant to the assessment of the urban micro climate. The developed conceptual framework has been proven to be applicable to the case study, providing a means to characterise the urban micro climate. The remote sensing products and subsequent micro climatic information are presented at a suitable spatial scale and in understandable maps and graphics. The use of well-known spatial indicators and the framework of urban structural types can simplify the communication with urban planners on the findings on the micro climate. Further research is needed primarily on the sensitivity of the micro climate model towards the remote sensing based input parameters and on the general relation between climate parameters and spatial indicators by comparison with other cities. N2 - Für die Stadtplanung werden klimatische Aspekte zunehmend wichtiger, weil die Klimaveränderung besonders in Städten die Lebensqualität beeinflussen kann. Hierfür benötigen Stadtplaner detaillierte Basis-Informationen über die mikroklimatischen Eigenschaften des urbanen Gebietes. Dabei sind ein ausreichend detaillierter Maß stab sowie eine groß flächige Abdeckung wichtige Voraussetzungen. Das Ziel dieser Dissertation ist die Entwicklung und Anwendung von einem konzeptionellen Rahmenwerk, wie räumlich und spektral höchst aufgelöste Fernerkundungsdaten zur stadtklimatischen Charakterisierung verwendet werden können. Hierbei sollten die Anforderungen der Stadtplaner berücksichtigt werden. Zusätzliches Ziel ist das Potenzial dieser sog. hyperspektralen Fernerkundung zur Charakterisierung des Mikroklimas zu demonstrieren. Dazu wird das konzeptionelle Rahmenwerk an Hand des Fallbeispiels der Stadt München unter Verwendung von HyMap-Daten angewendet und evaluiert. Das entwickelte Rahmenwerk besteht aus drei Teilen: Der erste Teil beschreibt, wie relevante Parameter aus Daten eines flugzeuggetragenen Hyperspektralsensors abgeleitet werden können. Der zweite Teil des Konzepts beschreibt einen Ansatz, wie hyperspektrale Datenprodukte für die Charakterisierung des Mikroklimas angewendet werden können. Im dritten Teil des Rahmenwerkes wird angesprochen wie unter Berücksichtigung der Anforderungen der Stadtplaner die abgeleiteten Indikatoren und Klimasimulationen kombiniert und aufbereitet werden können. Dieses Rahmenwerk wurde für das konkrete Fallbeispiel der Stadt München erfolgreich angewendet. Daten des flugzeuggetragenen HyMap-Hyperspektralsensors wurden verwendet, um die Subpixel-Materialkarten abzuleiten. Mittels einer 'multiple endmember spectral mixture analyis', welche durch das Deutschen GeoForschungszentrum (GFZ) für Anwendungen in Dresden und Potsdam entwickelt wurde, können die Oberflächenmaterialen abgeleitet werden. Zur Verbesserung des Produkts wurden zusätzlich a-priori-Informationen zu den Gebäudestandorten integriert, um die Unterscheidung von Gebäudedächern und Freiflächen mit spektral ähnlichen Materialien zu unterstützen. Die resultierende Subpixel-Materialkarte ist das Schlüsselprodukt für den entwickelten Ansatz. Als ein weiters Produkt wurden Albedo und Blattflächenindex aus den Hyperspektraldaten abgeleitet. Im nächsten Schritt wurde die Subpixel-Materialkarte mit den Höhendaten kombiniert und daraus räumliche Indikatoren wie Versiegelungsgrad oder Bebauungsdichte abgeleitet. Solche Indikatoren werden in der Stadtplanung häufig verwendet, um Baublöcke zu charakterisieren. Zusätzlich besteht ein Zusammenhang zwischen diesen Indikatoren und verschiedenen stadtklimatischen Parametern wie der Temperatur oder der Luftfeuchte. Für eine detaillierte Charakterisierung des Mikroklimas innerhalb eines Baublocks wurden die Fernerkundungsprodukte (Oberflächenmaterial, Albedo, Blattflächenindex und Höhendaten) als Inputdaten für das Mikroklimamodell ENVI-met verwendet. Zusammenfassend demonstriert diese Dissertation das Potenzial der hyperspektralen Fernerkundung zur Unterstützung von Mikroklima-Charakterisierung. Oberflächenmaterialien konnten hierfür thematisch detailliert bis auf sub-Pixel Level identifiziert werden. Mit den erzeugten hyperspektralen Fernerkundungsprodukten konnte eine detaillierte Beschreibung der relevanten räumlichen Merkmale erzielt werden, welche von groß er Relevanz für die Bewertung des städtischen Mikroklimas sind. Das entwickelte konzeptionelle Rahmenwerk hat sich für das Fallbeispiel als sehr geeignet erwiesen. Es ermöglichte die Charakterisierung des städtischen Mikroklima auf Basis des ENVI-met Modells. Die Fernerkundungsprodukte und die darauf basierenden Mikroklima-Informationen wurden mit einem geeigneten räumlichen Maß stab und als intuitiv verständliche Karten und Abbildungen dargestellt. Die Verwendung allgemein bekannter räumlicher Indikatoren und das Klassifikationsschema nach Stadtstrukturtypen vereinfachen die Kommunikation mit Stadtplanern über die stadtklimatischen Erkenntnisse. Weitere Forschungsschritte sind unter anderem notwendig um die Sensitivität des Mikroklimamodells gegenüber den fernerkundungsbasierten Inputparametern genauer zu charakterisieren und um die allgemeine Beziehungen zwischen Klimaparametern und räumlichen Indikatoren durch den Vergleich mit weiteren Städten näher zu untersuchen. KW - Mikroklima KW - Modellierung KW - Stadtklima KW - Fernerkundung KW - hyperspektrale Fernerkundung KW - Höhendaten KW - Mikroklimamodellierung KW - lineare spektrale Entmischung KW - HyMap KW - hyperspectral remote sensing KW - height data KW - micro climate modelling KW - linear spectral unmixing KW - HyMap Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-48935 ER - TY - THES A1 - Mederer, Joachim T1 - Water Resources and Dynamics of the Troodos Igneous Aquifer-system, Cyprus - Balanced Groundwater Modelling - T1 - Grundwasserdynamik und Ressourcen des Troodos Aquifersystems, Zypern - Bilanzierte Grundwassermodellierung - N2 - The study investigates the water resources and aquifer dynamics of the igneous fractured aquifer-system of the Troodos Mountains in Cyprus, using a coupled, finite differences water balance and groundwater modelling approach. The numerical water balance modelling forms the quantitative framework by assessing groundwater recharge and evapotranspiration, which form input parameters for the groundwater flow models. High recharge areas are identified within the heavily fractured Gabbro and Sheeted Dyke formations in the upper Troodos Mountains, while the impervious Pillow Lava promontories - with low precipitation and high evapotranspiration - show unfavourable recharge conditions. Within the water balance studies, evapotranspiration is split into actual evapotranspiration and the so called secondary evapotranspiration, representing the water demand for open waters, moist and irrigated areas. By separating the evapotranspiration of open waters and moist areas from the one of irrigated areas, groundwater abstraction needs are quantified, allowing the simulation of single well abstraction rates in the groundwater flow models. Two sets of balanced groundwater models simulate the aquifer dynamics in the presented study: First, the basic groundwater percolation system is investigated using two-dimensional vertical flow models along geological cross-sections, depicting the entire Troodos Mountains up to a depth of several thousands of metres. The deeply percolating groundwater system starts in the high recharge areas of the upper Troodos, shows quasi stratiform flow in the Gabbro and Sheeted Dyke formations, and rises to the surface in the vicinity of the impervious Pillow Lava promontories. The residence times mostly yield less than 25 years, the ones of the deepest fluxes several hundreds of years. Moreover, inter basin flow and indirect recharge of the Circum Troodos Sedimentary Succession are identified. In a second step, the upper and most productive part of the fractured igneous aquifer-system is investigated in a regional, horizontal groundwater model, including management scenarios and inter catchment flow studies. In a natural scenario without groundwater abstractions, the recovery potential of the aquifer is tested. Predicted future water demand is simulated in an increased abstraction scenario. The results show a high sensitivity to well abstraction rate changes in the Pillow Lava and Basal Group promontories. The changes in groundwater heads range from a few tens of metres up to more than one hundred metres. The sensitivity in the more productive parts of the aquifer-system is lower. Inter-catchment flow studies indicate that - besides the dominant effluent conditions in the Troodos Mountains - single reaches show influent conditions and are sub-flown by groundwater. These fluxes influence the local water balance and generate inter catchment flow. The balanced groundwater models form thus a comprehensive modelling system, supplying future detail models with information concerning boundary conditions and inter-catchment flow, and allowing the simulation of impacts of landuse or climate change scenarios on the dynamics and water resources of the Troodos aquifer-system. N2 - Die vorliegende Arbeit untersucht die Grundwasserressourcen und die hydraulische Dynamik des Troodos Kluftaquifersystems in Zypern mit Hilfe gekoppelter numerischer Wasserhaushalts- und Grundwasserströmungsmodelle auf Rasterbasis. Die Wasserhaushaltsmodelle quantifizieren die hydrologischen Rahmenparameter des Untersuchungsgebietes. Grundwasserneubildung und Evapotranspiration werden als Eingangsparameter der Grundwassermodelle weiterverarbeitet. Die Grundwasserneubildung ist in den niederschlagsreichen Regionen des höheren Troodos Gebirges, im Bereich der stark geklüfteten Gabbro und Sheeted Dyke Lithologien, am höchsten, nimmt zu den Vorgebirgen ab und erreicht dort ein Minimum in den gering durchlässigen Pillow Lava Sequenzen. Die Evapotranspiration zeigt einen umgekehrten Trend. Zusätzlich zur aktuellen Evapotranspiration wird eine sogenannten Sekundär-Evapotranspiration ermittelt, die sich – unabhängig von der Bodenfeuchte – aus der Verdunstung von Wasser-, Feucht- und Bewässerungsgebieten berechnet. Dieses Konzept erlaubt die Ermittlung der Verdunstungsmenge der bewässerten Flächen und somit die Abschätzung regionaler Grundwasserentnahmeraten, die als Brunnenentnahme in die Grundwassermodelle eingearbeitet werden. Mit zweidimensionalen, bilanzierten, vertikalen Grundwassermodellen, die entlang geologischer Schnitte durch das Untersuchungsgebiet verlaufen, wurde die Grundwasserströmung bis zu einer Tiefe von mehreren Kilometern hoch auflösend simuliert. Die generelle Strömungscharakteristik zeigt eine dominierende Vertikalkomponente in den Neubildungsgebieten des hohen Troodos, quasi stratiforme Strömung in den Mittelläufen im Bereich der Gabbros und Sheeted Dykes, und einen relativen Anstieg des Potentials und Grundwasserausfluss im Bereich der geringdurchlässigen Pillow Laven der Vorgebirge. Indirekte Neubildung durch Grundwasser aus dem Troodos kann in den überlagernden Sedimenten nachgewiesen werden, ebenso wie Lateralflüsse zwischen den Einzugsgebieten. Die Grundwasserverweildauer liegt meist bei wenigen Jahrzehnten. Ausnahmen bilden tiefe Strömungen aus dem hohen Troodos, die Verweilraten von mehreren Jahrhunderten erreichen. Der oberflächennahe, stark geklüftete und für die Wasserwirtschaft wichtige Teil des Aquifersystems wurde in einem horizontalen, den gesamten Troodos umfassenden Grundwassermodell nachgebildet. Bewirtschaftungsszenarien ohne bzw. mit gesteigerten Entnahmeraten simulieren die Dynamik dieses Aquifers. Die Ergebnisse zeigen, dass die Sensitivität auf die Änderung der Entnahmeraten regional sehr unterschiedlich ist. In den Entnahmegebieten des hohen und mittleren Troodos liegen die Spiegelschwankungen meist bei wenigen Metern bis Zehnermetern, während die Schwankungen in den gering durchlässigen und niederschlagsarmen Vorgebirgen teilweise mehr als hundert Meter betragen können. Das laterale Strömungsverhalten wird in einzelnen Test-Einzugsgebieten im Troodos untersucht. Während in den Untersuchungsgebieten generell effluente Grundwasserverhältnisse vorherrschen, gibt es Seitentäler, die vom Grundwasser unterströmt werden und die Grundwasser in benachbarte Einzugsgebiete abgeben. Diese Lateralflüsse können lokal die Wasserbilanz von Einzugsgebieten im Troodos beeinflussen. Die bilanzierten Grundwassermodelle illustrieren sowohl die Tiefenströmung mit hoher Auflösung als auch den oberflächennahen, wasserwirtschaftlich interessanteren Teil des Troodos - Kluftaquifersystems und zeigen die großflächigen Auswirkungen von Änderungen der Grundwasserentnahmerate. Die bilanzierten Grundwassermodelle stellen somit ein Übersichtsmodellsystem dar, mit dessen Hilfe Randbedingungen und Lateralflüsse für zukünftige Detailmodelle bestimmt, sowie Auswirkung künftiger Klima- bzw. Landnutzungsänderungen auf die Dynamik und die Grundwasserressourcen des Troodos Aquifersystems abgeschätzt werden können. KW - Zypern KW - Troodos KW - Hydrogeologie KW - Wasserreserve KW - Modellierung KW - Wasserhaushalt KW - Grundwassermodelle KW - Ophiolith KW - Kluftaquifer KW - Groundwater KW - Modelling KW - Waterbalance KW - Ophiolite Y1 - 2009 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-37306 ER - TY - THES A1 - Külls, Christoph T1 - Groundwater of the North-Western Kalahari, Namibia T1 - Das Grundwasser am Nord-Westrand der Kalahari, Namibia N2 - A quantitative model of groundwater flows contributing to the Goblenz state water scheme at the north-western fringe of the Kalahari was developed within this study. The investigated area corresponds to the Upper Omatako basin and encompasses an outer mountainous rim and sediments of the Kalahari sand desert in the centre. This study revealed the eminent importance of the mountainous rim for the water balance of the Kalahari, both in terms of surface and ground water. A hydrochemical subdivision of groundwater types in the mountain rim around the Kalahari was derived from cluster analysis of hydrochemical groundwater data. The western and south-western secondary aquifers within rocks of the Damara Sequence, the Otavi Mountain karst aquifers of the Tsumeb and Abenab subgroups as well as the Waterberg Etjo sandstone aquifer represent the major hydrochemical groups. Ca/Mg and Sr/Ca ratios allowed to trace the groundwater flow from the Otavi Mountains towards the Kalahari near Goblenz. The Otavi Mountains and the Waterberg were identified as the main recharge areas showing almost no or only little isotopic enrichment by evaporation. Soil water balance modelling confirmed that direct groundwater recharge in hard-rock environments tends to be much higher than in areas covered with thick Kalahari sediments. According to the water balance model average recharge rates in hard-rock exposures with only thin sand cover are between 0.1 and 2.5 % of mean annual rainfall. Within the Kalahari itself very limited recharge was predicted (< 1 % of mean annual rainfall). In the Upper Omatako basin the highest recharge probability was found in February in the late rainfall season. The water balance model also indicated that surface runoff is produced sporadically, triggering indirect recharge events. Several sinkholes were discovered in the Otavi Foreland to the north of Goblenz forming short-cuts to the groundwater table and preferential recharge zones. Their relevance for the generation of indirect recharge could be demonstrated by stable isotope variations resulting from observed flood events. Within the Kalahari basin several troughs were identified in the pre-Kalahari surface by GIS-based analyses. A map of saturated thickness of Kalahari sediments revealed that these major troughs are partly saturated with groundwater. The main trough, extending from south-west to north-east, is probably connected to the Goblenz state water scheme and represents a major zone of groundwater confluence, receiving groundwater inflows from several recharge areas in the Upper Omatako basin. As a result of the dominance of mountain front recharge the groundwater of the Kalahari carries an isotopic composition of recharge at higher altitudes. The respective percentages of inflow into the Kalahari from different source areas were determined by a mixing-cell approach. According to the mixing model Goblenz receives most of its inflow (70 to 80 %) from a shallow Kalahari aquifer in the Otavi Foreland which is connected to the Otavi Mountains. Another 15 to 10 % of groundwater inflow to the Kalahari at Goblenz derive from the Etjo sandstone aquifer to the south and from inflow of a mixed component. In conclusion, groundwater abstraction at Goblenz will be affected by measures that heavily influence groundwater inflow from the Otavi Mountains, the Waterberg, and the fractured aquifer north of the Waterberg. N2 - Ziel dieser Arbeit ist es, die Herkunft des Grundwassers zu untersuchen, das in der Nähe von Goblenz am Rand der Namibianischen Kalahari in den letzten Jahren erschlossen worden ist. Fragen zur Erneuerbarkeit dieser Grundwasserreserven aus direkter und indirekter Neubildung und zur Rolle lateraler, unterirdischer Zuflüsse von unterschiedlichen Herkunftsräumen waren hierfür zu beantworten. Dies erforderte eine kombinierte Anwendung hydro(geo)logischer, hydrochemischer und isotopenhydrologischer Methoden. Das Arbeitsgebiet in Namibia ist als semi-arid zu bezeichnen und durch ein subtropisches Klimaregime geprägt. Aufgrund der hohen Temperaturen während der Regenzeit verdunstet ein erheblicher Teil der Niederschläge direkt oder durch Transpiration. Daher ist die Kalahari trotz der zum Teil für semi-aride Gebiete vergleichbar hohen Niederschläge von 350 bis über 550 mm/Jahr relativ arm an Oberflächen- und verfügbarem Grundwasser. Ein wesentliches Merkmal des Arbeitsgebietes ist zudem die Dichotomie zwischen dem äußeren Festgesteinsbereich und dem überwiegend mit Sanden bedeckten Kalahari-Becken. Für das Grundwasserfließsystem der Kalahari ist der äußere Festgesteinsbereich bestimmend. Der erstellte regionale Grundwassergleichenplan zeigt ein annähernd zentripetales Fließmuster, das in der Nähe von Goblenz konvergiert, mit einer Hauptentwässerung zur Groß-Kalahari Richtung Osten. Die Neubildungsgebiete liegen in den unterschiedlichen zum Teil verkarsteten Festgesteinsbereichen der Damara Sequenz und des Etjo-Sandsteins (Waterberg). Allerdings konnte auch innerhalb der Kalahari südlich von Goblenz ein begrenztes Grundwasserneubildungsgebiet identifiziert werden. In diesem Bereich haben sich durch die Verkarstung anstehender Kalkkrusten gute Neubildungsbedingungen für das flache Grundwasser entwickelt. Durch die Kombination digitaler Rasterkarten der Geländehöhe, der Kalahari-Mächtigkeit und der Grundwasserstände konnte eine Karte der Bereiche erstellt werden, in denen die Kalahari mit Grundwasser gesättigt ist. Ein Vergleich mit digitalisierten Karten aus früheren geophysikalischen Untersuchungen zeigte eine gute Übereinstimmung. Daraus konnte ein verallgemeinertes Modell der Sättigungsmächtigkeit abgeleitet werden. Aus diesem Modell werden zwei mit Kalahari-Sedimenten verfüllte und gesättigte Rinnen erkennbar. Diese Rinnen sind bevorzugte Fließbahnen für die Grundwasserbewegung vom Festgesteinsrand zum Zentrum des Kalahari-Beckens und stellen zudem Erkundungs- und Erschließungsziele für Grundwasser dar. Die Wassererschließung von Goblenz grenzt an die größere nördliche Rinne. Eine Karte der Mächtigkeit der ungesättigten Zone wurde aus der Verschneidung des digitalen Geländemodells mit einem interpolierten Grundwassergleichenplan errechnet. Diese Karte deutet auf ausgedehnte Bereiche geringer Flurabstände im südlichen und nördlichen Teil des Einzugsgebietes Oberer Omatako hin. Diese Informationen wurden zudem als wesentliche Grundlagen für die regionale Interpretation der stabilen Isotope verwendet. Die Grundwasserneubildung im Oberen Omatako wurde mit mehreren Methoden vergleichend abgeschätzt. Eine klimatische Wasserbilanz aus Tageswerten des Niederschlages (Nt) und der gemessenen Pfannenverdunstung (Vt) zeigte, daß die Neubildung des Grundwassers im Februar am wahrscheinlichsten ist. Nur Niederschlagsereignisse mit hoher Jährlichkeit vermögen dabei auf Tagesbasis die erforderliche Neubildungsbedingung Nt > Vt zu erfüllen. Daraus ergibt sich, daß Grund-wasserneubildung in der Regel nur infolge zeitlicher oder räumlicher Konzentration von Niederschlägen und Abflüssen erfolgen kann und unter Umständen nicht jährlich stattfindet. Eine Erweiterung der klimatischen Wasserbilanz um die Modellierung des Bodenwasserhaushaltes wurde schließlich verwendet, um für den Bereich ‚Grootfontein‘ eine detaillierte Betrachtung der Grundwasserneubildung aufgrund von Tageswerten zu ermöglichen. Das Bodenwasserhaushaltsmodell wurde zunächst mit empirisch erhobenen bodenphysikalischen Kennwerten belegt und dann anhand von Grundwasserständen kalibriert. Dabei ergaben sich Neubildungsraten von 0.4 bis 9.6 mm/Jahr oder von 0.1 bis 2.5 % des jeweiligen jährlichen Niederschlages. Ein Zusammenhang zwischen dem Jahresmittel des Niederschlages und der Neubildungsrate war nicht ausgeprägt, die Häufung hoher Intensitäten täglicher Niederschläge erwies sich aber als ein wesentlicher Faktor für hohe direkte Neubildungsraten. Auch die Bodenwassermodellierung deutete auf eine höhere Wahrscheinlichkeit der Grundwasserneubildung im Februar hin. Die mit der Chloridmethode ermittelte Neubildungsrate lag mit 8.5 bis 14 mm/Jahr für dieses Gebiet höher. Der Unterschied kann sich aus den bei der Chloridmethode zusätzlich berücksichtigten Komponenten des Makroporenflusses, der indirekten Neubildung und aus anderen lateralen Zuflüssen ergeben. Geländebeobachtungen zeigten jedoch, daß solche Modellergebnisse nur begrenzt verallgemeinerbar oder übertragbar sind. Im Otavi Vorland nördlich von Goblenz wurde eine Reihe von Schlucklöchern entdeckt. Diese haben sich unter geringmächtiger Sandbedeckung in Kalkkrusten durch Verkarstung entwickelt und sind durch das Einbrechen der oberen Bodenschicht vereinzelt sichtbar geworden. Zum einen deuten diese Schlucklöcher auf eine Veränderung der Grundwasserstände hin. Die Kalkkrusten, die sich im Quellgebiet unterhalb der Otavi-Berge durch Calcitausfällung entwickelt hatten, sind durch das Absinken der Grundwasserstände und durch die Aufwehung von Kalahari-Sanden nun lokal verkarstet und wiederum zu Neubildungsgebieten geworden. Solche Schlucklöcher können bevorzugte Fließ- und Überbrückungsbahnen zum Grundwasser darstellen. Die hydrologische Funktion solcher Schlucklöcher läßt sich mit physikalischen Modellen im regionalen Maßstab quantitativ schwer erfassen. Es wurden hydrochemische und Isotopen-Methoden zur indirekten Abschätzung des Fließsystems herangezogen. Zunächst wurde eine generelle Charakterisierung der Grundwässer anhand der Hauptelementchemie und mittels der hierarchischen Cluster-Analyse vorgenommen. Hierbei ließen sich fünf wesentliche Hauptgruppen im Arbeitsgebiet erkennen: Ca-HCO3-Wässer finden sich in den Bereichen der Damara Sequenz, in denen Marmore anstehen und gute Neubildungsbedingungen bieten, Ca-Mg-HCO3-Wässer und Mg-Ca-HCO3-Wässer sind charakteristisch für den Otavi Karst und das ihm vorgelagerte Otavi Vorland. Das Grundwasser im Etjo-Sandstein des Waterberges zeichnet sich durch eine äußerst geringe Mineralisierung und ein ausgeglichenes Verhältnis von Erdalkalien und Alkalien bei hohen Hydrogenkarbonat-Gehalten aus. In der Kalahari und in tieferen Grundwasser-Stockwerken des Otavi-Vorlandes treten schließlich Grundwässer mit hohen Natrium und Chlorid-Gehalten auf. Das Ca/Mg-Verhältnis und das Sr/Ca Verhältnis erwiesen sich als ausgezeichnete hydrochemische Indikatoren für die Unterscheidung von Grundwasser aus dem Otavi Karst und aus den sekundären Aquiferen der Damara Sequenz. Anhand von äußerst geringen molaren Sr/Ca Verhältnissen konnte der Abstrom des Grundwassers aus dem Otavi Karst in die Kalahari genau abgegrenzt und verfolgt werden. Die Chloridkonzentrationen im Grundwasser wurden im Hinblick auf die Anreicherung im Vergleich zum Niederschlag untersucht. Dabei wurden in den Festgesteinsbereichen Konzentrationen zwischen 25 und 100 mg/l festgestellt, die auf Anreicherungsfaktoren von ca. 25 bis 200 bzw. hindeuten. Dies entspricht unter vereinfachten Annahmen Neubildungsraten in der Größenordnung von 2 bis 20 mm/Jahr. In der Kalahari liegen die Konzentrationen von Chlorid mit 250 bis 750 mg/l im Mittel wesentlich höher; diese können in einigen Bereichen 5000 mg/l übersteigen. Eine Umrechnung in Neubildungsraten kann wegen der Konvergenz der Fließbahnen und möglicher geogener Quellen nicht mehr direkt erfolgen, allerdings deuten die hohen Chloridkonzentrationen auf Bereiche mit Verdunstungsverlusten und auf deutlich geringere Neubildungsraten innerhalb der Kalahari hin. Dieses gilt nicht für zwei Bereiche, in denen die Kalahari gering mächtig ist: Im Abstrom dieser Gebiete liegen die Chloridkonzentrationen deutlich niedriger und zeigen lokal erhöhte Neubildung des Grundwassers an. Eine weitergehende Charakterisierung der Wasserchemie und der Isotopenzusammensetzung erfolgte anhand von Grundwasserproben im direkten Umfeld von Goblenz. Hydrochemische Profile durch das Arbeitsgebiet deuteten Mischungsprozesse zwischen Endgliedern der fünf hydrochemischen Gruppen an. So konnte entlang des Flusses Omambonde Richtung Goblenz der laterale Zustrom von Grundwasser aus dem Etjo Sandstein von Westen und der Zustrom von dolomitischem Grundwasser qualitativ nachgewiesen werden. Ebenso ließen sich hydrochemische Hinweise auf eine Neubildung im Otavi Vorland finden, eventuell verursacht durch Versickerung in den beobachteten Schlucklöchern. Eine Untersuchung der stabilen Isotope 18O und 2H bestätigte die qualitativen Aussagen aus den Untersuchungen zur klimatischen Wasserbilanz: Aufgrund der deutlichen Verschiebung zwischen der mittleren gewichteten Isotopen-Zusammensetzung des Niederschlages und des Grundwassers erfolgt die Neubildung wahrscheinlich durch wenige intensive (und an schweren Isotopen abgereicherte) Niederschläge. Die Grundwässer der Kalahari haben eine ursprüngliche Isotopen-zusammensetzung, die derjenigen von hochgelegenen Niederschlagsgebieten entspricht (> 1750 m ü. NN). Damit ergibt sich ein weiterer Hinweis darauf, daß das Grundwasser der Kalahari entweder durch Sturzfluten gebildet wird, die sich in den höher liegenden Festgesteinsbereichen entwickeln, oder direkt im Randbereich neugebildet wird und der Kalahari unterirdisch zuströmt. Die zeitliche Variabilität der Isotopenzusammensetzung begrenzt die Trennschärfe für regionale Analysen. Nördlich von Goblenz im Bereich der beobachteten Schlucklöcher konnte anhand einer Zeitreihe der Isotopenzusammensetzung die Bedeutung von Sturzfluten für die Grundwasserneubildung direkt nachgewiesen werden. Die 14C und 3H Daten bestätigten die Abgrenzung der Neubildungsbereiche. Die aus den hydrogeologischen, hydrologischen, hydrochemischen und isotopen-hydrologischen Teiluntersuchungen gewonnenen Erkenntnisse wurden in einem Konzeptmodell des Grundwasserfließsystems Goblenz zusammengetragen. Aufgrund dieses Konzeptmodells wurden mit einem inversen hydrochemischen Mischungsansatz die jeweiligen Anteile aus den einzelnen Neubildungsgebieten berechnet. Hierzu wurde zunächst über thermodynamische Gleichgewichts-betrachtungen sichergestellt, daß die Annahme konservativen Verhaltens der für die Berechnung verwendeten Wasserinhaltsstoffe für das nähere Arbeitsgebiet um Goblenz gewährleistet war. Kritische Bereiche wurden als ‚Reaktions-Zonen‘ von den ‚Mischungs-Zonen‘ abgegrenzt und nicht in die mathematische Berechnung einbezogen. Der Etjo-Sandstein als Mischungszelle für den Bereich nördlich von Goblenz stellte für die Verwendung dieses nicht-reaktiven Mischungsansatzes im Arbeitsgebiet nahezu ideale Voraussetzungen dar. Zur praktischen Umsetzung des mathematischen Ansatzes wurde ein Programm (MIG, „Mixing Input Generator“) zur interaktiven Erstellung von Mischungsmodellen geschrieben (Anhang 1). Über ein iteratives Verfahren wurden schließlich die Fließraten ermittelt, welche sowohl die Wasserbilanz und als auch die Massenbilanz aller betrachteten Hauptelemente und Isotopen im Arbeitsgebiet optimal erklären. Durch dieses Verfahren wurde errechnet, daß ca. 70 bis 80 Prozent des Wassers, das in Goblenz gefördert wird, aus den Otavi Bergen stammt. Weitere 15 bis 10 % stammen jeweils aus dem Etjo Sandstein bzw. aus einer Mischkomponente von Grundwässern nördlich des Waterbergs. Detailbetrachtungen der Mischungskomponenten im Otavi Vorland zeigten, daß hier in einigen Bereichen eine Zumischung von geringen Anteilen neugebildeten Grundwassers erfolgt, in anderen Bereichen höher mineralisiertes Tiefenwasser zutritt. Der konservative Mischungsansatz stellt unter günstigen Bedingungen ein geeignetes Mittel zur inversen Berechnung von Fließraten dar. Allerdings sind dazu wie in diesem Falle umfangreiche Voruntersuchungen notwendig. Goblenz liegt in einem Konvergenzgebiet von Grundwasserströmen aus unterschiedlichen Neubildungsgebieten im Festgesteinsbereich. Für Goblenz ist der laterale Zustrom von Grundwasser aus dem Otavi Karst und dem Waterberg die entscheidende Wasserhaus-haltskomponente. Die direkte Neubildung in der Kalahari ist dagegen relativ gering. Allerdings kann eine zusätzliche Neubildung in verkarsteten und kaum oder nur mit geringmächtigen Sanden bedeckten Kalkkrusten eine Rolle spielen. KW - Kalahari KW - Grundwasser KW - Kalahari KW - Grundwasserbildung KW - Hydrogeologie KW - Namibia KW - Grundwasser KW - Kalahari KW - Isotope KW - Modellierung KW - Ground water KW - Kalahari KW - isotopes KW - modelling Y1 - 2000 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-1180680 ER -