TY - THES A1 - Herrler, Rainer T1 - Agentenbasierte Simulation zur Ablaufoptimierung in Krankenhäusern und anderen verteilten, dynamischen Umgebungen T1 - Agent based simulation of processes in hospitals and other distributed, dynamic environments. N2 - Verteilte dynamische Systeme unter lokalen und globalen Gesichtspunkten zu optimieren ist eine schwierige Aufgabe. Zwar sind grundsätzliche Auswirkungen einzelner Maßnahmen häufig bekannt, durch widerstrebende Ziele, Wechselwirkungen zwischen Prozessen und Nebenwirkungen von Maßnahmen ist ein analytisches Vorgehen bei der Optimierung nicht möglich. Besonders schwierig wird es, wenn lokale Einheiten einerseits ihre Ziele und Autonomie behalten sollen, aber durch zentrale Vorgaben bzw. Anreize so gesteuert werden sollen, dass ein übergeordnetes Ziel erreicht wird. Ein praktisches Beispiel dieses allgemeinen Optimierungsproblems findet sich im Gesundheitswesen. Das Management von modernen Kliniken ist stets mit dem Problem konfrontiert, die Qualität der Pflege zu gewährleisten und gleichzeitig kosteneffizient zu arbeiten. Hier gilt es unter gegeben Rahmenbedingungen und bei Respektierung der Autonomie der Funktionseinheiten, Optimierungsmaßnahmen zu finden und durchzuführen. Vorhandene Werkzeuge zur Simulation und Modellierung bieten für diese Aufgabe keine ausreichend guten Vorgehensmodelle und Modellierungsmechanismen. Die agentenbasierte Simulation ermöglicht die Abbildung solcher Systeme und die Durchführung von Simulationsexperimenten zur Bewertung einzelner Maßnahmen. Es werden Lösungswege und Werkzeuge vorgestellt und evaluiert, die den Benutzer bei der Formalisierung des Wissens und der Modellierung solch komplexer Szenarien unterstützen und ein systematisches Vorgehen zur Optimierung ermöglichen. N2 - To optimize distributed dynamic systems or organizations under local and global constraints is a difficult task. Although basic effects of single improvement steps are often known, it is difficult to examine a complex system with conflicting goals, interdependent processes and sideeffects. A special situation occurs, when local entities are supposed to keep autonomy but should be directed by a central instance, to reach a global goal. A concrete example of this optimization problem can be found in health care. The management of modern hospitals has to ensure the quality of service and at the same time work cost efficient. They want to find improvement steps, which on the one hand respect the typical local autonomy of functional units and on the other hand reduce cost factors like the avarage stay duration of patients. Existing tools for modelling and simulation don't provide adequate methodologies and techniques for this problem. Agent based simulation allowes to realize suitable models and finding improvement steps in simulation studies. New approaches and tools are presented and evaluated, that support users in knowledge formalization and model building. KW - Simulation KW - Prozessoptimierung KW - Modellierung KW - Mehragentensystem KW - Krankenhaus KW - Simulation KW - Process Optimization KW - Agentbased System KW - Hospital Y1 - 2007 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-24483 ER - TY - THES A1 - Klügl, Franziska T1 - Aktivitätsbasierte Verhaltensmodellierung und ihre Unterstützung bei Multiagentensimulationen T1 - "Activity"-based Modelling of Behaviour and its Support for Multi-Agent Simulation N2 - Durch Zusammenführung traditioneller Methoden zur individuenbasierten Simulation und dem Konzept der Multiagentensysteme steht mit der Multiagentensimulation eine Methodik zur Verfügung, die es ermöglicht, sowohl technisch als auch konzeptionell eine neue Ebene an Detaillierung bei Modellbildung und Simulation zu erreichen. Ein Modell beruht dabei auf dem Konzept einer Gesellschaft: Es besteht aus einer Menge interagierender, aber in ihren Entscheidungen autonomen Einheiten, den Agenten. Diese ändern durch ihre Aktionen ihre Umwelt und reagieren ebenso auf die für sie wahrnehmbaren Änderungen in der Umwelt. Durch die Simulation jedes Agenten zusammen mit der Umwelt, in der er "lebt", wird die Dynamik im Gesamtsystem beobachtbar. In der vorliegenden Dissertation wurde ein Repräsentationsschema für Multiagentensimulationen entwickelt werden, das es Fachexperten, wie zum Beispiel Biologen, ermöglicht, selbständig ohne traditionelles Programmieren Multiagentenmodelle zu implementieren und mit diesen Experimente durchzuführen. Dieses deklarative Schema beruht auf zwei Basiskonzepten: Der Körper eines Agenten besteht aus Zustandsvariablen. Das Verhalten des Agenten kann mit Regeln beschrieben werden. Ausgehend davon werden verschiedene Strukturierungsansätze behandelt. Das wichtigste Konzept ist das der "Aktivität", einer Art "Verhaltenszustand": Während der Agent in einer Aktivität A verweilt, führt er die zugehörigen Aktionen aus und dies solange, bis eine Regel feuert, die diese Aktivität beendet und eine neue Aktivität auswählt. Durch Indizierung dieser Regeln bei den zugehörigen Aktivitäten und Einführung von abstrakten Aktivitäten entsteht ein Schema für eine vielfältig strukturierbare Verhaltensbeschreibung. Zu diesem Schema wurde ein Interpreter entwickelt, der ein derartig repräsentiertes Modell ausführt und so Simulationsexperimente mit dem Multiagentenmodell erlaubt. Auf dieser Basis wurde die Modellierungs- und Experimentierumgebung SeSAm ("Shell für Simulierte Agentensysteme") entwickelt. Sie verwendet vorhandene Konzepte aus dem visuellen Programmieren. Mit dieser Umgebung wurden Anwendungsmodelle aus verschiedenen Domänen realisiert: Neben abstrakten Spielbeispielen waren dies vor allem Fragestellungen zu sozialen Insekten, z.B. zum Verhalten von Ameisen, Bienen oder der Interaktion zwischen Bienenvölkern und Milbenpopulationen. N2 - In this thesis a representational scheme for multi-agent simulations was developed. This framework enables domain experts - e.g. biologists - to build models and carry out experiments without having to understand and use traditional programming languages. The resulting declarative framework is based on two concepts: the body of an agent can be modelled by a set of state variables. The behaviour of the agents can be described best by using rules. With this as a starting point various approaches for structuring the description are examined. The most important concept is the concept of "activity" - a kind of "behavioural state": While the agent is in a certain activity A, it carries out the sequence of actions that is associated with A - and continues with it until a rule fires thus terminating the activity A and selecting a new one. By indexing these rules at the activity they are terminating and by introducing abstract activities, a framework for behaviour modelling emerges that can be structured in multifarious ways. An interpreter executing this representation scheme was developed in order to allow simulation experiments with such a multi-agent model. This simulator was integrated into a modelling and simulation environment, named SeSAm ("Shell for Simulated Agent-Systems"). Using this framework several models in different application domains are implemented: They are ranging from simple games to complex models, especially of social insects - e.g. the behaviour of ants or bees or the interactions between bee hives and mite populations. KW - Agent KW - Simulation KW - Computersimulation KW - Mehragentensystem KW - Simulation KW - Modellierung KW - Multiagentensystem KW - Regelbasiertes System KW - Simulation KW - Modelling KW - Multi-agent system KW - Rule-based Systems Y1 - 2000 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-2874 ER - TY - THES A1 - Pollinger, Felix T1 - Bewertung und Auswirkungen der Simulationsgüte führender Klimamoden in einem Multi-Modell Ensemble T1 - Evaluation and effects of the simulation quality of leading climate modes in a multi-model ensemble N2 - Der rezente und zukünftige Anstieg der atmosphärischen Treibhausgaskonzentration bedeutet für das terrestrische Klimasystem einen grundlegenden Wandel, der für die globale Gesellschaft schwer zu bewältigende Aufgaben und Herausforderungen bereit hält. Eine effektive, rühzeitige Anpassung an diesen Klimawandel profitiert dabei enorm von möglichst genauen Abschätzungen künftiger Klimaänderungen. Das geeignete Werkzeug hierfür sind Gekoppelte Atmosphäre Ozean Modelle (AOGCMs). Für solche Fragestellungen müssen allerdings weitreichende Annahmen über die zukünftigen klimarelevanten Randbedingungen getroffen werden. Individuelle Fehler dieser Klimamodelle, die aus der nicht perfekten Abbildung der realen Verhältnisse und Prozesse resultieren, erhöhen die Unsicherheit langfristiger Klimaprojektionen. So unterscheiden sich die Aussagen verschiedener AOGCMs im Hinblick auf den zukünftigen Klimawandel insbesondere bei regionaler Betrachtung, deutlich. Als Absicherung gegen Modellfehler werden üblicherweise die Ergebnisse mehrerer AOGCMs, eines Ensembles an Modellen, kombiniert. Um die Abschätzung des Klimawandels zu präzisieren, wird in der vorliegenden Arbeit der Versuch unternommen, eine Bewertung der Modellperformance der 24 AOGCMs, die an der dritten Phase des Vergleichsprojekts für gekoppelte Modelle (CMIP3) teilgenommen haben, zu erstellen. Auf dieser Basis wird dann eine nummerische Gewichtung für die Kombination des Ensembles erstellt. Zunächst werden die von den AOGCMs simulierten Klimatologien für einige grundlegende Klimaelemente mit den betreffenden klimatologien verschiedener Beobachtungsdatensätze quantitativ abgeglichen. Ein wichtiger methodischer Aspekt hierbei ist, dass auch die Unsicherheit der Beobachtungen, konkret Unterschiede zwischen verschiedenen Datensätzen, berücksichtigt werden. So zeigt sich, dass die Aussagen, die aus solchen Ansätzen resultieren, von zu vielen Unsicherheiten in den Referenzdaten beeinträchtigt werden, um generelle Aussagen zur Qualität von AOGCMs zu treffen. Die Nutzung der Köppen-Geiger Klassifikation offenbart jedoch, dass die prinzipielle Verteilung der bekannten Klimatypen im kompletten CMIP3 in vergleichbar guter Qualität reproduziert wird. Als Bewertungskriterium wird daher hier die Fähigkeit der AOGCMs die großskalige natürliche Klimavariabilität, konkret die hochkomplexe gekoppelte El Niño-Southern Oscillation (ENSO), realistisch abzubilden herangezogen. Es kann anhand verschiedener Aspekte des ENSO-Phänomens gezeigt werden, dass nicht alle AOGCMs hierzu mit gleicher Realitätsnähe in der Lage sind. Dies steht im Gegensatz zu den dominierenden Klimamoden der Außertropen, die modellübergreifend überzeugend repräsentiert werden. Die wichtigsten Moden werden, in globaler Betrachtung, in verschiedenen Beobachtungsdaten über einen neuen Ansatz identifiziert. So können für einige bekannte Zirkulationsmuster neue Indexdefinitionen gewonnen werden, die sich sowohl als äquivalent zu den Standardverfahren erweisen und im Vergleich zu diesen zudem eine deutliche Reduzierung des Rechenaufwandes bedeuten. Andere bekannte Moden werden dagegen als weniger bedeutsame, regionale Zirkulationsmuster eingestuft. Die hier vorgestellte Methode zur Beurteilung der Simulation von ENSO ist in guter Übereinstimmung mit anderen Ansätzen, ebenso die daraus folgende Bewertung der gesamten Performance der AOGCMs. Das Spektrum des Southern Oscillation-Index (SOI) stellt somit eine aussagekräftige Kenngröße der Modellqualität dar. Die Unterschiede in der Fähigkeit, das ENSO-System abzubilden, erweisen sich als signifikante Unsicherheitsquelle im Hinblick auf die zukünftige Entwicklung einiger fundamentaler und bedeutsamer Klimagrößen, konkret der globalen Mitteltemperatur, des SOIs selbst, sowie des indischen Monsuns. Ebenso zeigen sich signifikante Unterschiede für regionale Klimaänderungen zwischen zwei Teilensembles des CMIP3, die auf Grundlage der entwickelten Bewertungsfunktion eingeteilt werden. Jedoch sind diese Effekte im Allgemeinen nicht mit den Auswirkungen der anthropogenen Klimaänderungssignale im Multi-Modell Ensemble vergleichbar, die für die meisten Klimagrößen in einem robusten multivariaten Ansatz detektiert und quantifiziert werden können. Entsprechend sind die effektiven Klimaänderungen, die sich bei der Kombination aller Simulationen als grundlegende Aussage des CMIP3 unter den speziellen Randbedingungen ergeben nahezu unabhängig davon, ob alle Läufe mit dem gleichen Einfluss berücksichtigt werden, oder ob die erstellte nummerische Gewichtung verwendet wird. Als eine wesentliche Begründung hierfür kann die Spannbreite der Entwicklung des ENSO-Systems identifiziert werden. Dies bedeutet größere Schwankungen in den Ergebnissen der Modelle mit funktionierendem ENSO, was den Stellenwert der natürlichen Variabilität als Unsicherheitsquelle in Fragen des Klimawandels unterstreicht. Sowohl bei Betrachtung der Teilensembles als auch der Gewichtung wirken sich dadurch gegenläufige Trends im SOI ausgleichend auf die Entwicklung anderer Klimagrößen aus, was insbesondere bei letzterem Vorgehen signifikante mittlere Effekte des Ansatzes, verglichen mit der Verwendung des üblichen arithmetischen Multi-Modell Mittelwert, verhindert. N2 - The recent and future increase in atmospheric greenhouse gases will cause fundamental change in the terrestrial climate system, which will lead to enormous tasks and challenges for the global society. Effective and early adaptation to this climate change will benefit hugley from optimal possible estimates of future climate change. Coupled atmosphere-ocean models (AOGCMs) are the appropriate tool for this. However, to tackle these questions, it is necessary to make far reaching assumptions about the future climate-relevant boundary conditions. Furthermore there are individual errors in each climate model. These originate from flaws in reproducing the real climate system and result in a further increase of uncertainty with regards to long-range climate projections. Hence, concering future climate change, there are pronounced differences between the results of different AOGCMs, especially under a regional point of view. It is the usual approach to use a number of AOGCMs and combine their results as a safety measure against the influence of such model errors. In this thesis, an attempt is made to develop a valuation scheme and based on that a weighting scheme, for AOGCMs in order to narrow the range of climate change projections. The 24 models that were included in the third phase of the coupled model intercomparsion project (CMIP3) are used for this purpose. First some fundamental climatologies simulated by the AOGCMs are quantitatively compared to a number of observational data. An important methodological aspect of this approach is to explicitly address the uncertainty associated with the observational data. It is revealed that statements concerning the quality of climate models based on such hindcastig approaches might be flawed due to uncertainties about observational data. However, the application of the Köppen-Geiger classification reveales that all considered AOGCMs are capable of reproducing the fundamental distribution of observed types of climate. Thus, to evaluate the models, their ability to reproduce large-scale climate variability is chosen as the criterion. The focus is on one highly complex feature, the coupled El Niño-Southern Oscillation. Addressing several aspects of this climate mode, it is demonstrated that there are AOGCMs that are less successful in doing so than others. In contrast, all models reproduce the most dominant extratropical climate modes in a satisfying manner. The decision which modes are the most important is made using a distinct approach considering several global sets of observational data. This way, it is possible to add new definitions for the time series of some well-known climate patterns, which proof to be equivalent to the standard definitions. Along with this, other popular modes are identified as less important regional patterns. The presented approach to assess the simulation of ENSO is in good agreement with other approaches, as well as the resulting rating of the overall model performance. The spectrum of the timeseries of the Southern Oscillation Index (SOI) can thus be regarded as a sound parameter of the quality of AOGCMs. Differences in the ability to simulate a realistic ENSO-system prove to be a significant source of uncertainty with respect to the future development of some fundamental and important climate parameters, namely the global near-surface air mean temperature, the SOI itself and the Indian monsoon. In addition, there are significant differences in the patterns of regional climate change as simulated by two ensembles, which are constituted according to the evaluation function previously developed. However, these effects are overall not comparable to the multi-model ensembles’ anthropogenic induced climate change signals which can be detected and quantified using a robust multi-variate approach. If all individual simulations following a specific emission scenario are combined, the resulting climate change signals can be thought of as the fundamental message of CMIP3. It appears to be quite a stable one, more or less unaffected by the use of the derived weighting scheme instead of the common approach to use equal weights for all simulations. It is reasoned that this originates mainly from the range of trends in the SOI. Apparently, the group of models that seems to have a realistic ENSO-system also shows greater variations in terms of effective climate change. This underlines the importance of natural climate variability as a major source of uncertainty concerning climate change. For the SOI there are negative Trends in the multi-model ensemble as well as positive ones. Overall, these trends tend to stabilize the development of other climate parameters when various AOGCMs are combined, whether the two distinguished parts of CMIP3 are analyzed or the weighting scheme is applied. Especially in case of the latter method, this prevents significant effects on the mean change compared to the arithmetic multi-model mean. KW - Modell KW - Klima KW - Statistik KW - Anthropogene Klimaänderung KW - El-Niño-Phänomen KW - multi-model ensemble KW - großskalige Klimavariabilität KW - Gewichtung von Klimamodellen KW - large scale climate variability KW - weighting of climate models KW - Allgemeine atmosphärische Zirkulation KW - Klimatologie KW - Klimaänderung KW - Modellierung KW - Mathematisches Modell Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-97982 ER - TY - THES A1 - Kirschke, Stefanie T1 - Bilanzierung des Methanaustauschs zwischen Biosphäre und Atmosphäre in Periglazialräumen mit Hilfe von Fernerkundung und Modellen am Beispiel des Lena Deltas T1 - Balancing Methane Exchange between Biosphere and Atmosphere in Periglacial Regions Using Remote Sensing and Modeling: A Case Study for the Lena River Delta N2 - Verbleibende Unsicherheiten im Kohlenstoffhaushalt in Ökosystemen der hohen nördlichen Breiten können teilweise auf die Schwierigkeiten bei der Erfassung der räumlich und zeitlich hoch variablen Methanemissionsraten von Permafrostböden zurückgeführt werden. Methan ist ein global abundantes atmosphärisches Spurengas, welches signifikant zur Erwärmung der Atmosphäre beiträgt. Aufgrund der hohen Sensibilität des arktischen Bodenkohlenstoffreservoirs sowie der großen von Permafrost unterlagerten Landflächen sind arktische Gebiete am kritischsten von einem globalen Klimawandel betroffen. Diese Dissertation adressiert den Bedarf an Modellierungsansätzen für die Bestimmung der Quellstärke nordsibirischer permafrostbeeinflusster Ökosysteme der nassen polygonalen Tundra mit Hinblick auf die Methanemissionen auf regionalem Maßstab. Die Arbeit präsentiert eine methodische Struktur in welcher zwei prozessbasierte Modelle herangezogen werden, um die komplexen Wechselwirkungen zwischen den Kompartimenten Pedosphäre, Biosphäre und Atmosphäre, welche zu Methanemissionen aus Permafrostböden führen, zu erfassen. Es wird ein Upscaling der Gesamtmethanflüsse auf ein größeres, von Permafrost unterlagertes Untersuchungsgebiet auf Basis eines prozessbasierten Modells durchgeführt. Das prozessbasierte Vegetationsmodell Biosphere Energy Hydrology Transfer Model (BETHY/DLR) wird für die Berechnung der Nettoprimärproduktion (NPP) arktischer Tundravegetation herangezogen. Die NPP ist ein Maß für die Substratverfügbarkeit der Methanproduktion und daher ein wichtiger Eingangsparameter für das zweite Modell: Das prozessbasierte Methanemissionsmodell wird anschließend verwendet, um die Methanflüsse einer gegebenen Bodensäule explizit zu berechnen. Dabei werden die Prozesse der Methanogenese, Methanotrophie sowie drei verschiedene Transportmechanismen – molekulare Diffusion, Gasblasenbildung und pflanzengebundener Transport durch vaskuläre Pflanzen – berücksichtigt. Das Methanemissionsmodell ist für Permafrostbedingungen modifiziert, indem das tägliche Auftauen des Permafrostbodens in der kurzen arktischen Vegetationsperiode berücksichtigt wird. Der Modellantrieb besteht aus meteorologischen Datensätzen des European Center for Medium-Range Weather Forecasts (ECMWF). Die Eingangsdatensätze werden mit Hilfe von in situ Messdaten validiert. Zusätzliche Eingangsdaten für beide Modelle werden aus Fernerkundungsdaten abgeleitet, welche mit Feldspektralmessungen validiert werden. Eine modifizierte Landklassifikation auf der Basis von Landsat-7 Enhanced Thematic Mapper Plus (ETM+) Daten wird für die Ableitung von Informationen zu Feuchtgebietsverteilung und Vegetationsbedeckung herangezogen. Zeitserien der Auftautiefe werden zur Beschreibung des Auftauens bzw. Rückfrierens des Bodens verwendet. Diese Faktoren sind die Haupteinflussgrößen für die Modellierung von Methanemissionen aus permafrostbeeinflussten Tundraökosystemen. Die vorgestellten Modellergebnisse werden mittels Eddy-Kovarianz-Messungen der Methanflüsse validiert, welche während der Vegetationsperioden der Jahre 2003-2006 im südlichen Teil des Lena Deltas (72°N, 126°E) vom Alfred Wegener Institut für Polar- und Meeresforschung (AWI) durchgeführt wurden. Das Untersuchungsgebiet Lena Delta liegt an der Laptewsee in Nordostsibirien und ist durch Ökosysteme der arktischen nassen polygonalen Tundra sowie kalten kontinuierlichen Permafrost charakterisiert. Zeitlich integrierte Werte der modellierten Methanflüsse sowie der in situ Messungen zeigen gute Übereinstimmungen und weisen auf eine leichte Modellunterschätzung von etwa 10%. N2 - Remaining uncertainties in the carbon budget of high latitude ecosystems are partly due to difficulties in assessing methane emission rates from permafrost soils the source strengths of which are highly variable in space and time. Methane is a globally abundant atmospheric trace gas that contributes significantly to the warming of the atmosphere. Due to the high sensitivity of the arctic soil carbon reservoir and the large surface area underlain by permafrost, arctic regions are most critically influenced by a changing climate. This dissertation addresses the need for modelling approaches to determine the source strength of northern Siberian permafrost affected wet polygonal tundra ecosystems with regard to methane emission on the regional scale. It presents a methodical structure wherein two process-based models are used to capture the complex interrelated processes between pedosphere, biosphere and atmosphere that lead to methane emission from permafrost soils on the regional scale. Upscaling of methane fluxes for a larger permafrost site is performed using results of a process-based model. The process-based vegetation model Biosphere Energy Transfer Hydrology Model (BETHY/DLR) is applied to estimate net primary productivity (NPP) of arctic tundra vegetation. NPP is parameterized as a measure for substrate availability for methane production and thus an important input parameter for the second model: the process-based wetland methane emission model is subsequently used to explicitly model methane fluxes for a given soil column, taking into account methanogenesis, methane oxidation and three different transport mechanisms, namely molecular diffusion, ebullition and plant-mediated transport through vascular plants. The methane emission model is modified for permafrost conditions by explicitly considering daily thawing of permafrost during the short arctic growing season. Model forcing consists of meteorological data sets obtained from the European Center for Medium-Range Weather Forecasts (ECMWF). Input data sets are validated against field measurements. Auxiliary input data for both models are derived from satellite imagery and validated by field spectral measurements. A modified land use/land classification (LULC) scheme based on Landsat-7 Enhanced Thematic Mapper Plus (ETM+) data is used to derive information on wetland distribution and vegetation cover. Time series of active layer thickness are used to describe thawing/freezing of soils. These parameters are key factors in modelling methane emissions from permafrost influenced tundra ecosystems. Validation of presented model results is performed using eddy covariance measurements of methane flux on the landscape scale carried out during the growing seasons 2003-2006 in the southern part of the Lena Delta (72°N, 126°E) by Alfred Wegener Institute for Polar and Marine Research (AWI). The Lena Delta study site is located at the Laptev Sea in northeast Siberia and is characterized by arctic wet polygonal tundra ecosystems and cold continuous permafrost. Timeintegrated values for modelled methane fluxes and in situ measurements compare reasonably well and indicate a moderate model underestimation of about 10%. KW - Methanemission KW - Satellitenfernerkundung KW - Modellierung KW - Lenadelta KW - Treibhausgas KW - Tundra KW - Kohlenstoffkreislauf KW - methane emission KW - satellite remote sensing KW - modeling KW - Lena River Delta KW - carbon cycle Y1 - 2008 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-29024 ER - TY - THES A1 - Steininger, Michael T1 - Deep Learning for Geospatial Environmental Regression T1 - Deep Learning für Regressionsmodelle mit georäumlichen Umweltdaten N2 - Environmental issues have emerged especially since humans burned fossil fuels, which led to air pollution and climate change that harm the environment. These issues’ substantial consequences evoked strong efforts towards assessing the state of our environment. Various environmental machine learning (ML) tasks aid these efforts. These tasks concern environmental data but are common ML tasks otherwise, i.e., datasets are split (training, validatition, test), hyperparameters are optimized on validation data, and test set metrics measure a model’s generalizability. This work focuses on the following environmental ML tasks: Regarding air pollution, land use regression (LUR) estimates air pollutant concentrations at locations where no measurements are available based on measured locations and each location’s land use (e.g., industry, streets). For LUR, this work uses data from London (modeled) and Zurich (measured). Concerning climate change, a common ML task is model output statistics (MOS), where a climate model’s output for a study area is altered to better fit Earth observations and provide more accurate climate data. This work uses the regional climate model (RCM) REMO and Earth observations from the E-OBS dataset for MOS. Another task regarding climate is grain size distribution interpolation where soil properties at locations without measurements are estimated based on the few measured locations. This can provide climate models with soil information, that is important for hydrology. For this task, data from Lower Franconia is used. Such environmental ML tasks commonly have a number of properties: (i) geospatiality, i.e., their data refers to locations relative to the Earth’s surface. (ii) The environmental variables to estimate or predict are usually continuous. (iii) Data can be imbalanced due to relatively rare extreme events (e.g., extreme precipitation). (iv) Multiple related potential target variables can be available per location, since measurement devices often contain different sensors. (v) Labels are spatially often only sparsely available since conducting measurements at all locations of interest is usually infeasible. These properties present challenges but also opportunities when designing ML methods for such tasks. In the past, environmental ML tasks have been tackled with conventional ML methods, such as linear regression or random forests (RFs). However, the field of ML has made tremendous leaps beyond these classic models through deep learning (DL). In DL, models use multiple layers of neurons, producing increasingly higher-level feature representations with growing layer depth. DL has made previously infeasible ML tasks feasible, improved the performance for many tasks in comparison to existing ML models significantly, and eliminated the need for manual feature engineering in some domains due to its ability to learn features from raw data. To harness these advantages for environmental domains it is promising to develop novel DL methods for environmental ML tasks. This thesis presents methods for dealing with special challenges and exploiting opportunities inherent to environmental ML tasks in conjunction with DL. To this end, the proposed methods explore the following techniques: (i) Convolutions as in convolutional neural networks (CNNs) to exploit reoccurring spatial patterns in geospatial data. (ii) Posing the problems as regression tasks to estimate the continuous variables. (iii) Density-based weighting to improve estimation performance for rare and extreme events. (iv) Multi-task learning to make use of multiple related target variables. (v) Semi–supervised learning to cope with label sparsity. Using these techniques, this thesis considers four research questions: (i) Can air pollution be estimated without manual feature engineering? This is answered positively by the introduction of the CNN-based LUR model MapLUR as well as the off-the-shelf LUR solution OpenLUR. (ii) Can colocated pollution data improve spatial air pollution models? Multi-task learning for LUR is developed for this, showing potential for improvements with colocated data. (iii) Can DL models improve the quality of climate model outputs? The proposed DL climate MOS architecture ConvMOS demonstrates this. Additionally, semi-supervised training of multilayer perceptrons (MLPs) for grain size distribution interpolation is presented, which can provide improved input data. (iv) Can DL models be taught to better estimate climate extremes? To this end, density-based weighting for imbalanced regression (DenseLoss) is proposed and applied to the DL architecture ConvMOS, improving climate extremes estimation. These methods show how especially DL techniques can be developed for environmental ML tasks with their special characteristics in mind. This allows for better models than previously possible with conventional ML, leading to more accurate assessment and better understanding of the state of our environment. N2 - Umweltprobleme sind vor allem seit der Verbrennung fossiler Brennstoffe durch den Menschen entstanden. Dies hat zu Luftverschmutzung und Klimawandel geführt, was die Umwelt schädigt. Die schwerwiegenden Folgen dieser Probleme haben starke Bestrebungen ausgelöst, den Zustand unserer Umwelt zu untersuchen. Verschiedene Ansätze des maschinellen Lernens (ML) im Umweltbereich unterstützen diese Bestrebungen. Bei diesen Aufgaben handelt es sich um gewöhnliche ML-Aufgaben, z. B. werden die Datensätze aufgeteilt (Training, Validation, Test), Hyperparameter werden auf den Validierungsdaten optimiert, und die Metriken auf den Testdaten messen die Generalisierungsfähigkeit eines Modells, aber sie befassen sich mit Umweltdaten. Diese Arbeit konzentriert sich auf die folgenden Umwelt-ML-Aufgaben: In Bezug auf Luftverschmutzung schätzt Land Use Regression (LUR) die Luftschadstoffkonzentration an Orten, an denen keine Messungen verfügbar sind auf Basis von gemessenen Orten und der Landnutzung (z. B. Industrie, Straßen) der Orte. Für LUR werden in dieser Arbeit Daten aus London (modelliert) und Zürich (gemessen) verwendet. Im Zusammenhang mit dem Klimawandel ist eine häufige ML-Aufgabe Model Output Statistics (MOS), bei der die Ausgaben eines Klimamodells so angepasst werden, dass sie mit Erdbeobachtungen besser übereinstimmen. Dadurch werden genauere Klimadaten erzeugt. Diese Arbeit verwendet das regionale Klimamodell REMO und Erdbeobachtungen aus dem E-OBS-Datensatz für MOS. Eine weitere Aufgabe im Zusammenhang mit dem Klima ist die Interpolation von Korngrößenverteilungen. Hierbei werden Bodeneigenschaften an Orten ohne Messungen auf Basis von wenigen gemessenen Orten geschätzt, um Klimamodelle mit Bodeninformationen zu versorgen, die für die Hydrologie wichtig sind. Für diese Aufgabe werden in dieser Arbeit Bodenmessungen aus Unterfranken herangezogen. Solche Umwelt-ML-Aufgaben haben oft eine Reihe von Eigenschaften: (i) Georäumlichkeit, d. h. ihre Daten beziehen sich auf Standorte relativ zur Erdoberfläche. (ii) Die zu schätzenden oder vorherzusagenden Umweltvariablen sind normalerweise kontinuierlich. (iii) Daten können unbalanciert sein, was auf relativ seltene Extremereignisse (z. B. extreme Niederschläge) zurückzuführen ist. (iv) Pro Standort können mehrere verwandte potenzielle Zielvariablen verfügbar sein, da Messgeräte oft verschiedene Sensoren enthalten. (v) Zielwerte sind räumlich oft nur spärlich vorhanden, da die Durchführung von Messungen an allen gewünschten Orten in der Regel nicht möglich ist. Diese Eigenschaften stellen eine Herausforderung, aber auch eine Chance bei der Entwicklung von ML-Methoden für derlei Aufgaben dar. In der Vergangenheit wurden ML-Aufgaben im Umweltbereich mit konventionellen ML-Methoden angegangen, wie z. B. lineare Regression oder Random Forests (RFs). In den letzten Jahren hat der Bereich ML jedoch durch Deep Learning (DL) enorme Fortschritte über diese klassischen Modelle hinaus gemacht. Bei DL verwenden die Modelle mehrere Schichten von Neuronen, die mit zunehmender Schichtungstiefe immer abstraktere Merkmalsdarstellungen erzeugen. DL hat zuvor undurchführbare ML-Aufgaben realisierbar gemacht, die Leistung für viele Aufgaben im Vergleich zu bestehenden ML-Modellen erheblich verbessert und die Notwendigkeit für manuelles Feature-Engineering in einigen Bereichen aufgrund seiner Fähigkeit, Features aus Rohdaten zu lernen, eliminiert. Um diese Vorteile für ML-Aufgaben in der Umwelt nutzbar zu machen, ist es vielversprechend, geeignete DL-Methoden für diesen Bereich zu entwickeln. In dieser Arbeit werden Methoden zur Bewältigung der besonderen Herausforderungen und zur Nutzung der Möglichkeiten von Umwelt-ML-Aufgaben in Verbindung mit DL vorgestellt. Zu diesem Zweck werden in den vorgeschlagenen Methoden die folgenden Techniken untersucht: (i) Faltungen wie in Convolutional Neural Networks (CNNs), um wiederkehrende räumliche Muster in Geodaten zu nutzen. (ii) Probleme als Regressionsaufgaben stellen, um die kontinuierlichen Variablen zu schätzen. (iii) Dichtebasierte Gewichtung zur Verbesserung der Schätzungen bei seltenen und extremen Ereignissen. (iv) Multi-Task-Lernen, um mehrere verwandte Zielvariablen zu nutzen. (v) Halbüber- wachtes Lernen, um auch mit wenigen bekannten Zielwerten zurechtzukommen. Mithilfe dieser Techniken werden in der Arbeit vier Forschungsfragen untersucht: (i) Kann Luftverschmutzung ohne manuelles Feature Engineering geschätzt werden? Dies wird durch die Einführung des CNN-basierten LUR-Modells MapLUR sowie der automatisierten LUR–Lösung OpenLUR positiv beantwortet. (ii) Können kolokalisierte Verschmutzungsdaten räumliche Luftverschmutzungsmodelle verbessern? Hierfür wird Multi-Task-Learning für LUR entwickelt, das Potenzial für Verbesserungen mit kolokalisierten Daten zeigt. (iii) Können DL-Modelle die Qualität der Ausgaben von Klimamodellen verbessern? Die vorgeschlagene DL-MOS-Architektur ConvMOS demonstriert das. Zusätzlich wird halbüberwachtes Training von Multilayer Perceptrons (MLPs) für die Interpolation von Korngrößenverteilungen vorgestellt, das verbesserte Eingabedaten liefern kann. (iv) Kann man DL-Modellen beibringen, Klimaextreme besser abzuschätzen? Zu diesem Zweck wird eine dichtebasierte Gewichtung für unbalancierte Regression (DenseLoss) vorgeschlagen und auf die DL-Architektur ConvMOS angewendet, um die Schätzung von Klimaextremen zu verbessern. Diese Methoden zeigen, wie speziell DL-Techniken für Umwelt-ML-Aufgaben unter Berücksichtigung ihrer besonderen Eigenschaften entwickelt werden können. Dies ermöglicht bessere Modelle als konventionelles ML bisher erlaubt hat, was zu einer genaueren Bewertung und einem besseren Verständnis des Zustands unserer Umwelt führt. KW - Deep learning KW - Modellierung KW - Umwelt KW - Geospatial KW - Environmental KW - Regression KW - Neuronales Netz KW - Maschinelles Lernen KW - Geoinformationssystem Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-313121 ER - TY - THES A1 - Ring, Christoph T1 - Entwicklung und Vergleich von Gewichtungsmetriken zur Analyse probabilistischer Klimaprojektionen aktueller Modellensembles T1 - Development and comparison of metrics for probabilistic climate change projections of state-of-the-art climate models N2 - Der anthropogene Klimawandel ist eine der größten Herausforderungen des 21. Jahrhunderts. Eine Hauptschwierigkeit liegt dabei in der Unsicherheit bezüglich der regionalen Änderung von Niederschlag und Temperatur. Hierdurch wird die Entwicklung geeigneter Anpassungsstrategien deutlich erschwert. In der vorliegenden Arbeit werden vier Evaluationsansätze mit insgesamt 13 Metriken für aktuelle globale (zwei Generationen) und regionale Klimamodelle entwickelt und verglichen, um anschließend eine Analyse der Projektionsunsicherheit vorzunehmen. Basierend auf den erstellten Modellbewertungen werden durch Gewichtung Aussagen über den Unsicherheitsbereich des zukünftigen Klimas getroffen. Die Evaluation der Modelle wird im Mittelmeerraum sowie in acht Unterregionen durchgeführt. Dabei wird der saisonale Trend von Temperatur und Niederschlag im Evaluationszeitraum 1960–2009 ausgewertet. Zusätzlich wird für bestimmte Metriken jeweils das klimatologische Mittel oder die harmonischen Zeitreiheneigenschaften evaluiert. Abschließend werden zum Test der Übertragbarkeit der Ergebnisse neben den Hauptuntersuchungsgebieten sechs global verteilte Regionen untersucht. Außerdem wird die zeitliche Konsistenz durch Analyse eines zweiten, leicht versetzten Evaluationszeitraums behandelt, sowie die Abhängigkeit der Modellbewertungen von verschiedenen Referenzdaten mit Hilfe von insgesamt drei Referenzdatensätzen untersucht. Die Ergebnisse legen nahe, dass nahezu alle Metriken zur Modellevaluierung geeignet sind. Die Auswertung unterschiedlicher Variablen und Regionen erzeugt Modellbewertungen, die sich in den Kontext aktueller Forschungsergebnisse einfügen. So wurde die Leistung der globalen Klimamodelle der neusten Generation (2013) im Vergleich zur Vorgängergeneration (2007) im Schnitt ähnlich hoch bzw. in vielen Situationen auch stärker eingeordnet. Ein durchweg bestes Modell konnte nicht festgestellt werden. Der Großteil der entwickelten Metriken zeigt für ähnliche Situationen übereinstimmende Modellbewertungen. Bei der Gewichtung hat sich der Niederschlag als besonders geeignet herausgestellt. Grund hierfür sind die im Schnitt deutlichen Unterschiede der Modellleistungen in Zusammenhang mit einer geringeren Simulationsgüte. Umgekehrt zeigen die Metriken für die Modelle der Temperatur allgemein überwiegend hohe Evaluationsergebnisse, wodurch nur wenig Informationsgewinn durch Gewichtung erreicht werden kann. Während die Metriken gut für unterschiedliche Regionen und Skalenniveaus verwendet werden Evaluationszeiträume nicht grundsätzlich gegeben. Zusätzlich zeigen die Modellranglisten unterschiedlicher Regionen und Jahreszeiten häufig nur geringe Korrelationen. Dies gilt besonders für den Niederschlag. Bei der Temperatur sind hingegen leichte Übereinstimmungen auszumachen. Beim Vergleich der mittleren Ranglisten über alle Modellbewertungen und Situationen der Hauptregionen des Mittelmeerraums mit den Globalregionen besteht eine signifikante Korrelation von 0,39 für Temperatur, während sie für Niederschlag um null liegt. Dieses Ergebnis ist für alle drei verwendeten Referenzdatensätze im Mittelmeerraum gültig. So schwankt die Korrelation der Modellbewertungen des Niederschlags für unterschiedliche Referenzdatensätze immer um Null und die der Temperaturranglisten zwischen 0,36 und 0,44. Generell werden die Metriken als geeignete Evaluationswerkzeuge für Klimamodelle eingestuft. Daher können sie einen Beitrag zur Änderung des Unsicherheitsbereichs und damit zur Stärkung des Vertrauens in Klimaprojektionen leisten. Die Abhängigkeit der Modellbewertungen von Region und Untersuchungszeitraum muss dabei jedoch berücksichtigt werden. So besitzt die Analyse der Konsistenz von Modellbewertungen sowie der Stärken und Schwächen der Klimamodelle großes Potential für folgende Studien, um das Vertrauen in Modellprojektionen weiter zu steigern. N2 - Climate change is one of the major tasks of the 21st century. The uncertainty of precipitation and temperature change is considered as a main challenge in this context. Thus, the development of appropriate adaptation strategies is very difficult. In this study, four climate model evaluation approaches with 13 metrics in total are developed and compared. Current global (two generations) and regional climate models are evaluated to assess projection uncertainty. Based on model performances, weighting is applied to future climate projections to estimate simulation uncertainty. The evaluations are performed in the Mediterranean and eight sub-regions. Seasonal trend of temperature and precipitation are evaluated for the period 1960–2009. For some metrics, the climatological mean and the spectra of the time series are evaluated as well. In addition, six globally distributed study areas are evaluated to test the metrics’ transferability. Further, temporal consistency is assessed by the evaluation of a second slightly shifted timeframe. Finally, three reference datasets are considered in order to analyse the dependence of the evaluation results between each other. Results indicate that most metrics are suitable to evaluate climate models. Their application to different variables and regions generates reasonable model assessments which fit in the context of current publications in this field of research. In many situations, the results of the current model generation (2013) are similar or better compared to those of the last generation (2007). One single model with superior performance for all variables and situations cannot be found. Most metrics show similar estimations of performances for the same situations. Precipitation turned out to be more suitable for model weighting. Here, the differences between model weights are larger because of overall higher spread and lower model performances. Against this, there are mostly high performances on an equal level for simulations of temperature which lead to a minor added value of weighting. While metrics can easily be transferred and applied to different regions and scales, some evaluation results depend on the evaluated timeframe. Further, the model rankings for different regions and seasons show only minor correlations for most situations. This is particularly true for precipitation. However, for temperature there are some significant positive correlations. Comparing the mean ranking over all evaluation results of the main study areas of the Mediterranean with that of the globally distributed regions, there is a significant correlation of 0.39 for temperature and a correlation around zero for precipitation. The choice of reference dataset for the Mediterranean areas is subordinated in this context. For different reference datasets, the overall rankings show correlations around zero for precipitation while those for temperature are between 0.36 and 0.44. Overall, the metrics are suitable for the evaluation of climate models. Thus, they offer promising contributions to improve the range of uncertainty and therefore to enhance the general confidence in climate projections. However, dependence of model assessments on the analysed region and evaluation timeframe has to be considered. Consequently, the analyses of consistency of model evaluations and of climate model strengths and weaknesses have great potential for future studies, to further enhance confidence in climate projections. KW - Anthropogene Klimaänderung KW - Unsicherheit KW - Klima KW - Modellierung KW - Statistik KW - Evaluierung und Gewichtung von Klimamodellen KW - Niederschlag und Temperatur KW - weighting of climate models Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-157294 ER - TY - THES A1 - Rygielski, Piotr T1 - Flexible Modeling of Data Center Networks for Capacity Management T1 - Elastische Modellierung von Rechenzentren-Netzen zwecks Kapazitätsverwaltung N2 - Nowadays, data centers are becoming increasingly dynamic due to the common adoption of virtualization technologies. Systems can scale their capacity on demand by growing and shrinking their resources dynamically based on the current load. However, the complexity and performance of modern data centers is influenced not only by the software architecture, middleware, and computing resources, but also by network virtualization, network protocols, network services, and configuration. The field of network virtualization is not as mature as server virtualization and there are multiple competing approaches and technologies. Performance modeling and prediction techniques provide a powerful tool to analyze the performance of modern data centers. However, given the wide variety of network virtualization approaches, no common approach exists for modeling and evaluating the performance of virtualized networks. The performance community has proposed multiple formalisms and models for evaluating the performance of infrastructures based on different network virtualization technologies. The existing performance models can be divided into two main categories: coarse-grained analytical models and highly-detailed simulation models. Analytical performance models are normally defined at a high level of abstraction and thus they abstract many details of the real network and therefore have limited predictive power. On the other hand, simulation models are normally focused on a selected networking technology and take into account many specific performance influencing factors, resulting in detailed models that are tightly bound to a given technology, infrastructure setup, or to a given protocol stack. Existing models are inflexible, that means, they provide a single solution method without providing means for the user to influence the solution accuracy and solution overhead. To allow for flexibility in the performance prediction, the user is required to build multiple different performance models obtaining multiple performance predictions. Each performance prediction may then have different focus, different performance metrics, prediction accuracy, and solving time. The goal of this thesis is to develop a modeling approach that does not require the user to have experience in any of the applied performance modeling formalisms. The approach offers the flexibility in the modeling and analysis by balancing between: (a) generic character and low overhead of coarse-grained analytical models, and (b) the more detailed simulation models with higher prediction accuracy. The contributions of this thesis intersect with technologies and research areas, such as: software engineering, model-driven software development, domain-specific modeling, performance modeling and prediction, networking and data center networks, network virtualization, Software-Defined Networking (SDN), Network Function Virtualization (NFV). The main contributions of this thesis compose the Descartes Network Infrastructure (DNI) approach and include: • Novel modeling abstractions for virtualized network infrastructures. This includes two meta-models that define modeling languages for modeling data center network performance. The DNI and miniDNI meta-models provide means for representing network infrastructures at two different abstraction levels. Regardless of which variant of the DNI meta-model is used, the modeling language provides generic modeling elements allowing to describe the majority of existing and future network technologies, while at the same time abstracting factors that have low influence on the overall performance. I focus on SDN and NFV as examples of modern virtualization technologies. • Network deployment meta-model—an interface between DNI and other meta- models that allows to define mapping between DNI and other descriptive models. The integration with other domain-specific models allows capturing behaviors that are not reflected in the DNI model, for example, software bottlenecks, server virtualization, and middleware overheads. • Flexible model solving with model transformations. The transformations enable solving a DNI model by transforming it into a predictive model. The model transformations vary in size and complexity depending on the amount of data abstracted in the transformation process and provided to the solver. In this thesis, I contribute six transformations that transform DNI models into various predictive models based on the following modeling formalisms: (a) OMNeT++ simulation, (b) Queueing Petri Nets (QPNs), (c) Layered Queueing Networks (LQNs). For each of these formalisms, multiple predictive models are generated (e.g., models with different level of detail): (a) two for OMNeT++, (b) two for QPNs, (c) two for LQNs. Some predictive models can be solved using multiple alternative solvers resulting in up to ten different automated solving methods for a single DNI model. • A model extraction method that supports the modeler in the modeling process by automatically prefilling the DNI model with the network traffic data. The contributed traffic profile abstraction and optimization method provides a trade-off by balancing between the size and the level of detail of the extracted profiles. • A method for selecting feasible solving methods for a DNI model. The method proposes a set of solvers based on trade-off analysis characterizing each transformation with respect to various parameters such as its specific limitations, expected prediction accuracy, expected run-time, required resources in terms of CPU and memory consumption, and scalability. • An evaluation of the approach in the context of two realistic systems. I evaluate the approach with focus on such factors like: prediction of network capacity and interface throughput, applicability, flexibility in trading-off between prediction accuracy and solving time. Despite not focusing on the maximization of the prediction accuracy, I demonstrate that in the majority of cases, the prediction error is low—up to 20% for uncalibrated models and up to 10% for calibrated models depending on the solving technique. In summary, this thesis presents the first approach to flexible run-time performance prediction in data center networks, including network based on SDN. It provides ability to flexibly balance between performance prediction accuracy and solving overhead. The approach provides the following key benefits: • It is possible to predict the impact of changes in the data center network on the performance. The changes include: changes in network topology, hardware configuration, traffic load, and applications deployment. • DNI can successfully model and predict the performance of multiple different of network infrastructures including proactive SDN scenarios. • The prediction process is flexible, that is, it provides balance between the granularity of the predictive models and the solving time. The decreased prediction accuracy is usually rewarded with savings of the solving time and consumption of resources required for solving. • The users are enabled to conduct performance analysis using multiple different prediction methods without requiring the expertise and experience in each of the modeling formalisms. The components of the DNI approach can be also applied to scenarios that are not considered in this thesis. The approach is generalizable and applicable for the following examples: (a) networks outside of data centers may be analyzed with DNI as long as the background traffic profile is known; (b) uncalibrated DNI models may serve as a basis for design-time performance analysis; (c) the method for extracting and compacting of traffic profiles may be used for other, non-network workloads as well. N2 - Durch Virtualisierung werden moderne Rechenzentren immer dynamischer. Systeme sind in der Lage ihre Kapazität hoch und runter zu skalieren , um die ankommende Last zu bedienen. Die Komplexität der modernen Systeme in Rechenzentren wird nicht nur von der Softwarearchitektur, Middleware und Rechenressourcen sondern auch von der Netzwerkvirtualisierung beeinflusst. Netzwerkvirtualisierung ist noch nicht so ausgereift wie die Virtualisierung von Rechenressourcen und es existieren derzeit unterschiedliche Netzwerkvirtualisierungstechnologien. Man kann aber keine der Technologien als Standardvirtualisierung für Netzwerke bezeichnen. Die Auswahl von Ansätzen durch Performanzanalyse von Netzwerken stellt eine Herausforderung dar, weil existierende Ansätze sich mehrheitlich auf einzelne Virtualisierungstechniken fokussieren und es keinen universellen Ansatz für Performanzanalyse gibt, der alle Techniken in Betracht nimmt. Die Forschungsgemeinschaft bietet verschiedene Performanzmodelle und Formalismen für Evaluierung der Performanz von virtualisierten Netzwerken an. Die bekannten Ansätze können in zwei Gruppen aufgegliedert werden: Grobetaillierte analytische Modelle und feindetaillierte Simulationsmodelle. Die analytischen Performanzmodelle abstrahieren viele Details und liefern daher nur beschränkt nutzbare Performanzvorhersagen. Auf der anderen Seite fokussiert sich die Gruppe der simulationsbasierenden Modelle auf bestimmte Teile des Systems (z.B. Protokoll, Typ von Switches) und ignoriert dadurch das große Bild der Systemlandschaft. ... KW - Modellierung KW - Leistungsbewertung KW - Netzwerk KW - Meta-modeling KW - Model transformation KW - Performance analysis KW - Simulation Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-146235 ER - TY - THES A1 - Paxian, Andreas T1 - Future changes in climate means and extremes in the Mediterranean region deduced from a regional climate model T1 - Zukünftige Veränderungen von Klimamittelwerten und -extremwerten im Mittelmeerraum abgeleitet von einem regionalen Klimamodell N2 - The Mediterranean area reveals a strong vulnerability to future climate change due to a high exposure to projected impacts and a low capacity for adaptation highlighting the need for robust regional or local climate change projections, especially for extreme events strongly affecting the Mediterranean environment. The prevailing study investigates two major topics of the Mediterranean climate variability: the analysis of dynamical downscaling of present-day and future temperature and precipitation means and extremes from global to regional scale and the comprehensive investigation of temperature and rainfall extremes including the estimation of uncertainties and the comparison of different statistical methods for precipitation extremes. For these investigations, several observational datasets of CRU, E-OBS and original stations are used as well as ensemble simulations of the regional climate model REMO driven by the coupled global general circulation model ECHAM5/MPI-OM and applying future greenhouse gas (GHG) emission and land degradation scenarios. N2 - Der Mittelmeerraum weist eine starke Vulnerabilität gegenüber dem zukünftigen Klimawandel auf, da für diese Region starke klimatische Auswirkungen vorhergesagt werden, aber nur eine geringe Anpassungsfähigkeit besteht. Daher werden präzise Vorhersagen des regionalen oder lokalen Klimawandels benötigt, v.a. für Extremereignisse, welche den Mittelmeer-Lebensraum stark beeinträchtigen. Die vorliegende Studie untersucht zwei Hauptaspekte der Klimavariabilität im Mittelmeerraum: Zum Einen wird das dynamische Downscaling gegenwärtiger und zukünftiger Mittelwerte und Extremereignisse von Temperatur und Niederschlag von der globalen zur regionalen Skala analysiert. Zum Anderen wird eine umfassende Untersuchung von Temperatur- und Niederschlagsextremen samt Unsicherheitsabschätzung und Vergleich unterschiedlicher statistischer Methoden zur Bestimmung von Niederschlagsextremen durchgeführt. Für diese Untersuchungen stehen verschiedene Beobachtungsdaten von CRU, E-OBS und Messstationen sowie Ensemble-Simulationen des regionalen Klimamodells REMO zur Verfügung, das vom gekoppelten globalen “General Circulation Model” ECHAM5/MPI-OM angetrieben wird und zukünftige Treibhausgasemissions- und Landnutzungsänderungs-Szenarien verwendet. KW - Mittelmeerraum KW - Klima KW - Klimaänderung KW - Temperatur KW - Modell KW - Niederschlag KW - Klimaschwankung KW - Klimamodellierung KW - regionales Klimamodell KW - Mittelmeer KW - Modellierung KW - Extremwertstatistik KW - climate modelling KW - regional climate model Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-72155 ER - TY - THES A1 - Külls, Christoph T1 - Groundwater of the North-Western Kalahari, Namibia T1 - Das Grundwasser am Nord-Westrand der Kalahari, Namibia N2 - A quantitative model of groundwater flows contributing to the Goblenz state water scheme at the north-western fringe of the Kalahari was developed within this study. The investigated area corresponds to the Upper Omatako basin and encompasses an outer mountainous rim and sediments of the Kalahari sand desert in the centre. This study revealed the eminent importance of the mountainous rim for the water balance of the Kalahari, both in terms of surface and ground water. A hydrochemical subdivision of groundwater types in the mountain rim around the Kalahari was derived from cluster analysis of hydrochemical groundwater data. The western and south-western secondary aquifers within rocks of the Damara Sequence, the Otavi Mountain karst aquifers of the Tsumeb and Abenab subgroups as well as the Waterberg Etjo sandstone aquifer represent the major hydrochemical groups. Ca/Mg and Sr/Ca ratios allowed to trace the groundwater flow from the Otavi Mountains towards the Kalahari near Goblenz. The Otavi Mountains and the Waterberg were identified as the main recharge areas showing almost no or only little isotopic enrichment by evaporation. Soil water balance modelling confirmed that direct groundwater recharge in hard-rock environments tends to be much higher than in areas covered with thick Kalahari sediments. According to the water balance model average recharge rates in hard-rock exposures with only thin sand cover are between 0.1 and 2.5 % of mean annual rainfall. Within the Kalahari itself very limited recharge was predicted (< 1 % of mean annual rainfall). In the Upper Omatako basin the highest recharge probability was found in February in the late rainfall season. The water balance model also indicated that surface runoff is produced sporadically, triggering indirect recharge events. Several sinkholes were discovered in the Otavi Foreland to the north of Goblenz forming short-cuts to the groundwater table and preferential recharge zones. Their relevance for the generation of indirect recharge could be demonstrated by stable isotope variations resulting from observed flood events. Within the Kalahari basin several troughs were identified in the pre-Kalahari surface by GIS-based analyses. A map of saturated thickness of Kalahari sediments revealed that these major troughs are partly saturated with groundwater. The main trough, extending from south-west to north-east, is probably connected to the Goblenz state water scheme and represents a major zone of groundwater confluence, receiving groundwater inflows from several recharge areas in the Upper Omatako basin. As a result of the dominance of mountain front recharge the groundwater of the Kalahari carries an isotopic composition of recharge at higher altitudes. The respective percentages of inflow into the Kalahari from different source areas were determined by a mixing-cell approach. According to the mixing model Goblenz receives most of its inflow (70 to 80 %) from a shallow Kalahari aquifer in the Otavi Foreland which is connected to the Otavi Mountains. Another 15 to 10 % of groundwater inflow to the Kalahari at Goblenz derive from the Etjo sandstone aquifer to the south and from inflow of a mixed component. In conclusion, groundwater abstraction at Goblenz will be affected by measures that heavily influence groundwater inflow from the Otavi Mountains, the Waterberg, and the fractured aquifer north of the Waterberg. N2 - Ziel dieser Arbeit ist es, die Herkunft des Grundwassers zu untersuchen, das in der Nähe von Goblenz am Rand der Namibianischen Kalahari in den letzten Jahren erschlossen worden ist. Fragen zur Erneuerbarkeit dieser Grundwasserreserven aus direkter und indirekter Neubildung und zur Rolle lateraler, unterirdischer Zuflüsse von unterschiedlichen Herkunftsräumen waren hierfür zu beantworten. Dies erforderte eine kombinierte Anwendung hydro(geo)logischer, hydrochemischer und isotopenhydrologischer Methoden. Das Arbeitsgebiet in Namibia ist als semi-arid zu bezeichnen und durch ein subtropisches Klimaregime geprägt. Aufgrund der hohen Temperaturen während der Regenzeit verdunstet ein erheblicher Teil der Niederschläge direkt oder durch Transpiration. Daher ist die Kalahari trotz der zum Teil für semi-aride Gebiete vergleichbar hohen Niederschläge von 350 bis über 550 mm/Jahr relativ arm an Oberflächen- und verfügbarem Grundwasser. Ein wesentliches Merkmal des Arbeitsgebietes ist zudem die Dichotomie zwischen dem äußeren Festgesteinsbereich und dem überwiegend mit Sanden bedeckten Kalahari-Becken. Für das Grundwasserfließsystem der Kalahari ist der äußere Festgesteinsbereich bestimmend. Der erstellte regionale Grundwassergleichenplan zeigt ein annähernd zentripetales Fließmuster, das in der Nähe von Goblenz konvergiert, mit einer Hauptentwässerung zur Groß-Kalahari Richtung Osten. Die Neubildungsgebiete liegen in den unterschiedlichen zum Teil verkarsteten Festgesteinsbereichen der Damara Sequenz und des Etjo-Sandsteins (Waterberg). Allerdings konnte auch innerhalb der Kalahari südlich von Goblenz ein begrenztes Grundwasserneubildungsgebiet identifiziert werden. In diesem Bereich haben sich durch die Verkarstung anstehender Kalkkrusten gute Neubildungsbedingungen für das flache Grundwasser entwickelt. Durch die Kombination digitaler Rasterkarten der Geländehöhe, der Kalahari-Mächtigkeit und der Grundwasserstände konnte eine Karte der Bereiche erstellt werden, in denen die Kalahari mit Grundwasser gesättigt ist. Ein Vergleich mit digitalisierten Karten aus früheren geophysikalischen Untersuchungen zeigte eine gute Übereinstimmung. Daraus konnte ein verallgemeinertes Modell der Sättigungsmächtigkeit abgeleitet werden. Aus diesem Modell werden zwei mit Kalahari-Sedimenten verfüllte und gesättigte Rinnen erkennbar. Diese Rinnen sind bevorzugte Fließbahnen für die Grundwasserbewegung vom Festgesteinsrand zum Zentrum des Kalahari-Beckens und stellen zudem Erkundungs- und Erschließungsziele für Grundwasser dar. Die Wassererschließung von Goblenz grenzt an die größere nördliche Rinne. Eine Karte der Mächtigkeit der ungesättigten Zone wurde aus der Verschneidung des digitalen Geländemodells mit einem interpolierten Grundwassergleichenplan errechnet. Diese Karte deutet auf ausgedehnte Bereiche geringer Flurabstände im südlichen und nördlichen Teil des Einzugsgebietes Oberer Omatako hin. Diese Informationen wurden zudem als wesentliche Grundlagen für die regionale Interpretation der stabilen Isotope verwendet. Die Grundwasserneubildung im Oberen Omatako wurde mit mehreren Methoden vergleichend abgeschätzt. Eine klimatische Wasserbilanz aus Tageswerten des Niederschlages (Nt) und der gemessenen Pfannenverdunstung (Vt) zeigte, daß die Neubildung des Grundwassers im Februar am wahrscheinlichsten ist. Nur Niederschlagsereignisse mit hoher Jährlichkeit vermögen dabei auf Tagesbasis die erforderliche Neubildungsbedingung Nt > Vt zu erfüllen. Daraus ergibt sich, daß Grund-wasserneubildung in der Regel nur infolge zeitlicher oder räumlicher Konzentration von Niederschlägen und Abflüssen erfolgen kann und unter Umständen nicht jährlich stattfindet. Eine Erweiterung der klimatischen Wasserbilanz um die Modellierung des Bodenwasserhaushaltes wurde schließlich verwendet, um für den Bereich ‚Grootfontein‘ eine detaillierte Betrachtung der Grundwasserneubildung aufgrund von Tageswerten zu ermöglichen. Das Bodenwasserhaushaltsmodell wurde zunächst mit empirisch erhobenen bodenphysikalischen Kennwerten belegt und dann anhand von Grundwasserständen kalibriert. Dabei ergaben sich Neubildungsraten von 0.4 bis 9.6 mm/Jahr oder von 0.1 bis 2.5 % des jeweiligen jährlichen Niederschlages. Ein Zusammenhang zwischen dem Jahresmittel des Niederschlages und der Neubildungsrate war nicht ausgeprägt, die Häufung hoher Intensitäten täglicher Niederschläge erwies sich aber als ein wesentlicher Faktor für hohe direkte Neubildungsraten. Auch die Bodenwassermodellierung deutete auf eine höhere Wahrscheinlichkeit der Grundwasserneubildung im Februar hin. Die mit der Chloridmethode ermittelte Neubildungsrate lag mit 8.5 bis 14 mm/Jahr für dieses Gebiet höher. Der Unterschied kann sich aus den bei der Chloridmethode zusätzlich berücksichtigten Komponenten des Makroporenflusses, der indirekten Neubildung und aus anderen lateralen Zuflüssen ergeben. Geländebeobachtungen zeigten jedoch, daß solche Modellergebnisse nur begrenzt verallgemeinerbar oder übertragbar sind. Im Otavi Vorland nördlich von Goblenz wurde eine Reihe von Schlucklöchern entdeckt. Diese haben sich unter geringmächtiger Sandbedeckung in Kalkkrusten durch Verkarstung entwickelt und sind durch das Einbrechen der oberen Bodenschicht vereinzelt sichtbar geworden. Zum einen deuten diese Schlucklöcher auf eine Veränderung der Grundwasserstände hin. Die Kalkkrusten, die sich im Quellgebiet unterhalb der Otavi-Berge durch Calcitausfällung entwickelt hatten, sind durch das Absinken der Grundwasserstände und durch die Aufwehung von Kalahari-Sanden nun lokal verkarstet und wiederum zu Neubildungsgebieten geworden. Solche Schlucklöcher können bevorzugte Fließ- und Überbrückungsbahnen zum Grundwasser darstellen. Die hydrologische Funktion solcher Schlucklöcher läßt sich mit physikalischen Modellen im regionalen Maßstab quantitativ schwer erfassen. Es wurden hydrochemische und Isotopen-Methoden zur indirekten Abschätzung des Fließsystems herangezogen. Zunächst wurde eine generelle Charakterisierung der Grundwässer anhand der Hauptelementchemie und mittels der hierarchischen Cluster-Analyse vorgenommen. Hierbei ließen sich fünf wesentliche Hauptgruppen im Arbeitsgebiet erkennen: Ca-HCO3-Wässer finden sich in den Bereichen der Damara Sequenz, in denen Marmore anstehen und gute Neubildungsbedingungen bieten, Ca-Mg-HCO3-Wässer und Mg-Ca-HCO3-Wässer sind charakteristisch für den Otavi Karst und das ihm vorgelagerte Otavi Vorland. Das Grundwasser im Etjo-Sandstein des Waterberges zeichnet sich durch eine äußerst geringe Mineralisierung und ein ausgeglichenes Verhältnis von Erdalkalien und Alkalien bei hohen Hydrogenkarbonat-Gehalten aus. In der Kalahari und in tieferen Grundwasser-Stockwerken des Otavi-Vorlandes treten schließlich Grundwässer mit hohen Natrium und Chlorid-Gehalten auf. Das Ca/Mg-Verhältnis und das Sr/Ca Verhältnis erwiesen sich als ausgezeichnete hydrochemische Indikatoren für die Unterscheidung von Grundwasser aus dem Otavi Karst und aus den sekundären Aquiferen der Damara Sequenz. Anhand von äußerst geringen molaren Sr/Ca Verhältnissen konnte der Abstrom des Grundwassers aus dem Otavi Karst in die Kalahari genau abgegrenzt und verfolgt werden. Die Chloridkonzentrationen im Grundwasser wurden im Hinblick auf die Anreicherung im Vergleich zum Niederschlag untersucht. Dabei wurden in den Festgesteinsbereichen Konzentrationen zwischen 25 und 100 mg/l festgestellt, die auf Anreicherungsfaktoren von ca. 25 bis 200 bzw. hindeuten. Dies entspricht unter vereinfachten Annahmen Neubildungsraten in der Größenordnung von 2 bis 20 mm/Jahr. In der Kalahari liegen die Konzentrationen von Chlorid mit 250 bis 750 mg/l im Mittel wesentlich höher; diese können in einigen Bereichen 5000 mg/l übersteigen. Eine Umrechnung in Neubildungsraten kann wegen der Konvergenz der Fließbahnen und möglicher geogener Quellen nicht mehr direkt erfolgen, allerdings deuten die hohen Chloridkonzentrationen auf Bereiche mit Verdunstungsverlusten und auf deutlich geringere Neubildungsraten innerhalb der Kalahari hin. Dieses gilt nicht für zwei Bereiche, in denen die Kalahari gering mächtig ist: Im Abstrom dieser Gebiete liegen die Chloridkonzentrationen deutlich niedriger und zeigen lokal erhöhte Neubildung des Grundwassers an. Eine weitergehende Charakterisierung der Wasserchemie und der Isotopenzusammensetzung erfolgte anhand von Grundwasserproben im direkten Umfeld von Goblenz. Hydrochemische Profile durch das Arbeitsgebiet deuteten Mischungsprozesse zwischen Endgliedern der fünf hydrochemischen Gruppen an. So konnte entlang des Flusses Omambonde Richtung Goblenz der laterale Zustrom von Grundwasser aus dem Etjo Sandstein von Westen und der Zustrom von dolomitischem Grundwasser qualitativ nachgewiesen werden. Ebenso ließen sich hydrochemische Hinweise auf eine Neubildung im Otavi Vorland finden, eventuell verursacht durch Versickerung in den beobachteten Schlucklöchern. Eine Untersuchung der stabilen Isotope 18O und 2H bestätigte die qualitativen Aussagen aus den Untersuchungen zur klimatischen Wasserbilanz: Aufgrund der deutlichen Verschiebung zwischen der mittleren gewichteten Isotopen-Zusammensetzung des Niederschlages und des Grundwassers erfolgt die Neubildung wahrscheinlich durch wenige intensive (und an schweren Isotopen abgereicherte) Niederschläge. Die Grundwässer der Kalahari haben eine ursprüngliche Isotopen-zusammensetzung, die derjenigen von hochgelegenen Niederschlagsgebieten entspricht (> 1750 m ü. NN). Damit ergibt sich ein weiterer Hinweis darauf, daß das Grundwasser der Kalahari entweder durch Sturzfluten gebildet wird, die sich in den höher liegenden Festgesteinsbereichen entwickeln, oder direkt im Randbereich neugebildet wird und der Kalahari unterirdisch zuströmt. Die zeitliche Variabilität der Isotopenzusammensetzung begrenzt die Trennschärfe für regionale Analysen. Nördlich von Goblenz im Bereich der beobachteten Schlucklöcher konnte anhand einer Zeitreihe der Isotopenzusammensetzung die Bedeutung von Sturzfluten für die Grundwasserneubildung direkt nachgewiesen werden. Die 14C und 3H Daten bestätigten die Abgrenzung der Neubildungsbereiche. Die aus den hydrogeologischen, hydrologischen, hydrochemischen und isotopen-hydrologischen Teiluntersuchungen gewonnenen Erkenntnisse wurden in einem Konzeptmodell des Grundwasserfließsystems Goblenz zusammengetragen. Aufgrund dieses Konzeptmodells wurden mit einem inversen hydrochemischen Mischungsansatz die jeweiligen Anteile aus den einzelnen Neubildungsgebieten berechnet. Hierzu wurde zunächst über thermodynamische Gleichgewichts-betrachtungen sichergestellt, daß die Annahme konservativen Verhaltens der für die Berechnung verwendeten Wasserinhaltsstoffe für das nähere Arbeitsgebiet um Goblenz gewährleistet war. Kritische Bereiche wurden als ‚Reaktions-Zonen‘ von den ‚Mischungs-Zonen‘ abgegrenzt und nicht in die mathematische Berechnung einbezogen. Der Etjo-Sandstein als Mischungszelle für den Bereich nördlich von Goblenz stellte für die Verwendung dieses nicht-reaktiven Mischungsansatzes im Arbeitsgebiet nahezu ideale Voraussetzungen dar. Zur praktischen Umsetzung des mathematischen Ansatzes wurde ein Programm (MIG, „Mixing Input Generator“) zur interaktiven Erstellung von Mischungsmodellen geschrieben (Anhang 1). Über ein iteratives Verfahren wurden schließlich die Fließraten ermittelt, welche sowohl die Wasserbilanz und als auch die Massenbilanz aller betrachteten Hauptelemente und Isotopen im Arbeitsgebiet optimal erklären. Durch dieses Verfahren wurde errechnet, daß ca. 70 bis 80 Prozent des Wassers, das in Goblenz gefördert wird, aus den Otavi Bergen stammt. Weitere 15 bis 10 % stammen jeweils aus dem Etjo Sandstein bzw. aus einer Mischkomponente von Grundwässern nördlich des Waterbergs. Detailbetrachtungen der Mischungskomponenten im Otavi Vorland zeigten, daß hier in einigen Bereichen eine Zumischung von geringen Anteilen neugebildeten Grundwassers erfolgt, in anderen Bereichen höher mineralisiertes Tiefenwasser zutritt. Der konservative Mischungsansatz stellt unter günstigen Bedingungen ein geeignetes Mittel zur inversen Berechnung von Fließraten dar. Allerdings sind dazu wie in diesem Falle umfangreiche Voruntersuchungen notwendig. Goblenz liegt in einem Konvergenzgebiet von Grundwasserströmen aus unterschiedlichen Neubildungsgebieten im Festgesteinsbereich. Für Goblenz ist der laterale Zustrom von Grundwasser aus dem Otavi Karst und dem Waterberg die entscheidende Wasserhaus-haltskomponente. Die direkte Neubildung in der Kalahari ist dagegen relativ gering. Allerdings kann eine zusätzliche Neubildung in verkarsteten und kaum oder nur mit geringmächtigen Sanden bedeckten Kalkkrusten eine Rolle spielen. KW - Kalahari KW - Grundwasser KW - Kalahari KW - Grundwasserbildung KW - Hydrogeologie KW - Namibia KW - Grundwasser KW - Kalahari KW - Isotope KW - Modellierung KW - Ground water KW - Kalahari KW - isotopes KW - modelling Y1 - 2000 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-1180680 ER - TY - THES A1 - Borgstedt, Ariane T1 - Grundwasserneubildung im Einzugsgebiet des Ouham, Zentralafrikanische Republik : Bestimmung mit klassischen Methoden und einer computergestützten Modellierung T1 - Groundwaterrecharge in the cathmentarea of the river Ouham, Central African Republic. Determination with classical evaluation methods and a computer bades modelisation N2 - Ziel dieser Arbeit war es, die Grundwasserneubildung im Einzugsgebiet des Ouham mit den vorhandenen zum Teil sehr lückenhaften Daten zu bestimmen. Hierbei sollten unterschiedliche Methoden in der wechselfeuchten, subtropischen Klimazone verglichen und bewertet werden. Das Arbeitsgebiet umfasst das Einzugsgebiet des Oberlaufes des Ouham, eines Flusses im Nordwesten der Zentralafrikanischen Republik. Das hier untersuchte Flussnetz gehört zum Einzugsgebiet des Chari und fließt dem abflusslosen Tschadbecken zu. Das Einzugsgebiet des Ouham liegt in der sahel-sudanischen Klimazone. Zwischen November und März bzw. April herrschen hier trockene Nordostwinde vor, d.h. messbarer Oberflächenabfluss findet in der Trockenzeit lediglich in den Flüssen erster Ordnung statt. Von Mai bis Oktober bestimmen feuchte Südwestwinde das Wetter, es bilden sich zusätzlich zu den Abflüssen erster Ordnung Abflüsse dort, wo es Morphologie und Bodenverhältnisse zulassen. Das Abflussverhalten des Ouham wird im Untersuchungsgebiet an fünf Flusspegeln gemessen. Die größten Abflussspenden treten im Westen auf, mit der Abnahme des Niederschlags nach Osten nimmt auch die Abflussspende der einzelnen Einzugsgebiete ab. Die maximalen Abflussmengen der einzelnen Pegel werden in den westlicheren Teileinzugsgebieten im September gemessen, in den östlicheren Teileinzugsgebieten erstreckt sich das Maximum über September und Oktober bzw. Oktober. Der Niederschlag nimmt von Südwesten nach Nordosten kontinuierlich ab, dieser allgemeine Trend wird durch die Steigungsregen am Massiv von „Bakoré“ modifiziert. Niederschlagsreiche Jahre sind 1951 bis 1952, 1954 bis 1955, 1957, 1960, 1962, 1963 und 1969, ausgeprägt niederschlagsarme Jahre sind 1972, 1973, 1977, 1982 bis 1984 und 1986 bis 1987. Das Untersuchungsgebiet besteht zum größten Teil aus einem proterozoischen Granit-Gneis-Sockel, der im äußersten Südwesten von mesozoischen Sandsteinen bedeckt ist. Das gesamte Grundgebirge ist von einer Vielzahl von Störungen durchzogen, deren Hauptstörungsrichtung Nordwest – Südost, bzw. senkrecht dazu verläuft. Innerhalb großer Störungs- und Intrusionsbereiche ist das Gestein stärker geklüftet. Die Grundwasserneubildung wurde mit unterschiedlichen Methoden berechnet, zum erst auf der Basis von Abflussdaten nach drei unterschiedlichen Verfahren (WUNDT, KILLE, MAILLET), dann mit der Wasserhaushaltsgleichung und durch eine Modellierung der Wasserbilanz mit dem Programm MODBIL . Die ermittelten unterirdischen Abflüsse differieren deutlich. Am höchsten sind die Abflussmengen nach WUNDT, am niedrigsten sind die nach MAILLET berechneten. Für das Einzugs¬gebiet des Ouham, mit der vorhandenen, im Westen deutlich ausgeprägten Topo¬graphie und den heftigen schub¬weise erfolgenden Niederschlägen, wurde die nach KILLE ermittelten Grundwasserneubildungsraten als realistisch gegenüber den Grundwasserneubildungsraten nach WUNDT angesehen. Die Grundwasserneubildung nimmt aufgrund des unterschiedlichen Wasserdargebotes von Westen nach Osten ab, im Westen werden in niederschlagsreichen Jahren 150 mm/Jahr, während es im Osten lediglich 79 mm/Jahr sind. In niederschlagsarmen Jahren nimmt die Grundwasserneubildung von 106 mm/Jahr im Westen auf 64 mm/Jahr im Osten ab. Nach MAILLET wird eine Grundwasserneubildungsrate von 50 mm/Jahr im Westen und 26 mm/Jahr im Osten berechnet, sie stellt ein Mindestmaß an Grundwasserneubildung dar. Die Bestimmung der Grundwasserneubildung mit der Wasserhaushaltsgleichung wurde als Plausibilitätskontrolle der aus Abflussdaten ermittelten Werte durchgeführt. Die ermittelten Grundwasserneubildungsraten liegen deutlich über denen nach dem Verfahren von KILLE und MAILLET berechneten. In einem weiteren Verfahren wurde die Berechnung der Grundwasserneubildung durch Modellierung der Wasser¬bilanz mit dem Programm MODBIL durchgeführt. Hierbei werden vorhandene Punktdaten wie Niederschlag, Temperatur und Verdunstung mit primär existierenden Raumdaten wie Topographie, Morphologie, Landnutzung und Geologie in Raumdaten umgewandelt und auf Grundlage des Bodenwasserhaushaltes die aktuelle Verdunstung, der Abfluss und die Grundwasserneubildung berechnet. Die berechneten Mittelwerte von effektivem Niederschlag, potentieller und aktueller Verdunstung der einzelnen Teileinzugsgebiete lassen einen deutlichen West-Ost-Trend erkennen. Der höchste effektive Niederschlag fällt im westlichsten Einzugsgebiet und nimmt weiter nach Osten weiter ab. Potentielle und aktuelle Verdunstung nehmen von Westen nach Osten zu, wobei bei der aktuellen Verdunstung dieser Trend nicht sehr stark ausgeprägt ist. Das mittlere Abflussverhalten der Teileinzugsgebiete folgt keinem deutlichen West-Ost-Trend. Im Gegensatz dazu nimmt die Grundwasserneubildung von Westen nach Osten ab. N2 - The main object of this work was to determine the groundwater recharge in the catchment area of the river Ouham, Central African Republic, with the existing partially fragmentary data by using different methods. The different approaches have been tested and evaluated for their applicability in subtropical areas. The river Ouham flowing in the Northwest of the Central African Republic is part of the catchment area of the river Chari and drains into the Lake Chad Basin. The area under investigation is part of the humid alternating tropics, therefore hot and dry winds coming from the Northeast are predominant from November to March or April. In this time surface runoff is taking place only in rivers of first order. From Mai to October humid winds coming from the Southeast dominate the weather. Surface runoff is formed not only in rivers of first order but everywhere the morphology and the soil characteristics admits it. The surface runoff is measured with the five staff gauges. The western part of catchment area shows the highest specific discharge, while this decreases to the east due to lower precipitation. The maximum rate of runoff is measured in September in the western catchment area, in the eastern part of the catchment areas this occurs in October. Precipitation is continuously decreasing from Southwest to Northeast with the exception of the mountainous region of “Bakoré”. Years with high of precipitation were 1951, 1952, 1954 to 1955, 1957, 1960, 1962, 1963 and 1969, whereas 1972, 1973, 1977, 1982 to 1984 and 1986 to 1987 were years with low precipitation. The area of investigation consists mainly of a proterozoic basement build of granite and gneiss, which is overlaid in the Southwest with mesozoic sandstones. The whole basement area is crossed by many faults running mainly Northwest – Southeast or perpendicular to it. Within big areas of faulting and intrusion the rock is highly fissured. The groundwater recharge is calculated first with runoff data, secondly with the “hydrological book-keeping equation” and than with a computer-based program called MODBIL. The calculation based on runoff data was carried out with the methods of WUNDT, KILLE and MAILLET. The results differ clearly. The maximum groundwater recharge was calculated with WUNDT, the minimum recharge is the one of MAILLET. For the catchment area of the river Ouham with a highly pronounced topography in the West and heavy and batch-wise precipitation, the groundwater recharge calculated with KILLE seems to be the most realistic one. The groundwater recharge decreases with the decreasing available water supply from West to East. In the West it amounts to 150 mm/year in years with lots of precipitation, whereas in the East it only comes to 79 mm/year. In years of poor of precipitation the calculated groundwater recharge is 106 mm/year in the West and 64 mm/year in the East. The results of the MAILLET-method show a recharge rate of 50 mm/year in the West and of 26 mm/year in the East which is a minimum of the groundwater recharge. The determination of the recharge with “hydrological book-keeping equation” is done as a plausibility control of the results obtained with runoff data. The recharge rates of the “hydrological book-keeping equation” are clearly higher than the one calculated with the methods of KILLE and MAILLET. With the computer-based program MODBIL point data such as precipitation, temperature and evaporation are transferred into space data using primary existing space data as topography, morphology, land use and geology. The actual evaporation, the runoff and the groundwater recharge is calculated on the basis of soil water household. The averages of the effective precipitation, potential and actual evaporation show a clear West-East-tendency. The highest effective precipitation is falling in the westernmost part of the catchment area and decreases to the East. Potential and actual evaporation increases from West to East, but this tendency is only slightly visible for the actual evaporation. The average runoff behaviour does not show any tendency. Contrary to this, the groundwater recharge decreases clearly from West to East. The rates of recharge are in the same dimension as the ones calculated with KILLE. KW - Ouham KW - Grundwasserbildung KW - Grundwasserneubildung KW - Zentralafrika KW - Modellierung Y1 - 2003 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-10892 ER -