TY - THES A1 - Mederer, Joachim T1 - Water Resources and Dynamics of the Troodos Igneous Aquifer-system, Cyprus - Balanced Groundwater Modelling - T1 - Grundwasserdynamik und Ressourcen des Troodos Aquifersystems, Zypern - Bilanzierte Grundwassermodellierung - N2 - The study investigates the water resources and aquifer dynamics of the igneous fractured aquifer-system of the Troodos Mountains in Cyprus, using a coupled, finite differences water balance and groundwater modelling approach. The numerical water balance modelling forms the quantitative framework by assessing groundwater recharge and evapotranspiration, which form input parameters for the groundwater flow models. High recharge areas are identified within the heavily fractured Gabbro and Sheeted Dyke formations in the upper Troodos Mountains, while the impervious Pillow Lava promontories - with low precipitation and high evapotranspiration - show unfavourable recharge conditions. Within the water balance studies, evapotranspiration is split into actual evapotranspiration and the so called secondary evapotranspiration, representing the water demand for open waters, moist and irrigated areas. By separating the evapotranspiration of open waters and moist areas from the one of irrigated areas, groundwater abstraction needs are quantified, allowing the simulation of single well abstraction rates in the groundwater flow models. Two sets of balanced groundwater models simulate the aquifer dynamics in the presented study: First, the basic groundwater percolation system is investigated using two-dimensional vertical flow models along geological cross-sections, depicting the entire Troodos Mountains up to a depth of several thousands of metres. The deeply percolating groundwater system starts in the high recharge areas of the upper Troodos, shows quasi stratiform flow in the Gabbro and Sheeted Dyke formations, and rises to the surface in the vicinity of the impervious Pillow Lava promontories. The residence times mostly yield less than 25 years, the ones of the deepest fluxes several hundreds of years. Moreover, inter basin flow and indirect recharge of the Circum Troodos Sedimentary Succession are identified. In a second step, the upper and most productive part of the fractured igneous aquifer-system is investigated in a regional, horizontal groundwater model, including management scenarios and inter catchment flow studies. In a natural scenario without groundwater abstractions, the recovery potential of the aquifer is tested. Predicted future water demand is simulated in an increased abstraction scenario. The results show a high sensitivity to well abstraction rate changes in the Pillow Lava and Basal Group promontories. The changes in groundwater heads range from a few tens of metres up to more than one hundred metres. The sensitivity in the more productive parts of the aquifer-system is lower. Inter-catchment flow studies indicate that - besides the dominant effluent conditions in the Troodos Mountains - single reaches show influent conditions and are sub-flown by groundwater. These fluxes influence the local water balance and generate inter catchment flow. The balanced groundwater models form thus a comprehensive modelling system, supplying future detail models with information concerning boundary conditions and inter-catchment flow, and allowing the simulation of impacts of landuse or climate change scenarios on the dynamics and water resources of the Troodos aquifer-system. N2 - Die vorliegende Arbeit untersucht die Grundwasserressourcen und die hydraulische Dynamik des Troodos Kluftaquifersystems in Zypern mit Hilfe gekoppelter numerischer Wasserhaushalts- und Grundwasserströmungsmodelle auf Rasterbasis. Die Wasserhaushaltsmodelle quantifizieren die hydrologischen Rahmenparameter des Untersuchungsgebietes. Grundwasserneubildung und Evapotranspiration werden als Eingangsparameter der Grundwassermodelle weiterverarbeitet. Die Grundwasserneubildung ist in den niederschlagsreichen Regionen des höheren Troodos Gebirges, im Bereich der stark geklüfteten Gabbro und Sheeted Dyke Lithologien, am höchsten, nimmt zu den Vorgebirgen ab und erreicht dort ein Minimum in den gering durchlässigen Pillow Lava Sequenzen. Die Evapotranspiration zeigt einen umgekehrten Trend. Zusätzlich zur aktuellen Evapotranspiration wird eine sogenannten Sekundär-Evapotranspiration ermittelt, die sich – unabhängig von der Bodenfeuchte – aus der Verdunstung von Wasser-, Feucht- und Bewässerungsgebieten berechnet. Dieses Konzept erlaubt die Ermittlung der Verdunstungsmenge der bewässerten Flächen und somit die Abschätzung regionaler Grundwasserentnahmeraten, die als Brunnenentnahme in die Grundwassermodelle eingearbeitet werden. Mit zweidimensionalen, bilanzierten, vertikalen Grundwassermodellen, die entlang geologischer Schnitte durch das Untersuchungsgebiet verlaufen, wurde die Grundwasserströmung bis zu einer Tiefe von mehreren Kilometern hoch auflösend simuliert. Die generelle Strömungscharakteristik zeigt eine dominierende Vertikalkomponente in den Neubildungsgebieten des hohen Troodos, quasi stratiforme Strömung in den Mittelläufen im Bereich der Gabbros und Sheeted Dykes, und einen relativen Anstieg des Potentials und Grundwasserausfluss im Bereich der geringdurchlässigen Pillow Laven der Vorgebirge. Indirekte Neubildung durch Grundwasser aus dem Troodos kann in den überlagernden Sedimenten nachgewiesen werden, ebenso wie Lateralflüsse zwischen den Einzugsgebieten. Die Grundwasserverweildauer liegt meist bei wenigen Jahrzehnten. Ausnahmen bilden tiefe Strömungen aus dem hohen Troodos, die Verweilraten von mehreren Jahrhunderten erreichen. Der oberflächennahe, stark geklüftete und für die Wasserwirtschaft wichtige Teil des Aquifersystems wurde in einem horizontalen, den gesamten Troodos umfassenden Grundwassermodell nachgebildet. Bewirtschaftungsszenarien ohne bzw. mit gesteigerten Entnahmeraten simulieren die Dynamik dieses Aquifers. Die Ergebnisse zeigen, dass die Sensitivität auf die Änderung der Entnahmeraten regional sehr unterschiedlich ist. In den Entnahmegebieten des hohen und mittleren Troodos liegen die Spiegelschwankungen meist bei wenigen Metern bis Zehnermetern, während die Schwankungen in den gering durchlässigen und niederschlagsarmen Vorgebirgen teilweise mehr als hundert Meter betragen können. Das laterale Strömungsverhalten wird in einzelnen Test-Einzugsgebieten im Troodos untersucht. Während in den Untersuchungsgebieten generell effluente Grundwasserverhältnisse vorherrschen, gibt es Seitentäler, die vom Grundwasser unterströmt werden und die Grundwasser in benachbarte Einzugsgebiete abgeben. Diese Lateralflüsse können lokal die Wasserbilanz von Einzugsgebieten im Troodos beeinflussen. Die bilanzierten Grundwassermodelle illustrieren sowohl die Tiefenströmung mit hoher Auflösung als auch den oberflächennahen, wasserwirtschaftlich interessanteren Teil des Troodos - Kluftaquifersystems und zeigen die großflächigen Auswirkungen von Änderungen der Grundwasserentnahmerate. Die bilanzierten Grundwassermodelle stellen somit ein Übersichtsmodellsystem dar, mit dessen Hilfe Randbedingungen und Lateralflüsse für zukünftige Detailmodelle bestimmt, sowie Auswirkung künftiger Klima- bzw. Landnutzungsänderungen auf die Dynamik und die Grundwasserressourcen des Troodos Aquifersystems abgeschätzt werden können. KW - Zypern KW - Troodos KW - Hydrogeologie KW - Wasserreserve KW - Modellierung KW - Wasserhaushalt KW - Grundwassermodelle KW - Ophiolith KW - Kluftaquifer KW - Groundwater KW - Modelling KW - Waterbalance KW - Ophiolite Y1 - 2009 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-37306 ER - TY - THES A1 - Heldens, Wieke T1 - Use of airborne hyperspectral data and height information to support urban micro climate characterisation T1 - Anwendung von Hyperspektraldaten und Höheninformationen zur Unterstützung der städtischen Mikroklimacharakterisierung N2 - The urban micro climate has been increasingly recognised as an important aspect for urban planning. Therefore, urban planners need reliable information on the micro climatic characteristics of the urban environment. A suitable spatial scale and large spatial coverage are important requirements for such information. This thesis presents a conceptual framework for the use of airborne hyperspectral data to support urban micro climate characterisation, taking into account the information needs of urban planning. The potential of hyperspectral remote sensing in characterising the micro climate is demonstrated and evaluated by applying HyMap airborne hyperspectral and height data to a case study of the German city of Munich. The developed conceptual framework consists of three parts. The first is concerned with the capabilities of airborne hyperspectral remote sensing to map physical urban characteristics. The high spatial resolution of the sensor allows to separate the relatively small urban objects. The high spectral resolution enables the identification of the large range of surface materials that are used in an urban area at up to sub-pixel level. The surface materials are representative for the urban objects of which the urban landscape is composed. These spatial urban characteristics strongly influence the urban micro climate. The second part of the conceptual framework provides an approach to use the hyperspectral surface information for the characterisation of the urban micro climate. This can be achieved by integrating the remote sensing material map into a micro climate model. Also spatial indicators were found to provide useful information on the micro climate for urban planners. They are commonly used in urban planning to describe building blocks and are related to several micro climatic parameters such as temperature and humidity. The third part of the conceptual framework addresses the combination and presentation of the derived indicators and simulation results under consideration of the planning requirements. Building blocks and urban structural types were found to be an adequate means to group and present the derived information for micro climate related questions to urban planners. The conceptual framework was successfully applied to a case study in Munich. Airborne hyperspectral HyMap data has been used to derive a material map at sub-pixel level by multiple endmember linear spectral unmixing. This technique was developed by the German Research Centre for Geosciences (GFZ) for applications in Dresden and Potsdam. A priori information on building locations was used to support the separation between spectrally similar materials used both on building roofs and non-built surfaces. In addition, surface albedo and leaf area index are derived from the HyMap data. The sub-pixel material map supported by object height data is then used to derive spatial indicators, such as imperviousness or building density. To provide a more detailed micro climate characterisation at building block level, the surface materials, albedo, leaf area index (LAI) and object height are used as input for simulations with the micro climate model ENVI-met. Concluding, this thesis demonstrated the potential of hyperspectral remote sensing to support urban micro climate characterisation. A detailed mapping of surface materials at sub-pixel level could be performed. This provides valuable, detailed information on a large range of spatial characteristics relevant to the assessment of the urban micro climate. The developed conceptual framework has been proven to be applicable to the case study, providing a means to characterise the urban micro climate. The remote sensing products and subsequent micro climatic information are presented at a suitable spatial scale and in understandable maps and graphics. The use of well-known spatial indicators and the framework of urban structural types can simplify the communication with urban planners on the findings on the micro climate. Further research is needed primarily on the sensitivity of the micro climate model towards the remote sensing based input parameters and on the general relation between climate parameters and spatial indicators by comparison with other cities. N2 - Für die Stadtplanung werden klimatische Aspekte zunehmend wichtiger, weil die Klimaveränderung besonders in Städten die Lebensqualität beeinflussen kann. Hierfür benötigen Stadtplaner detaillierte Basis-Informationen über die mikroklimatischen Eigenschaften des urbanen Gebietes. Dabei sind ein ausreichend detaillierter Maß stab sowie eine groß flächige Abdeckung wichtige Voraussetzungen. Das Ziel dieser Dissertation ist die Entwicklung und Anwendung von einem konzeptionellen Rahmenwerk, wie räumlich und spektral höchst aufgelöste Fernerkundungsdaten zur stadtklimatischen Charakterisierung verwendet werden können. Hierbei sollten die Anforderungen der Stadtplaner berücksichtigt werden. Zusätzliches Ziel ist das Potenzial dieser sog. hyperspektralen Fernerkundung zur Charakterisierung des Mikroklimas zu demonstrieren. Dazu wird das konzeptionelle Rahmenwerk an Hand des Fallbeispiels der Stadt München unter Verwendung von HyMap-Daten angewendet und evaluiert. Das entwickelte Rahmenwerk besteht aus drei Teilen: Der erste Teil beschreibt, wie relevante Parameter aus Daten eines flugzeuggetragenen Hyperspektralsensors abgeleitet werden können. Der zweite Teil des Konzepts beschreibt einen Ansatz, wie hyperspektrale Datenprodukte für die Charakterisierung des Mikroklimas angewendet werden können. Im dritten Teil des Rahmenwerkes wird angesprochen wie unter Berücksichtigung der Anforderungen der Stadtplaner die abgeleiteten Indikatoren und Klimasimulationen kombiniert und aufbereitet werden können. Dieses Rahmenwerk wurde für das konkrete Fallbeispiel der Stadt München erfolgreich angewendet. Daten des flugzeuggetragenen HyMap-Hyperspektralsensors wurden verwendet, um die Subpixel-Materialkarten abzuleiten. Mittels einer 'multiple endmember spectral mixture analyis', welche durch das Deutschen GeoForschungszentrum (GFZ) für Anwendungen in Dresden und Potsdam entwickelt wurde, können die Oberflächenmaterialen abgeleitet werden. Zur Verbesserung des Produkts wurden zusätzlich a-priori-Informationen zu den Gebäudestandorten integriert, um die Unterscheidung von Gebäudedächern und Freiflächen mit spektral ähnlichen Materialien zu unterstützen. Die resultierende Subpixel-Materialkarte ist das Schlüsselprodukt für den entwickelten Ansatz. Als ein weiters Produkt wurden Albedo und Blattflächenindex aus den Hyperspektraldaten abgeleitet. Im nächsten Schritt wurde die Subpixel-Materialkarte mit den Höhendaten kombiniert und daraus räumliche Indikatoren wie Versiegelungsgrad oder Bebauungsdichte abgeleitet. Solche Indikatoren werden in der Stadtplanung häufig verwendet, um Baublöcke zu charakterisieren. Zusätzlich besteht ein Zusammenhang zwischen diesen Indikatoren und verschiedenen stadtklimatischen Parametern wie der Temperatur oder der Luftfeuchte. Für eine detaillierte Charakterisierung des Mikroklimas innerhalb eines Baublocks wurden die Fernerkundungsprodukte (Oberflächenmaterial, Albedo, Blattflächenindex und Höhendaten) als Inputdaten für das Mikroklimamodell ENVI-met verwendet. Zusammenfassend demonstriert diese Dissertation das Potenzial der hyperspektralen Fernerkundung zur Unterstützung von Mikroklima-Charakterisierung. Oberflächenmaterialien konnten hierfür thematisch detailliert bis auf sub-Pixel Level identifiziert werden. Mit den erzeugten hyperspektralen Fernerkundungsprodukten konnte eine detaillierte Beschreibung der relevanten räumlichen Merkmale erzielt werden, welche von groß er Relevanz für die Bewertung des städtischen Mikroklimas sind. Das entwickelte konzeptionelle Rahmenwerk hat sich für das Fallbeispiel als sehr geeignet erwiesen. Es ermöglichte die Charakterisierung des städtischen Mikroklima auf Basis des ENVI-met Modells. Die Fernerkundungsprodukte und die darauf basierenden Mikroklima-Informationen wurden mit einem geeigneten räumlichen Maß stab und als intuitiv verständliche Karten und Abbildungen dargestellt. Die Verwendung allgemein bekannter räumlicher Indikatoren und das Klassifikationsschema nach Stadtstrukturtypen vereinfachen die Kommunikation mit Stadtplanern über die stadtklimatischen Erkenntnisse. Weitere Forschungsschritte sind unter anderem notwendig um die Sensitivität des Mikroklimamodells gegenüber den fernerkundungsbasierten Inputparametern genauer zu charakterisieren und um die allgemeine Beziehungen zwischen Klimaparametern und räumlichen Indikatoren durch den Vergleich mit weiteren Städten näher zu untersuchen. KW - Mikroklima KW - Modellierung KW - Stadtklima KW - Fernerkundung KW - hyperspektrale Fernerkundung KW - Höhendaten KW - Mikroklimamodellierung KW - lineare spektrale Entmischung KW - HyMap KW - hyperspectral remote sensing KW - height data KW - micro climate modelling KW - linear spectral unmixing KW - HyMap Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-48935 ER - TY - THES A1 - Lauton, Felix T1 - Three Essays on the Procurement of Essential Medicines in Developing Countries T1 - Drei Aufsätze zur Beschaffung unentbehrlicher Medikamente in Entwicklungsländern N2 - The first problem is that of the optimal volume allocation in procurement. The choice of this problem was motivated by a study whose objective was to support decision-making at two procurement organizations for the procurement of Depot Medroxyprogesterone Acetate (DMPA), an injectable contraceptive. At the time of this study, only one supplier that had undergone the costly and lengthy process of WHO pre-qualification was available to these organizations. However, a new entrant supplier was expected to receive WHO qualification within the next year, thus becoming a viable second source for DMPA procurement. When deciding how to allocate the procurement volume between the two suppliers, the buyers had to consider the impact on price as well as risk. Higher allocations to one supplier yield lower prices but expose a buyer to higher supply risks, while an even allocation will result in lower supply risk but also reduce competitive pressure, resulting in higher prices. Our research investigates this single- versus dual-sourcing problem and quantifies in one model the impact of the procurement volume on competition and risk. To support decision-makers, we develop a mathematical framework that accounts for the characteristics of donor-funded global health markets and models the effects of an entrant on purchasing costs and supply risks. Our in-depth analysis provides insights into how the optimal allocation decision is affected by various parameters and explores the trade-off between competition and supply risk. For example, we find that, even if the entrant supplier introduces longer leads times and a higher default risk, the buyer still benefits from dual sourcing. However, these risk-diversification benefits depend heavily on the entrant’s in-country registration: If the buyer can ship the entrant’s product to only a selected number of countries, the buyer does not benefit from dual sourcing as much as it would if entrant’s product could be shipped to all supplied countries. We show that the buyer should be interested in qualifying the entrant’s product in countries with high demand first. In the second problem we explore a new tendering mechanism called the postponement tender, which can be useful when buyers in the global health industry want to contract new generics suppliers with uncertain product quality. The mechanism allows a buyer to postpone part of the procurement volume’s allocation so the buyer can learn about the unknown quality before allocating the remaining volume to the best supplier in terms of both price and quality. We develop a mathematical model to capture the decision-maker’s trade-offs in setting the right split between the initial volume and the postponed volume. Our analysis shows that a buyer can benefit from this mechanism more than it can from a single-sourcing format, as it can decrease the risk of receiving poor quality (in terms of product quality and logistics performance) and even increase competitive pressure between the suppliers, thereby lowering the purchasing costs. By considering market parameters like the buyer’s size, the suppliers’ value (difference between quality and cost), quality uncertainty, and minimum order volumes, we derive optimal sourcing strategies for various market structures and explore how competition is affected by the buyer’s learning about the suppliers’ quality through the initial volume. The third problem considers the repeated procurement problem of pharmacies in Kenya that have multi-product inventories. Coordinating orders allows pharmacies to achieve lower procurement prices by using the quantity discounts manufacturers offer and sharing fixed ordering costs, such as logistics costs. However, coordinating and optimizing orders for multiple products is complex and costly. To solve the coordinated procurement problem, also known as the Joint Replenishment Problem (JRP) with quantity discounts, a novel, data-driven inventory policy using sample-average approximation is proposed. The inventory policy is developed based on renewal theory and is evaluated using real-world sales data from Kenyan pharmacies. Multiple benchmarks are used to evaluate the performance of the approach. First, it is compared to the theoretically optimal policy --- that is, a dynamic-programming policy --- in the single-product setting without quantity discounts to show that the proposed policy results in comparable inventory costs. Second, the policy is evaluated for the original multi-product setting with quantity discounts and compared to ex-post optimal costs. The evaluation shows that the policy’s performance in the multi-product setting is similar to its performance in the single-product setting (with respect to ex-post optimal costs), suggesting that the proposed policy offers a promising, data-driven solution to these types of multi-product inventory problems. N2 - Der erste Teil, welcher eine gemeinsame Arbeit mit Dr. Alexander Rothkopf und Prof. Dr. Richard Pibernik entstanden ist, ist durch eine Studie motiviert, die Entscheidungsträgern zweier Einkaufsorganisationen beim Einkauf von Depot Medroxyprogesterone Acetate (DMPA), einem länger wirkenden Verhütungsmittel, unterstützen sollte. Zum Zeitpunkt der Studie stand den Organisationen nur ein qualifizierter Lieferant zur Verfügung. Ein zweiter Zulieferer stand kurz vor der Zulassung. Ziel der Arbeit war es den Mehrwert des neuen Lieferanten zu quantifizieren und die optimale Aufteilung der Bestellmengen zwischen beiden Lieferanten zu ermitteln. Hierbei spielt die Abwägung von Preisen (getrieben durch den Wettbewerb zwischen beiden Lieferanten) und Risiko (getrieben durch unsichere Lieferzeiten und Ausfallwahrscheinlichkeiten) eine entscheidende Rolle. In unserer Arbeit zeigen wir wie sich die optimale Aufteilung anhand diverser Parameter, wie Lieferzuverlässigkeit, Kosten und Kapazität, verändert, und untersuchen die Abwägungsentscheidung zwischen Wettbewerb und Risiken. Im zweiten Teil, der ebenfalls eine gemeinsame Arbeit mit Dr. Alexander Rothkopf und Prof. Dr. Richard Pibernik ist, untersuchen wir einen innovativen Einkaufsmechanismus den wir "Postponement Tender" nennen. Das zugrundeliegende Problem ist das eines Einkäufers, welcher mit der unsicheren Qualität eines neuen Lieferanten konfrontiert ist, und der daraus resultierenden Allokationsentscheidung zwischen bestehendem und neuen Lieferanten. Anstatt alles auf einmal zu vergeben, kann der Einkäufer auch zuerst einen Teil des Volumens an beide Lieferanten vergeben, um die unsichere Qualität des neuen Lieferanten besser einzuschätzen. Nachdem die Lieferanten die ersten Volumina geliefert haben kann der Einkäufer die Qualität der Lieferanten besser beurteilen und kauft dann die nachgelagerte Menge vom besseren Lieferanten. Da die Lieferanten bereits zu Beginn Preise festlegen müssen, kann der Einkäufer durch diesen Mechanismus sowohl durch verbesserten Wettbewerb profitieren als auch von einem niedrigeren Qualitätsrisiko, da er dabei etwas über die Qualität der Lieferanten lernt. Wir zeigen in einer detaillierten Analyse wie, abhängig von Einkaufs- und Wettbewerbssituation, die Aufteilung zwischen dem ersten und dem zweiten Teil erfolgen sollte und unter welchen Bedingungen der "Postponement Tender" besser als eine klassische Einzelquellenbeschaffung ist. Der dritte Teil ist durch den Business Case kenianischer Apotheken motiviert: diese können durch die Koordination von Bestellungen niedrigere Einkaufspreise aufgrund von Mengenrabatten bei Lieferanten erzielen sowie fixe Bestellkosten wie Logistikkosten teilen. Aufgrund einer Vielzahl von Produkten ist diese Koordination allerdings sehr komplex und mit einem hohen Aufwand sowie Kosten verbunden. Um diese Hürde zu überwinden entwickle ich eine neue, datengetriebene Bestellpolitik für mehrperiodische Bestandsmanagementprobleme mit mehreren Produkten und Skaleneffekten in fixen sowie variablen Bestellkosten. Die entwickelte Politik beruht auf den Prinzipien von Erneuerungstheorie und Sample Average Approximation. Des Weiteren analysiere ich die Performance dieser Politik anhand realer Daten aus dem zugrundeliegenden Business Case. In einer ersten Auswertung zeigt sich, dass die resultierenden Kosten nah an denen der theoretisch optimalen Bestellpolitik liegen. Weiter wird gezeigt, dass sich das Verhältnis zu ex-post optimalen Kosten in Szenarien, in denen es keine theoretisch optimale Bestellpolitik gibt (mehrere Produkte und Mengenrabatte) im selben Rahmen befindet wie in Szenarien mit optimaler Bestellpolitik. Insgesamt zeigt der entwickelte Ansatz viel Potential für die Lösung komplexer Bestandsplanungsprobleme. KW - Entwicklungsländer KW - Beschaffung KW - Gesundheitswesen KW - Global Health KW - Procurement KW - Supply Chain KW - Data Driven Operations KW - Supply Chain Management KW - Einkauf KW - Modellierung KW - Operations Management Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-220631 ER - TY - THES A1 - Mischnik, Marcel T1 - Systembiologische Analyse der ADP- und Prostaglandin-vermittelten Signaltransduktion humaner Thrombozyten T1 - Systems biological analysis of ADP and prostaglandin mediated signal transduction in human thrombocytes N2 - Thrombozyten (Blutplättchen) sind die Vermittler der zellulären Hämostase. Ihre Fähigkeit zu Aggregieren und sich an das umgebende Gewebe verletzter Blutgefässe anzulagern, wird durch ein komplexes intrazelluläres Signaltransduktionsnetzwerk bestimmt, das sowohl aktivierende, als auch inhibierende Subnetzwerke beinhaltet. Das Verständnis dieser Prozesse ist von hoher medizinischer Bedeutung. Im Rahmen dieser Arbeit wurde die thrombozytäre Signaltransduktion sowohl mittels eines Boole'schen, als auch verschiedener dynamischer Modelle analysiert. Die Boole'sche Modellierung führte zu interessanten Erkenntnissen über das Zusammenwirken einzelner Subnetzwerke bei der Vermittlung irreversibler Plättchenaktivierung und zeigte Mechanismen der Interaktion mit dem hemmenden Prostaglandinsystem auf. Das Modell beinhaltet unter Anderem wichtige Systemkomponenten wie Calciumsignalgebung, Aktivierung von Schlüsselkinasen wie Src und PKC, Integrin-vermitteltes outside-in sowie inside-out Signalgebung und autokrine ADP- und Thromboxan-Produktion. Unter Verwendung dieses Boole'schen Ansatzes wurde weiterhin das System-eigene Schwellenwertverhalten analysiert. Dabei stellte sich eine umgekehrt proportionale Abhängigkeit des relativen aktivierenden Reizes, der notwendig ist um den Schwellenwert zu überschreiten, vom absoluten hemmenden Input heraus. Das System adaptiert demnach an höhere Prostaglandinkonzentrationen durch eine Erhöhung der Sensitivität für Aktivatoren wie dem van-Willebrandt-Faktor und Kollagen, und ermöglicht somit auch unter lokal hemmenden Bedingungen eine Plättchen-vermittelte Hämostase. Der nächste Schritt bestand in der Implementierung eines Differentialgleichungs-basierten Modells der thrombozytären Prostaglandin-Signaltransduktion, um einen detaillierten Überblick über die Dynamik des inhibierenden Netzwerkteils zu erhalten. Die kinetischen Parameter dieses Modells wurden teilweise der Literatur entnommen. Der andere Teil wurde anhand einer umfassenden Kombination dosis- und zeitabhängiger cAMP und phospho-VASP Messdaten geschätzt. Der Prozess beinhaltete mehrere Iterationen aus Modellvorhersagen einerseits und experimentellem Design andererseits. Das Modell liefert die quantitativen Effekte der Prostaglandinrezeptoren IP, DP1, EP3 und EP4 und des ADP-Rezeptors P2Y12 auf die zugrunde liegende Signalkaskade. EP4 zeigt den stärksten Effekt in der aktivierenden Fraktion, wohingegen EP3 einen stärkeren inhibitorischen Effekt ausübt, als der durch Clopidogrel hemmbare ADP-Rezeptor P2Y12. Weiterhin wurden die Eigenschaften des negativen feedback-loops der PKA auf den cAMP-Spiegel untersucht, und eine direkte Beeinflussung der Adenylatzyklase durch die PKA festgestellt, in Form einer Reduzierung der maximalen katalytischen Geschwindigkeit. Die Identifizierbarkeit der geschätzten Parameter wurde mittels profile-Likelihood-Schätzung untersucht. In einem dritten Schritt wurde ein sowohl die aktivierenden, als auch die hemmenden Netzwerkteile umfassendes dynamisches Modell implementiert. Die Topologie dieses Modells wurde in Anlehnung an die des Boole'schen Modells auf der Basis von a priori Wissen festgelegt. Die Modellparameter wurden anhand von Western-Blot, Calcium- und Aggregationsmessungen geschätzt. Auch hier wurde die Identifizierbarkeit der Modellparameter durch profile-likelihood-Schätzung überprüft. Die bei niedrigen Ligandenkonzentrationen auftretende Reversibilität der Plättchen-Aggregation konnte mittels dieses Modells reproduziert werden. Jedoch zeigte sich bei mittleren ADP-Konzentrationen ein Fließgleichgewicht in einem teilweise aktivierten Zustand, und damit kein bistabiles Schwellenwertverhalten. Inwiefern dieses Verhalten durch einen Umgebungs-basierteren Mechanismus des Alles-Oder-Nichts-Verhaltens begründet wird, bei dem der Übergang von reversibler zu irreversibler Aggregation mehr durch parakrine Effekte des gesammten Thrombus bestimmt wird, als durch spezifische Signaltransduktionseigenschaften der einzelnen Zelle, müssen zukünftige Experimente zeigen. Insgesamt geben die erstellten Modelle interessante Einblicke in die Funktionsweise der Thrombozyten und ermöglichen die Simulation von pharmakologischen und genetischen Einflüssen, wie Rezeptormodulationen und knock-outs. Sie geben damit Implikationen zur Entstehung und Behandlung pathophysiologischer Zustände, und wertvolle Denkanstöße für die weitere Forschung. N2 - Platelets represent the key-players in mammalian wound-healing. Their ability to aggregate and attach to the surrounding tissue of damaged blood vessels is thereby mediated by a complex signal -transduction network that comprises both activatory and inhibitory components. Due to its medical relevance and the lack of profound understanding, the network constitutes a convenient target for modeling. In a first step, a Boolean implementation of platelet signal transduction, comprising both activating and inhibiting networks components was established. This led to important information, on how the function of different subnetworks coalesce to fully activate the platelet and to promote irreversible aggregation. These include calcium signalling, activation of key-kinases like Akt, Src and PKC, Integrin outside-in as well as inside-out signalling and autocrin ADP and thromboxane production. In addition, using this data-free approach, the systems inherent threshold behaviour was analysed. The model revealed, that the relative activating strength, that transgresses the threshold, decreases with elevating PGI inputs and is also dependent on auto- and parakrin effects. Thus, the system adapts for higher prostaglandin-concentrations by increasing its sensitivity for activators like vWF and collagen, and thereby commits thrombocyte-dependent active processes such as wound healing even if subsequently blood prostaglandin-levels are higher in later time points. Secondly, an ordinary-differential-equation based model of platelet prostaglandin signalling was established, to get a detailed view of the dynamics governing the inhibiting network part. The kinetic parameters of the model were partly taken from literature and in part estimated along a comprehensive combination of time-course and dose-response measurements of cAMP and phosphorylated VASP. The process involved an iterative cycle between model predictions and experimental design. The model delivered the quantitative effects of the prostaglandin receptors IP, DP1, EP3, EP4 and the ADP receptor P2Y12 on the underlying signalling cascade. EP4 showed the strongest effect in the activating fraction, whereas EP3 turned out to exert a greater inhibiting impact than the commonly established pharmacological target P2Y12. Furthermore, the nature of the double-negative feedback loop constituted by PKA was examined, which disclosed a direct influence of PKA on adenylate cyclase, reducing its maximum catalytic speed. The identifiablility of all kinetic parameters was analysed via profile likelihood estimation. Finally, a dynamical model comprising both activating ADP-signalling through P2Y1 and P2Y12 receptors, and the inhibiting prostaglandin-pathway was implemented. The topology of this larger model was established on the basis of a priori knowledge. Model parameters were fitted along time-resolved Western-Blot, calcium and aggregation measurements. The identifiability of the model parameters was again check by means of profile likelihood estimation. Reversibility of platelet activation at low ADP concentrations could be reproduced by this model. However, at medium concentrations the system appears to assume a steady-state in a partly activated condition, thus not providing for a bistable threshold behaviour. If this behaviour is based on a more enviroment-based character of the observed point-of-no-return behaviour, in which the transition from reversible to irreversible aggregation is rather due to parakrin effects evoked by the entire cell array, than due to specific network properties present in the single cell, has to be investigated by further experiments. All in all, the models show interesting properties of platelet signal transduction, and give valuable implications for medical treatment and future research. KW - Thrombozyt KW - Modellierung KW - ADP KW - Prostaglandine KW - Signaltransduktion KW - Thrombozyten KW - Modellierung KW - ADP KW - Prostaglandine KW - platelets KW - ADP KW - prostaglandin KW - modeling KW - boolean KW - ODE Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-78807 ER - TY - THES A1 - Wolf, Nadine T1 - Synthese, Charakterisierung und Modellierung von klassischen Sol-Gel- und Nanopartikel-Funktionsschichten auf der Basis von Zinn-dotiertem Indiumoxid und Aluminium-dotiertem Zinkoxid T1 - Synthesis, characterization and modeling of classical sol gel and nanoparticle functional layers on the basis of indium tin oxide and alumnium zinc oxide N2 - Das Ziel dieser Arbeit ist neben der Synthese von Sol-Gel-Funktionsschichten auf der Basis von transparent leitfähigen Oxiden (transparent conducting oxides, TCOs) die umfassende infrarotoptische und elektrische Charakterisierung sowie Modellierung dieser Schichten. Es wurden sowohl über klassische Sol-Gel-Prozesse als auch über redispergierte Nanopartikel-Sole spektralselektive Funktionsschichten auf Glas- und Polycarbonat-Substraten appliziert, die einen möglichst hohen Reflexionsgrad im infraroten Spektralbereich und damit einhergehend einen möglichst geringen Gesamtemissionsgrad sowie einen niedrigen elektrischen Flächenwiderstand aufweisen. Zu diesem Zweck wurden dotierte Metalloxide, nämlich einerseits Zinn-dotiertes Indiumoxid (tin doped indium oxide, ITO) und andererseits Aluminium-dotiertes Zinkoxid (aluminum doped zinc oxide, AZO)verwendet. Im Rahmen dieser Arbeit wurden vertieft verschiedene Parameter untersucht, die bei der Präparation von niedrigemittierenden ITO- und AZO-Funktionsschichten im Hinblick auf die Optimierung ihrer infrarot-optischen und elektrischen Eigenschaften sowie ihrer Transmission im sichtbaren Spektralbereich von Bedeutung sind. Neben der Sol-Zusammensetzung von klassischen Sol-Gel-ITO-Beschichtungslösungen wurden auch die Beschichtungs- und Ausheizparameter bei der Herstellung von klassischen Sol-Gel-ITO- sowie -AZO-Funktionsschichten charakterisiert und optimiert. Bei den klassischen Sol-Gel- ITO-Funktionsschichten konnte als ein wesentliches Ergebnis der Arbeit der Gesamtemissionsgrad um 0.18 auf 0.17, bei in etwa gleichbleibenden visuellen Transmissionsgraden und elektrischen Flächenwiderständen, reduziert werden, wenn anstelle von (optimierten) Mehrfach-Beschichtungen Einfach-Beschichtungen mit einer schnelleren Ziehgeschwindigkeit anhand des Dip-Coating-Verfahrens hergestellt wurden. Mit einer klassischen Sol-Gel-ITO-Einfach-Beschichtung, die mit einer deutlich erhöhten Ziehgeschwindigkeit von 600 mm/min gedippt wurde, konnte mit einem Wert von 0.17 der kleinste Gesamtemissionsgrad dieser Arbeit erzielt werden. Die Gesamtemissionsgrade und elektrischen Flächenwiderstände von klassischen Sol-Gel-AZOFunktionsschichten konnten mit dem in dieser Arbeit optimierten Endheizprozess deutlich gesenkt werden. Bei Neunfach-AZO-Beschichtungen konnten der Gesamtemissionsgrad um 0.34 auf 0.50 und der elektrische Flächenwiderstand um knapp 89 % auf 65 Ω/sq verringert werden. Anhand von Hall-Messungen konnte darüber hinaus nachgewiesen werden, dass mit dem optimierten Endheizprozess, der eine erhöhte Temperatur während der Reduzierung der Schichten aufweist, mit N = 4.3·1019 cm-3 eine etwa doppelt so hohe Ladungsträgerdichte und mit µ = 18.7 cm2/Vs eine etwa drei Mal so große Beweglichkeit in den Schichten generiert wurden, im Vergleich zu jenen Schichten, die nach dem alten Endheizprozess ausgehärtet wurden. Das deutet darauf hin, dass bei dem optimierten Heizschema sowohl mehr Sauerstofffehlstellen und damit eine höhere Ladungsträgerdichte als auch Funktionsschichten mit einem höheren Kristallisationsgrad und damit einhergehend einer höheren Beweglichkeit ausgebildet werden. Ein Großteil der vorliegenden Arbeit behandelt die Optimierung und Charakterisierung von ITO-Nanopartikel-Solen bzw. -Funktionsschichten. Neben den verwendeten Nanopartikeln, dem Dispergierungsprozess, der Beschichtungsart sowie der jeweiligen Beschichtungsparameter und der Nachbehandlung der Funktionsschichten, wurde erstmals in einer ausführlichen Parameterstudie die Sol-Zusammensetzung im Hinblick auf die Optimierung der infrarot-optischen und elektrischen Eigenschaften der applizierten Funktionsschichten untersucht. Dabei wurde insbesondere der Einfluss der verwendeten Stabilisatoren sowie der verwendeten Lösungsmittel auf die Schichteigenschaften charakterisiert. Im Rahmen dieser Arbeit wird dargelegt, dass die exakte Zusammensetzung der Nanopartikel-Sole einen große Rolle spielt und die Wahl des verwendeten Lösungsmittels im Sol einen größeren Einfluss auf den Gesamtemissionsgrad und die elektrischen Flächenwiderstände der applizierten Schichten hat als die Wahl des verwendeten Stabilisators. Allerdings wird auch gezeigt, dass keine pauschalen Aussagen darüber getroffen werden können, welcher Stabilisator oder welches Lösungsmittel in den Nanopartikel-Solen zu Funktionsschichten mit kleinen Gesamtemissionsgraden und elektrischen Flächenwiderständen führt. Stattdessen muss jede einzelne Kombination von verwendetem Stabilisator und Lösungsmittel empirisch getestet werden, da jede Kombination zu Funktionsschichten mit anderen Eigenschaften führt. Zudem konnte im Rahmen dieser Arbeit erstmals stabile AZO-Nanopartikel-Sole über verschiedene Rezepte hergestellt werden. Neben der Optimierung und Charakterisierung von ITO- und AZO- klassischen Sol-Gel- sowie Nanopartikel-Solen und -Funktionsschichten wurden auch die infrarot-optischen Eigenschaften dieser Schichten modelliert, um die optischen Konstanten sowie die Schichtdicken zu bestimmen. Darüber hinaus wurden auch kommerziell erhältliche, gesputterte ITO- und AZO-Funktionsschichten modelliert. Die Reflexionsgrade dieser drei Funktionsschicht-Typen wurden einerseits ausschließlich mit dem Drude-Modell anhand eines selbstgeschriebenen Programmes in Sage modelliert, und andererseits mit einem komplexeren Fit-Modell, welches in der kommerziellen Software SCOUT aus dem erweiterten Drude-Modell, einem Kim-Oszillator sowie dem OJL-Modell aufgebaut wurde. In diesem Fit-Modell werden auch die Einflüsse der Glas-Substrate auf die Reflexionsgrade der applizierten Funktionsschichten berücksichtigt und es können die optischen Konstanten sowie die Dicken der Schichten ermittelt werden. Darüber hinaus wurde im Rahmen dieser Arbeit ein Ellipsometer installiert und geeignete Fit-Modelle entwickelt, anhand derer die Ellipsometer-Messungen ausgewertet und die optischen Konstanten sowie Schichtdicken der präparierten Schichten bestimmt werden können. N2 - The aim of this thesis is on the one hand the synthesis of sol-gel functional layers on the basis of transparent conducting oxides (TCOs) and on the other hand a comprehensive infrared-optical and electrical characterization as well as modeling of these layers. Spectrally selective coatings have been prepared with the classical sol-gel route as well as with redispersed nanoparticle sols on glass and polycarbonate substrates and these coatings should have a reflectance in the infrared spectral range which is as high as possible and therefore a total emittance and an electrical sheet resistance which are as small as possible. For this purpose tin doped indium oxide (ITO) and aluminum doped zinc oxide (AZO) have been used as doped metal oxides. Within this thesis several parameters have been investigated in-depth which play a decisive role in the preparation of ITO and AZO low emissivity coatings, in order to prepare such coatings with optimized infrared-optical and electrical properties as well as visual transmittances. Besides the composition of the classical sol-gel ITO coating solutions, also the parameters of the coating as well as the heating processes have been characterized and optimized in the manufacture of classical sol-gel ITO and AZO functional layers. As a significant result the total emittance of classical sol-gel ITO functional layers could be reduced by 0.18 to 0.17 while the visual transmittance and electrical sheet resistances stay approximately the same, if just one-layered coatings are applied with a higher withdrawal speed with the dip coating technique instead of (optimized) multi-layered coatings. With a classical sol-gel ITO single coating, which has been produced with a withdrawal speed of 600 mm/min, the smallest total emittance of this work could be realized with 0.17. The total emittances and electrical sheet resistances of classical sol-gel AZO functional layers were reduced drastically in this work by using the optimized final heating process. The total emittance could be reduced by 0.34 to 0.50 and the electrical sheet resistance by 89 % to 65Ω/sq with a coating which consists of nine single layers. On the basis of Hall measurements it has been shown that coatings which were treated with the optimized heating process (which exhibits a higher temperature during the reducing treatment of the coatings) show a higher charge carrier density as well as a higher mobility than those coatings treated with the old heating process. With the optimized heating process the ninelayered coatings exhibit a charge carrier density of N = 4.3·1019 cm-3 which is approximately twice as high and a mobility of µ = 18.7 cm2/Vs which is about three times higher than the values of coatings which have been heated with the old process. This indicates that with the optimized heating process more oxygen vacancies and, associated therewith a higher charge carrier density as well as a higher crystallinity of the layer and thus a higher mobility are generated. One focus of the presented work lies on the optimization and characterization of ITO redispersed nanoparticle sols and functional layers respectively. In addition to the used nanoparticles, the dispersion process, the coating type with the respective coating parameters and post-treatments of the functional layers also a detailed parameter study has been done. This parameter study examined the composition of the nanoparticle sols with a view to the optimization of the infrared-optical and electrical properties of the applied coatings. The coating properties have been studied in particularly with regard to the influence of the used stabilizers and solvents respectively. In this work it will be shown, that the accurate composition of the nanoparticle sols plays a decisive role and the choice of the used solvents has a bigger impact on the coating properties than the choice of the used stabilizers. However, it will also be shown, that no general statements can be made which stabilizers or which solvents within the sols lead to coatings which have small total emittances and small electrical sheet resistances. Instead each combination of used stabilizer and used solvent has to be empirically tested since each combination leads to coatings with different properties. Furthermore stable AZO nanoparticle sols based on several formulas have been developed for the first time. Besides the optimization and characterization of ITO and AZO classical sol-gel as well as nanoparticle sols and functional layers, also the infrared-optical properties of these coatings have been modeled in order to determine the optical constants as well as the coating thicknesses. Furthermore also commercially available sputtered ITO and AZO coatings have been modeled. The reflectances of these three types of coatings have been modeled on the one hand by using only the Drude model within a self-written program in the software Sage. On the other hand these coatings have been modeled with more complex fitting models within the commercially available software called SCOUT. These more complex fitting models consist of the extended Drude model, a Kim oscillator and an OJL model and they also take the influence of the glass substrates on the reflectances of the applied coatings into account. By using these fitting models, the optical constants of the applied coatings and the coating thicknesses can be obtained. In addition an Ellipsometer has been installed as part of this work and suitable fitting models have been developed. These models can be used for analyzing the Ellipsometer measurements in order to determine the optical constants and the coating thicknesses of the coatings applied. KW - Transparent-leitendes Oxid KW - Sol-Gel-Verfahren KW - Beschichtung KW - Funktionswerkstoff KW - Sol-Gel-Synthese KW - ITO KW - AZO KW - redispergierte Nanopartikel-Sole KW - Drude-Modell KW - sol gel KW - redispersed nanoparticle sol KW - Drude model KW - Charakterisierung KW - Modellierung KW - Physikalische Schicht KW - Nanopartikel Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-112416 ER - TY - THES A1 - Saulin, Anne Christin T1 - Sustainability of empathy as driver for prosocial behavior and social closeness: insights from computational modelling and functional magnetic resonance imaging T1 - Nachhaltigkeit von Empathie als Motiv für prosoziales Verhalten und soziale Nähe: Erkenntnisse auf Grundlage von computational modelling und funktioneller Magnetresonanztomographie N2 - Empathy, the act of sharing another person’s affective state, is a ubiquitous driver for helping others and feeling close to them. These experiences are integral parts of human behavior and society. The studies presented in this dissertation aimed to investigate the sustainability and stability of social closeness and prosocial decision-making driven by empathy and other social motives. In this vein, four studies were conducted in which behavioral and neural indicators of empathy sustainability were identified using model-based functional magnetic resonance imaging (fMRI). Applying reinforcement learning, drift-diffusion modelling (DDM), and fMRI, the first two studies were designed to investigate the formation and sustainability of empathy-related social closeness (study 1) and examined how sustainably empathy led to prosocial behavior (study 2). Using DDM and fMRI, the last two studies investigated how empathy combined with reciprocity, the social norm to return a favor, on the one hand and empathy combined with the motive of outcome maximization on the other hand altered the behavioral and neural social decision process. The results showed that empathy-related social closeness and prosocial decision tendencies persisted even if empathy was rarely reinforced. The sustainability of these empathy effects was related to recalibration of the empathy-related social closeness learning signal (study 1) and the maintenance of a prosocial decision bias (study 2). The findings of study 3 showed that empathy boosted the processing of reciprocity-based social decisions, but not vice versa. Study 4 revealed that empathy-related decisions were modulated by the motive of outcome maximization, depending on individual differences in state empathy. Together, the studies strongly support the concept of empathy as a sustainable driver of social closeness and prosocial behavior. N2 - Empathie, das Teilen des Affekts einer anderen Person, ist eine allgegenwärtige Motivation, anderen Menschen zu helfen und sich ihnen nahe zu fühlen. Diese Erfahrungen sind wesentliche Bestandteile menschlichen Verhaltens und zentral für unsere Gesellschaft. Die vorliegende Dissertation setzte sich zum Ziel, die Nachhaltigkeit und Stabilität sozialer Nähe sowie prosozialem Entscheidungsverhalten basierend auf Empathie und anderen sozialen Motiven zu beleuchten. In den vier Studien wurden das Verhalten und neuronale Indikatoren für die Nachhaltigkeit von Empathie mit modellbasierter funktioneller Magnetresonanztomographie (fMRT) untersucht. Unter Verwendung von Verstärkungslernmodellen, Drift-Diffusionsmodellen (DDM) und fMRT untersuchten die ersten zwei Studien den zeitlichen Verlauf von empathiebasierter sozialer Nähe und prosozialem Verhalten. Mit Hilfe von DDM und fMRT wurde in den abschließenden Studien untersucht, wie Empathie in Kombination mit Reziprozität, der sozialen Norm, Gefallen zurückzuzahlen, und Empathie in Kombination mit dem Motiv der Gewinnmaximierung den verhaltensbezogenen und neuronalen sozialen Entscheidungsprozess verändert. Die Ergebnisse zeigten, dass empathiebasierte soziale Nähe und prosoziale Entscheidungstendenzen selbst dann fortbestanden wenn Empathie nur noch selten verstärkt wurde. Die Nachhaltigkeit dieser Effekte hing mit der Rekalibrierung des empathiebasierten Lernsignals für soziale Nähe (Studie 1) und dem Aufrechterhalten eines prosozialen Entscheidungsbias zusammen (Studie 2). Die Ergebnisse von Studie 3 zeigten, dass Empathie reziprozitätsbasierte soziale Entscheidungen stärkt, aber nicht umgekehrt. Studie 4 zeigte, dass empathiebasierte soziale Entscheidungen durch das Motiv der Gewinnmaximierung vereinfacht werden können. Zusammengefasst unterstützen die Ergebnisse der vorliegenden Dissertation nachdrücklich das Konzept von Empathie als nachhaltige Triebkraft für soziale Nähe und prosoziales Verhalten. KW - Einfühlung KW - Bestärkendes Lernen KW - Modellierung KW - Funktionelle Kernspintomografie KW - Prosoziales Verhalten KW - drift-diffusion model KW - reciprocity KW - anterior insula KW - temporo-parietal junction KW - inferior frontal gyrus Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-305550 ER - TY - THES A1 - Fritsch, Sebastian T1 - Spatial and temporal patterns of crop yield and marginal land in the Aral Sea Basin: derivation by combining multi-scale and multi-temporal remote sensing data with alight use efficiency model T1 - Räumliche und zeitliche Muster von Erntemengen und marginalem Land im Aralseebecken: Erfassung durch die Kombination von multiskaligen und multitemporalen Fernerkundungsdaten mit einem Lichtnutzungseffizienzmodell N2 - Irrigated agriculture in the Khorezm region in the arid inner Aral Sea Basin faces enormous challenges due to a legacy of cotton monoculture and non-sustainable water use. Regional crop growth monitoring and yield estimation continuously gain in importance, especially with regard to climate change and food security issues. Remote sensing is the ideal tool for regional-scale analysis, especially in regions where ground-truth data collection is difficult and data availability is scarce. New satellite systems promise higher spatial and temporal resolutions. So-called light use efficiency (LUE) models are based on the fraction of photosynthetic active radiation absorbed by vegetation (FPAR), a biophysical parameter that can be derived from satellite measurements. The general objective of this thesis was to use satellite data, in conjunction with an adapted LUE model, for inferring crop yield of cotton and rice at field (6.5 m) and regional (250 m) scale for multiple years (2003-2009), in order to assess crop yield variations in the study area. Intensive field measurements of FPAR were conducted in the Khorezm region during the growing season 2009. RapidEye imagery was acquired approximately bi-weekly during this time. The normalized difference vegetation index (NDVI) was calculated for all images. Linear regression between image-based NDVI and field-based FPAR was conducted. The analyses resulted in high correlations, and the resulting regression equations were used to generate time series of FPAR at the RapidEye level. RapidEye-based FPAR was subsequently aggregated to the MODIS scale and used to validate the existing MODIS FPAR product. This step was carried out to evaluate the applicability of MODIS FPAR for regional vegetation monitoring. The validation revealed that the MODIS product generally overestimates RapidEye FPAR by about 6 to 15 %. Mixture of crop types was found to be a problem at the 1 km scale, but less severe at the 250 m scale. Consequently, high resolution FPAR was used to calibrate 8-day, 250 m MODIS NDVI data, this time by linear regression of RapidEye-based FPAR against MODIS-based NDVI. The established FPAR datasets, for both RapidEye and MODIS, were subsequently assimilated into a LUE model as the driving variable. This model operated at both satellite scales, and both required an estimation of further parameters like the photosynthetic active radiation (PAR) or the actual light use efficiency (LUEact). The latter is influenced by crop stress factors like temperature or water stress, which were taken account of in the model. Water stress was especially important, and calculated via the ratio of the actual (ETact) to the potential, crop-specific evapotranspiration (ETc). Results showed that water stress typically occurred between the beginning of May and mid-September and beginning of May and end of July for cotton and rice crops, respectively. The mean water stress showed only minor differences between years. Exceptions occurred in 2008 and 2009, where the mean water stress was higher and lower, respectively. In 2008, this was likely caused by generally reduced water availability in the whole region. Model estimations were evaluated using field-based harvest information (RapidEye) and statistical information at district level (MODIS). The results showed that the model at both the RapidEye and the MODIS scale can estimate regional crop yield with acceptable accuracy. The RMSE for the RapidEye scale amounted to 29.1 % for cotton and 30.4 % for rice, respectively. At the MODIS scale, depending on the year and evaluated at Oblast level, the RMSE ranged from 10.5 % to 23.8 % for cotton and from -0.4 % to -19.4 % for rice. Altogether, the RapidEye scale model slightly underestimated cotton (bias = 0.22) and rice yield (bias = 0.11). The MODIS-scale model, on the other hand, also underestimated official rice yield (bias from 0.01 to 0.87), but overestimated official cotton yield (bias from -0.28 to -0.6). Evaluation of the MODIS scale revealed that predictions were very accurate for some districts, but less for others. The produced crop yield maps indicated that crop yield generally decreases with distance to the river. The lowest yields can be found in the southern districts, close to the desert. From a temporal point of view, there were areas characterized by low crop yields over the span of the seven years investigated. The study at hand showed that light use efficiency-based modeling, based on remote sensing data, is a viable way for regional crop yield prediction. The found accuracies were good within the boundaries of related research. From a methodological viewpoint, the work carried out made several improvements to the existing LUE models reported in the literature, e.g. the calibration of FPAR for the study region using in situ and high resolution RapidEye imagery and the incorporation of crop-specific water stress in the calculation. N2 - Die vorliegende Arbeit beschäftigt sich mit der Modellierung regionaler Erntemengen von Baumwolle und Reis in der usbekischen Region Khorezm, einem Bewässerungsgebiet das geprägt ist von langjähriger Baumwoll-Monokultur und nicht-nachhaltiger Land- und Wassernutzung. Basis für die Methodik waren Satellitendaten, die durch ihre großflächige Abdeckung und Objektivität einen enormen Vorteil in solch datenarmen und schwer zugänglichen Regionen darstellen. Bei dem verwendeten Modell handelt es sich um ein sog. Lichtnutzungseffizienz-Modell (im Englischen Light Use Efficiency [LUE] Model), das auf dem Anteil der photosynthetisch aktiven Strahlung basiert, welcher von Pflanzen für das Wachstum aufgenommen wird (Fraction of Photosynthetic Active Radiation, FPAR). Dieser Parameter kann aus Satellitendaten abgeleitet werden. Das allgemeine Ziel der vorliegenden Arbeit war die Nutzung von Satellitendaten für die Ableitung der Erntemengen von Baumwolle und Reis. Dazu wurde ein Modell entwickelt, das sowohl auf der Feldebene (Auflösung von 6,5 m) als auch auf der regionalen Ebene (Auflösung von 250 m) operieren kann. Während die Ableitung der Erntemengen auf der Feldebene nur für ein Jahr erfolgte (2009), wurden sie auf der regionalen Ebene für den Zeitraum 2003 bis 2009 modelliert. Intensive Feldmessungen von FPAR wurden im Studiengebiet während der Wachstumssaison 2009 durchgeführt. Parallel dazu wurden RapidEye-Daten in ca. zweiwöchentlichem Abstand aufgezeichnet. Aus den RapidEye-Daten wurde der Normalized Difference Vegetation Index (NDVI) berechnet, der anschließend mit den im Feld gemessenen FPAR-Werten korreliert wurde. Die entstandenen Regressionsgleichungen wurden benutzt um Zeitserien von FPAR auf RapidEye-Niveau zu erstellen. Anschließend wurden diese Zeitserien auf die MODIS-Skala aggregiert um damit das MODIS FPAR-Produkt zu validieren (1 km), bzw. eine Kalibrierung des 8-tägigen 250 m NDVI-Datensatzes vorzunehmen. Der erste Schritt zeigte dass das MODIS-Produkt im Allgemeinen die RapidEye-basierten FPAR-Werte um 6 bis 15 % überschätzt. Aufgrund der besseren Auflösung wurde das kalibrierte 250 m FPAR-Produkt für die weitere Modellierung verwendet. Für die eigentliche Modellierung wurden neben den FPAR-Eingangsdaten noch weitere Daten und Parameter benötigt. Dazu gehörte z.B. die tatsächliche Lichtnutzungseffizienz (LUEact), welche von Temperatur- und Wasserstress beeinflusst wird. Wasserstress wurde berechnet aus dem Verhältnis von tatsächlicher (ETact) zu potentieller, feldfruchtspezifischer Evapotranspiration (ETc), die beide aus einer Kombination von Satelliten- und Wetterdaten abgeleitet wurden. Der durchschnittliche Wasserstress schwankte nur geringfügig von Jahr zu Jahr, mit Ausnahmen in den Jahren 2008 und 2009. Die Modellschätzungen wurden durch feldbasierte Ernteinformationen (RapidEye-Ebene) sowie regionale statistische Daten (MODIS-Ebene) evaluiert. Die Ergebnisse zeigten, dass beide Modellskalen regionale Ernteerträge mit guter Genauigkeit nachbilden können. Der Fehler für das RapidEye-basierte Modell betrug 29,1 % für Baumwolle und 30,4 % für Reis. Die Genauigkeiten für das MODIS-basierte Modell variierten, in Abhängigkeit des betrachteten Jahres, zwischen 10,5 % und 23,8 % für Baumwolle und zwischen -0,4 % und -19,4 % für Reis. Insgesamt gab es eine leichte Unterschätzung der Baumwoll- (Bias = 0,22) und Reisernte (Bias = 0,11) seitens des RapidEye-Modells. Das MODIS-Modell hingegen unterschätzte zwar auch die (offizielle) Reisernte (mit einem Bias zwischen 0,01 und 0,87), überschätzte jedoch die offiziellen Erntemengen für die Baumwolle (Bias zwischen -0,28 und -0,6). Die Evaluierung der MODIS-Skala zeigte dass die Genauigkeiten extrem zwischen den verschiedenen Distrikten schwankten. Die erstellten Erntekarten zeigten dass Erntemengen grundsätzlich mit der Distanz zum Fluss abnehmen. Die niedrigsten Erntemengen traten in den südlichsten Distrikten auf, in der Nähe der Wüste. Betrachtet man die Ergebnisse schließlich über die Zeit hinweg, gab es Gebiete die über den gesamten Zeitraum von sieben Jahren stets von niedrigen Erntemengen gekennzeichnet waren. Die vorliegende Studie zeigt, dass satellitenbasierte Lichtnutzungseffizienzmodelle ein geeignetes Werkzeug für die Ableitung und die Analyse regionaler Erntemengen in zentralasiatischen Bewässerungsregionen darstellen. Verglichen mit verwandten Studien stellten sich die ermittelten Genauigkeiten sowohl auf der RapidEye- als auch auf der MODIS-Skala als gut dar. Vom methodischen Standpunkt aus gesehen ergänzte diese Arbeit vorhanden LUE-Modelle um einige Neuerungen und Verbesserungen, wie z.B. die Validierung und Kalibrierung von FPAR für die Studienregion mittels Feld- und hochaufgelösten RapidEye-Daten und dem Einbezug von feldfrucht-spezifischem Wasserstress in die Modellierung. KW - Fernerkundung KW - Modellierung KW - Ernte KW - Baumwollpflanze KW - Reis KW - Satellit KW - Erdbeobachtung KW - remote sensing KW - crop yield KW - modeling KW - light use efficiency KW - irrigation Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-87939 ER - TY - THES A1 - Cord, Anna T1 - Potential of multi-temporal remote sensing data for modeling tree species distributions and species richness in Mexico T1 - Eignung multi-temporaler Fernerkundungsdaten für die Modellierung von Artverbreitungsgebieten und Diversität von Baumarten in Mexiko N2 - Current changes of biodiversity result almost exclusively from human activities. This anthropogenic conversion of natural ecosystems during the last decades has led to the so-called ‘biodiversity crisis’, which comprises the loss of species as well as changes in the global distribution patterns of organisms. Species richness is unevenly distributed worldwide. Altogether, 17 so-called ‘megadiverse’ nations cover less than 10% of the earth’s land surface but support nearly 70% of global species richness. Mexico, the study area of this thesis, is one of those countries. However, due to Mexico’s large extent and geographical complexity, it is impossible to conduct reliable and spatially explicit assessments of species distribution ranges based on these collection data and field work alone. In the last two decades, Species distribution models (SDMs) have been established as important tools for extrapolating such in situ observations. SDMs analyze empirical correlations between geo-referenced species occurrence data and environmental variables to obtain spatially explicit surfaces indicating the probability of species occurrence. Remote sensing can provide such variables which describe biophysical land surface characteristics with high effective spatial resolutions. Especially during the last three to five years, the number of studies making use of remote sensing data for modeling species distributions has therefore multiplied. Due to the novelty of this field of research, the published literature consists mostly of selective case studies. A systematic framework for modeling species distributions by means of remote sensing is still missing. This research gap was taken up by this thesis and specific studies were designed which addressed the combination of climate and remote sensing data in SDMs, the suitability of continuous remote sensing variables in comparison with categorical land cover classification data, the criteria for selecting appropriate remote sensing data depending on species characteristics, and the effects of inter-annual variability in remotely sensed time series on the performance of species distribution models. The corresponding novel analyses were conducted with the Maximum Entropy algorithm developed by Phillips et al. (2004). In this thesis, a more comprehensive set of remote sensing predictors than in the existing literature was utilized for species distribution modeling. The products were selected based on their ecological relevance for characterizing species distributions. Two 1 km Terra-MODIS Land 16-day composite standard products including the Enhanced Vegetation Index (EVI), Reflectance Data, and Land Surface Temperature (LST) were assembled into enhanced time series for the time period of 2001 to 2009. These high-dimensional time series data were then transformed into 18 phenological and 35 statistical metrics that were selected based on an extensive literature review. Spatial distributions of twelve tree species were modeled in a hierarchical framework which integrated climate (WorldClim) and MODIS remote sensing data. The species are representative of the major Mexican forest types and cover a variety of ecological traits, such as range size and biotope specificity. Trees were selected because they have a high probability of detection in the field and since mapping vegetation has a long tradition in remote sensing. The result of this thesis showed that the integration of remote sensing data into species distribution models has a significant potential for improving and both spatial detail and accuracy of the model predictions. N2 - Sämtliche aktuell zu beobachtenden Veränderungen in der Biodiversität lassen sich fast ausschließlich auf menschliche Aktivitäten zurückführen. In den letzten Jahrzehnten hat insbesondere die anthropogene Umwandlung bisher unberührter, natürlicher Ökosysteme zur sogenannten ‚Biodiversitätskrise‘ geführt. Diese umfasst nicht nur das Aussterben von Arten, sondern auch räumliche Verschiebungen in deren Verbreitungsgebieten. Global gesehen ist der Artenreichtum ungleich verteilt. Nur insgesamt 17 sogenannte ‚megadiverse‘ Länder, welche 10% der globalen Landoberfläche umfassen, beherbergen fast 70% der weltweiten Artenvielfalt. Mexiko, das Studiengebiet dieser Arbeit, ist eine dieser außerordentlich artenreichen Nationen. Aufgrund seiner großen Ausdehnung und geographischen Komplexität kann eine verlässliche und detaillierte räumliche Erfassung von Artverbreitungsgebieten in Mexiko jedoch nicht nur auf Basis dieser Datenbanken sowie von Feldarbeiten erfolgen. In den letzten beiden Jahrzehnten haben sich Artverbreitungsmodelle (Species distribution models, SDMs) als wichtige Werkzeuge für die räumliche Interpolation solcher in situ Beobachtungen in der Ökologie etabliert. Artverbreitungsmodelle umfassen die Analyse empirischer Zusammenhänge zwischen georeferenzierten Fundpunkten einer Art und Umweltvariablen mit dem Ziel, räumlich kontinuierliche Vorhersagen zur Wahrscheinlichkeit des Vorkommens der jeweiligen Art zu treffen. Mittels Fernerkundung können Umweltvariablen mit Bezug zu den biophysikalischen Eigenschaften der Landoberfläche in hohen effektiven räumlichen Auflösungen bereitgestellt werden. Insbesondere in den letzten drei bis fünf Jahren ist daher die Verwendung von Fernerkundungsdaten in der Artverbreitungsmodellierung sprunghaft angestiegen. Da es sich hierbei jedoch immer noch um ein sehr neues Forschungsfeld handelt, stellen diese meist nur Einzelstudien mit Beispielcharakter dar. Eine systematische Untersuchung zur Modellierung von Artverbreitungsgebieten mit Hilfe von Fernerkundungsdaten fehlt bisher. Diese Forschungslücke wurde in der vorliegenden Arbeit aufgegriffen. Hierzu wurden spezifische Untersuchungen durchgeführt, welche insbesondere folgende Aspekte betrachteten: die sinnvolle Verknüpfung von Klima- und Fernerkundungsdaten im Rahmen von Artverbreitungsmodellen, den quantitativen Vergleich von kontinuierlichen Fernerkundungsdaten und einer bestehenden kategorialen Landbedeckungsklassifikation, die Identifizierung von Kriterien zur Auswahl geeigneter Fernerkundungsprodukte, welche die Eigenschaften der Studienarten berücksichtigen, sowie der Einfluss inter-annueller Variabilität in fernerkundlichen Zeitreihen auf die Ergebnisse und Leistungsfähigkeit von Artverbreitungsmodellen. Die entsprechenden neuen Analysen wurden mit Hilfe des von Phillips et al. (2004) entwickelten Maximum Entropy Algorithmus zur Artverbreitungsmodellierung durchgeführt. Im Rahmen dieser Arbeit wurde ein umfangreicherer Datensatz an Fernerkundungsvariablen als in der bisherigen Literatur verwendet. Die entsprechenden Fernerkundungsprodukte wurden spezifisch aufgrund ihrer Eignung für die Beschreibung ökologisch relevanter Parameter, die sich auf die Verbreitungsgebiete von Arten auswirken, ausgewählt. Für den Zeitraum von 2001 bis 2009 wurden zwei Terra-MODIS Standardprodukte mit 1 km räumlicher und 16-tägiger zeitlicher Auflösung zu geglätteten, kontinuierlichen Zeitreihen zusammengefügt. Diese Produkte beinhalten den verbesserten Vegetationsindex (Enhanced Vegetation Index, EVI), Reflexionsgrade und die Landoberflächentemperatur (Land Surface Temperature, LST). Diese hochdimensionalen Zeitreihendaten wurden in insgesamt 18 phänologische sowie 35 statistische Maßzahlen überführt, welche auf der Basis einer umfassenden Sichtung der vorhandenen Literatur zusammengestellt wurden. Die Verbreitungsgebiete von zwölf Baumarten wurden mit Hilfe eines hierarchisch aufgebauten Ansatzes, welcher sowohl Klimadaten (WorldClim) als auch Fernerkundungsdaten des MODIS-Sensors berücksichtigt, modelliert. Die Studienarten sind repräsentativ für die in Mexiko vorkommenden Waldtypen und decken eine breite Spannweite ökologischer Eigenschaften wie Größe des Verbreitungsgebietes und Breite der ökologischen Nische ab. Als Studienobjekte wurden Bäume ausgewählt, weil sie im Feld mit hoher Wahrscheinlichkeit richtig erfasst werden und außerdem die fernerkundungsbasierte Kartierung von Vegetation bereits auf eine Vielzahl an Studien zurückgreifen kann. Durch die im Rahmen dieser Dissertation durchgeführten Untersuchungen konnte gezeigt werden, dass die Integration von Fernerkundungsdaten in Artverbreitungsmodelle ein signifikantes Potential zur Verbesserung der räumlichen Detailgenauigkeit und der Güte der Modellvorhersagen bietet. KW - Fernerkundung KW - Biodiversität KW - Landnutzung KW - Zeitreihenanalyse KW - Mexiko KW - Artverbreitungsmodellierung KW - Maximum Entropy Algorithmus KW - MODIS KW - Modellierung KW - Remote sensing KW - Species distribution modeling KW - Maximum Entropy algorithm KW - MODIS KW - Mexico Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-71021 ER - TY - THES A1 - Zinner, Thomas T1 - Performance Modeling of QoE-Aware Multipath Video Transmission in the Future Internet T1 - Leistungsmodellierung einer Mehrpfad Video Übertragung im zukünftigen Internet unter Berücksichtigung der QoE N2 - Internet applications are becoming more and more flexible to support diverge user demands and network conditions. This is reflected by technical concepts, which provide new adaptation mechanisms to allow fine grained adjustment of the application quality and the corresponding bandwidth requirements. For the case of video streaming, the scalable video codec H.264/SVC allows the flexible adaptation of frame rate, video resolution and image quality with respect to the available network resources. In order to guarantee a good user-perceived quality (Quality of Experience, QoE) it is necessary to adjust and optimize the video quality accurately. But not only have the applications of the current Internet changed. Within network and transport, new technologies evolved during the last years providing a more flexible and efficient usage of data transport and network resources. One of the most promising technologies is Network Virtualization (NV) which is seen as an enabler to overcome the ossification of the Internet stack. It provides means to simultaneously operate multiple logical networks which allow for example application-specific addressing, naming and routing, or their individual resource management. New transport mechanisms like multipath transmission on the network and transport layer aim at an efficient usage of available transport resources. However, the simultaneous transmission of data via heterogeneous transport paths and communication technologies inevitably introduces packet reordering. Additional mechanisms and buffers are required to restore the correct packet order and thus to prevent a disturbance of the data transport. A proper buffer dimensioning as well as the classification of the impact of varying path characteristics like bandwidth and delay require appropriate evaluation methods. Additionally, for a path selection mechanism real time evaluation mechanisms are needed. A better application-network interaction and the corresponding exchange of information enable an efficient adaptation of the application to the network conditions and vice versa. This PhD thesis analyzes a video streaming architecture utilizing multipath transmission and scalable video coding and develops the following optimization possibilities and results: Analysis and dimensioning methods for multipath transmission, quantification of the adaptation possibilities to the current network conditions with respect to the QoE for H.264/SVC, and evaluation and optimization of a future video streaming architecture, which allows a better interaction of application and network. N2 - Die Applikationen im Internet passen sich immer besser an unterschiedliche Anforderungen der Nutzer und variierende Netzwerkbedingungen an. Neue Mechanismen ermöglichen die zielgerichtete Anpassung der Anwendungsqualität und damit der benötigten Bandbreite. Im Falle von Videostreaming ermöglicht der skalierbare Videocodec H.264/SVC, die flexible Veränderung der Bildwiederholungsrate, der Auflösung des Videos und der Bildqualität an die vorhandenen Ressourcen im Netzwerk. Um eine gute vom Nutzer erfahrene Dienstgüte (Quality of Experience, QoE) zu garantieren, muss die Videoqualität richtig angepasst und optimiert werden. Aber nicht nur die Anwendungen des heutigen Internets haben sich verändert. Gerade in den letzten Jahren entstanden neue Netzwerk- und Transporttechnologien, welche eine flexiblere und effizientere Nutzung der Kommunikationsnetze erlauben. Eine dieser Techniken ist die Virtualisierung von Netzwerken. Sie erlaubt es auf einem gemeinsamen physikalischen Netz verschiedene logische Netze zu betreiben, die zum Beispiel Anwendungs-abhängige Adressierung unterstützen, eigene Namensgebung erlauben oder ein individuelles Ressourcen Management ermöglichen. Neuartige Transportmechanismen wie Mehrpfadübertragung auf Netzwerk- und Transportebene des ISO/OSI Stacks streben eine effiziente Ausnutzung der zur Verfügung stehenden Übertragungsmöglichkeiten an. Doch die simultane Übertragung von Daten über heterogene Kommunikationspfade und –technologien führt unausweichlich zu einer Veränderung der Reihenfolge, in der die Pakete ankommen. Es werden zusätzliche Mechanismen und Puffer benötigt, um die ursprüngliche Paketreihenfolge wieder herzustellen und so einen störenden Einfluss auf den Datentransport zu verhindern. Die richtige Dimensionierung dieser Puffer sowie die Klassifizierung des Einflusses von variierenden Pfadparametern wie Bandbreite und Verzögerungen setzen passende Evaluierungsmethoden voraus. Darüber hinaus werden für die Auswahl von geeigneten Pfaden aus einer Menge vorhandener Pfade echtzeitfähige Bewertungsmechanismen benötigt. Eine bessere Interaktion zwischen Applikationen und Netzwerk und der damit verbundene Informationsaustausch ermöglicht die effiziente Anpassung der Applikationsqualität an das Netzwerk und umgekehrt. Diese Doktorarbeit analysiert eine auf Mehrpfadübertragung und skalierbarer Videokodierung basierende Videostreaming Architektur und erarbeitet die folgenden Optimierungsmöglichkeiten und Auswertungen: Analyse- und Dimensionierungsmethoden für Mehrpfadübertragung, Quantifizierung der Anpassungsmöglichkeiten von SVC an das Netzwerk unter Berücksichtigung der QoE und Evaluierung und Optimierung einer zukünftigen Videostreaming Architektur, welche eine stärkere Interaktion zwischen Applikation und Netzwerk ermöglicht. T3 - Würzburger Beiträge zur Leistungsbewertung Verteilter Systeme - 03/12 KW - Videoübertragung KW - H.264 SVC KW - Modellierung KW - Quality-of-Experience KW - Mehrpfadübertragung KW - Multipath Transmission KW - Video Streaming KW - H.264/SVC KW - QoE KW - Performance Modeling Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-72324 ER - TY - THES A1 - Philippi, Nicole T1 - Modellierung von Signalwegen in verschiedenen biologischen Systemen T1 - Modeling of signaling pathways in different biological systems N2 - Die Apoptose der Leberzellen ist abhängig von externen Signalen wie beispielsweise Komponenten der Extrazellulären Matrix sowie anderen Zell-Zell-Kontakten, welche von einer Vielfalt und Vielzahl an Knoten verarbeitet werden. Einige von ihnen wurden im Rahmen dieser Arbeit auf ihre Systemeffekte hin unter- sucht. Trotz verschiedener äußerer Einflüsse und natürlicher Selektion ist das System daraufhin optimiert, eine kleine Anzahl verschiedener und klar voneinander unterscheidbarer Systemzustände anzunehmen. Die verschiedenartigen Einflüsse und Crosstalk-Mechanismen dienen der Optimierung der vorhandenen Systemzustände. Das in dieser Arbeit vorgestellte Modell zeigt zwei apoptotische sowie zwei nicht-apoptotische stabile Systemzustände, wobei der Grad der Aktivierung eines Knotens bis zu dem Moment stark variieren kann, in welchem der absolute Systemzustand selbst verändert wird (Philippi et al., BMC Systems Biology,2009) [1]. Dieses Modell stellt zwar eine Vereinfachung des gesamten zellulären Netzwerkes und seiner verschiedenen Zustände dar, ist aber trotz allem in der Lage, unabhängig von detaillierten kinetischen Daten und Parametern der einzelnen Knoten zu agieren. Gleichwohl erlaubt das Modell mit guter qualitativer Übereinstimmung die Apoptose als Folge einer Stimulation mit FasL zu modellieren. Weiterhin umfasst das Modell sowohl Crosstalk-Möglichkeiten des Collagen-Integrin-Signalwegs, ebenso berücksichtigt es die Auswirkungen der genetischen Deletion von Bid sowie die Konsequenzen einer viralen Infektion. In einem zweiten Teil werden andere Anwendungsmöglichkeiten dargestellt. Hormonale Signale in Pflanzen, Virusinfektionen und intrazelluläre Kommunikation werden semi-quantitativ modelliert. Auch hier zeigte sich eine gute Ubereinstimmung der Modelle mit den experimentellen Daten. N2 - Apoptosis of liver cells is dependent on external signals such as components of the extracellular matrix and cell-cell-contacts, which are processed by a variety of numerous nodes of which several are examined here for their system effects. Despite different input interferences and presumably also due to natural selecti- on, the system nevertheless appears to be optimized to adopt a small number of clear and distinguishable states, and the various inputs and crosstalk mechanisms only optimize the best choice between them. For the model described within this work, two nonapoptotic and two apoptotic states are found, although the degree of activation at a node can differ widely until the absolute system state is altered (Philippi et al., BMC Systems Biology, 2009) [1]. The model is still a simplification of the complete cellular network and its different states, and operates independently of detailed kinetic data and parameters for individual nodes. Nevertheless, it allows modeling the readout of apoptosis after FasL stimulation with qualitative agreement and includes crosstalks from collagen/integrin signa- ling, the effect of genetic deletion of Bid and the consequences of viral infection. The second part of this work deals with other applications using this method. Semi-quantitative models are used for hormonal signaling in plants, viral infec- tions and intra-cellular communication. The simulated results fit to the experi- mental data provided. KW - Systembiologie KW - Modellierung KW - Bioinformatik KW - Apoptose KW - Systems Biology KW - Modeling KW - Bioinformatics KW - Apoptosis Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-57690 ER - TY - THES A1 - Schwarz, Roland T1 - Modellierung von Metabolismus, Transkriptom und Zellentwicklung bei Arabidopsis, Listerien und anderen Organismen T1 - Modeling of metabolism, transcriptome and cell development in Arabidopsis, Listeria and other organisms N2 - Im gleichen Maße wie informatisches Wissen mehr und mehr in den wissenschaftlichen Alltag aller Lebenswissenschaften Einzug gehalten hat, hat sich der Schwerpunkt bioinformatischer Forschung in stärker mathematisch und informatisch-orientierte Themengebiete verschoben. Bioinformatik heute ist mehr als die computergestützte Verarbeitung großer Mengen an biologischen Daten, sondern hat einen entscheidenden Fokus auf der Modellierung komplexer biologischer Systeme. Zur Anwendung kommen hierbei insbesondere Theorien aus dem Bereich der Stochastik und Statistik, des maschinellen Lernens und der theoretischen Informatik. In der vorliegenden Dissertation beschreibe ich in Fallstudien die systematische Modellierung biologischer Systeme aus einem informatisch - mathematischen Standpunkt unter Anwendung von Verfahren aus den genannten Teilbereichen und auf unterschiedlichen Ebenen biologischer Abstraktion. Ausgehend von der Sequenzinformation über Transkriptom, Metabolom und deren regulatorischer Interaktion hin zur Modellierung von Populationseffekten werden hierbei aktuelle biologische Fragestellungen mit mathematisch - informatischen Modellen und einer Vielzahl experimenteller Daten kombiniert. Ein besonderer Augenmerk liegt dabei auf dem Vorgang der Modellierung und des Modellbegriffs als solchem im Rahmen moderner bioinformatischer Forschung. Im Detail umfassen die Projekte (mehrere Publikationen) die Entwicklung eines neuen Ansatzes zur Einbettung und Visualisierung von Multiplen Sequenz- und Sequenz-Strukturalignments, illustriert am Beispiel eines Hemagglutininalignments unterschiedlicher H5N1 Varianten, sowie die Modellierung des Transkriptoms von A. thaliana, bei welchem mit Hilfe einer kernelisierten nicht-parametrischen Metaanalyse neue, an der Infektionsabwehr beteiligten, Gene ausfindig gemacht werden konnten. Desweiteren ist uns mit Hilfe unserer Software YANAsquare eine detaillierte Untersuchung des Metabolismus von L. monocytogenes unter Aktivierung des Transkriptionsfaktors prfA gelungen, dessen Vorhersagen durch experimentelle 13C Isotopologstudien belegt werden konnten. In einem Anschlußprojekt war der Zusammenhang zwischen Regulation des Metabolismus durch Regulation der Genexpression und der Fluxverteilung des metabolischen Steady- State-Netzwerks das Ziel. Die Modellierung eines komplexen organismischen Phänotyps, der Zellgrößenentwicklung der Diatomee Pseudo-nitzschia delicatissima, schließt die Untersuchungen ab. N2 - In the same way that informatical knowledge has made its way into almost all areas of research in the Life Sciences, the focus of bioinformatical research has shifted towards topics originating more in the fields of mathematics and theoretical computer science. Bioinformatics today is more than the computer-driven processing of huge amounts of biological data, but it has a special focus on the emphmodelling of complex biological systems. Of special importance hereby are theories from stochastics and statistics, from the field of machine learning and theoretical computer science. In the following dissertation, I describe the systematic modelling of biological systems from an informatical-mathematical point of view in a case studies approach, applying methods from the aforementioned areas of research and on different levels of biological abstraction. Beginning with the sequence information itself, followed by the transcriptome, metabolome and the interaction of both and finally population effects I show how current biological questions can be tackled with mathematical models and combined with a variety of different experimental datasets. A special focus lies hereby on the procedure of modelling and the concept and notion of a model as such in the framework of bioinformatical research. In more detail, the projects contained the development of a new approach for embedding and visualizing Multiple Sequence and Structure Alignments, which was illustrated using a hemagglutinin alignment from different H5N1 variants as an example. Furthermore we investigated the A. thaliana transcriptome by means of a kernelized non-parametric meta-analysis, thus being able to annotate several new genes as pathogen-defense related. Another major part of this work was the modelling of the metabolic network of L. monocytogenes under activation of the transcription factor prfA, establishing predictions which were later verified by experimental 13C isotopologue studies. Following this project we investigated the relationship between the regulation of metabolism by changes in the cellular genexpression patterns and the flux distributions of the metabolic steady-state network. Modelling of a complex organismal property, the cell size development of the planktonic diatom Pseudo-nitzschia delicatissima concludes this work. KW - Bioinformatik KW - Würzburg / Universität / Lehrstuhl für Bioinformatik KW - Modellierung KW - Metabolismus KW - Stoffwechsel KW - Transkriptom KW - Transkriptomanalyse KW - bioinformatics KW - metabolome KW - transcriptome KW - modeling KW - steady-state Y1 - 2008 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-27622 ER - TY - THES A1 - Hirth, Matthias Johannes Wilhem T1 - Modeling Crowdsourcing Platforms - A Use-Case Driven Approach T1 - Modellierung von Crowdsourcing-Plattformen anhand von Anwendungsfällen N2 - Computer systems have replaced human work-force in many parts of everyday life, but there still exists a large number of tasks that cannot be automated, yet. This also includes tasks, which we consider to be rather simple like the categorization of image content or subjective ratings. Traditionally, these tasks have been completed by designated employees or outsourced to specialized companies. However, recently the crowdsourcing paradigm is more and more applied to complete such human-labor intensive tasks. Crowdsourcing aims at leveraging the huge number of Internet users all around the globe, which form a potentially highly available, low-cost, and easy accessible work-force. To enable the distribution of work on a global scale, new web-based services emerged, so called crowdsourcing platforms, that act as mediator between employers posting tasks and workers completing tasks. However, the crowdsourcing approach, especially the large anonymous worker crowd, results in two types of challenges. On the one hand, there are technical challenges like the dimensioning of crowdsourcing platform infrastructure or the interconnection of crowdsourcing platforms and machine clouds to build hybrid services. On the other hand, there are conceptual challenges like identifying reliable workers or migrating traditional off-line work to the crowdsourcing environment. To tackle these challenges, this monograph analyzes and models current crowdsourcing systems to optimize crowdsourcing workflows and the underlying infrastructure. First, a categorization of crowdsourcing tasks and platforms is developed to derive generalizable properties. Based on this categorization and an exemplary analysis of a commercial crowdsourcing platform, models for different aspects of crowdsourcing platforms and crowdsourcing mechanisms are developed. A special focus is put on quality assurance mechanisms for crowdsourcing tasks, where the models are used to assess the suitability and costs of existing approaches for different types of tasks. Further, a novel quality assurance mechanism solely based on user-interactions is proposed and its feasibility is shown. The findings from the analysis of existing platforms, the derived models, and the developed quality assurance mechanisms are finally used to derive best practices for two crowdsourcing use-cases, crowdsourcing-based network measurements and crowdsourcing-based subjective user studies. These two exemplary use-cases cover aspects typical for a large range of crowdsourcing tasks and illustrated the potential benefits, but also resulting challenges when using crowdsourcing. With the ongoing digitalization and globalization of the labor markets, the crowdsourcing paradigm is expected to gain even more importance in the next years. This is already evident in the currently new emerging fields of crowdsourcing, like enterprise crowdsourcing or mobile crowdsourcing. The models developed in the monograph enable platform providers to optimize their current systems and employers to optimize their workflows to increase their commercial success. Moreover, the results help to improve the general understanding of crowdsourcing systems, a key for identifying necessary adaptions and future improvements. N2 - Computer haben menschliche Arbeitskräfte mittlerweile in vielen Bereichen des täglichen Lebens ersetzt. Dennoch gibt es immer noch eine große Anzahl von Aufgaben, die derzeit nicht oder nur teilweise automatisierbar sind. Hierzu gehören auch solche, welche als sehr einfach erachtet werden, beispielsweise das Kategorisieren von Bildinhalten oder subjektive Bewertungen. Traditionell wurden diese Aufgaben vorwiegend von eigens angestellten Mitarbeitern oder über Outsourcing gelöst. In den vergangenen Jahren wurde hierfür jedoch immer häufiger Crowdsourcing verwendet, wobei die große Anzahl an weltweiten Internetnutzern als hoch verfügbare, kostengünstige und einfach zu erreichende Arbeiterschaft eingesetzt wird. Um eine weltweite Verteilung von Arbeit zu ermöglichen hat sich eine neue Art von Internetdienstleistern entwickelt, die sogenannten Crowdsourcingplattformen. Diese dienen als Vermittler zwischen Arbeitgebern, welche Aufgaben auf den Plattformen einstellen und Arbeitnehmer, welche diese Aufgaben bearbeiten. Hierbei ergeben sich zwei Arten von Herausforderungen. Einerseits entstehen Herausforderungen technischer Art, wie etwa Fragen bezüglich der Dimensionierung der Plattforminfrastruktur oder der Realisierung von Programmierschnittstellen zur Verbindung von Crowdsourcingplattformen mit anderen Cloudanbietern. Andererseits ergeben sich konzeptionelle Herausforderungen, wie etwa die Identifikation vertrauenswürdiger Arbeitnehmer oder Methoden zur Migration von traditionellen Arbeitsaufgaben in Crowdsourcing-basierte Arbeit. In diesem Monograph werden beide Arten von Herausforderungen adressiert. Hierzu werden aktuelle Crowdsourcingsysteme analysiert und modelliert, um basieren auf den gewonnenen Erkenntnissen, Arbeitsabläufe im Crowdsourcing und die den Systemen zu Grunde liegende Infrastruktur zu optimieren. Zunächst wird hierfür eine Kategorisierung von Crowdsourcing Aufgaben und Plattformen entwickelt um generalisierbare Eigenschaften abzuleiten. Basierend auf dieser Kategorisierung und einer beispielhaften Analyse einer kommerziellen Crowdsourcingplattform werden Modelle entwickelt, die verschiedene Aspekte der Plattformen sowie der eingesetzten Mechanismen abbilden. Hierbei wird ein besonderer Fokus auf die Verlässlichkeit von Qualitätssicherungsmechanismen, deren Kosten und Einsetzbarkeit für verschiedene Aufgabentypen gelegt. Ferner wird ein neuer Qualitätssicherungsmechanismus vorgestellt und evaluiert, welcher lediglich auf den Interaktionen der Crowdsourcingarbeitnehmer mit der Nutzeroberfläche basiert. Die Erkenntnisse, aus der Analyse existierender Plattformen, den abgeleiteten Modellen und dem entwickelten Qualitätssicherungsmechanismus fließen schließlich in konkrete Designempfehlungen für zwei exemplarische Crowdsourcinganwendungsfälle ein. Die beiden gewählten Anwendungsfälle decken Aspekte einer Vielzahl von Crowdsourcingaufgaben ab und zeigen sowohl die Vorteile als auch die Herausforderungen beim Einsatz von Crowdsourcing. Aufgrund der zunehmenden Digitalisierung und Globalisierung des Arbeitsmarkes ist es zu erwarten, dass Crowdsourcing in den nächsten Jahren noch weiter an Bedeutung gewinnt. Dies zeigt sich bereits daran, dass Crowdsourcingansätze mittlerweile vermehrt in Unternehmen oder im mobilen Umfeld eingesetzt werden. Die Modelle aus diesem Monograph, ermöglichen Plattformbetreibern eine Optimierung ihrer Systeme und Arbeitgebern eine Optimierung ihrer Arbeitsabläufe. Weiterhin helfen die gewonnenen Erkenntnisse das prinzipielle Verständnis von Crowdsourcingsystemen zu verbessern, was wiederum eine Grundvoraussetzung für das Erkennen von Anpassungsbedarf und Optimierungspotential ist. T3 - Würzburger Beiträge zur Leistungsbewertung Verteilter Systeme - 02/16 KW - Open Innovation KW - Leistungsbewertung KW - Optimiertung KW - Modellierung KW - Studie KW - Crowdsourcing KW - Quality of Experience KW - Modelling KW - Performance Evaluation KW - Optimization KW - Modellierung KW - Nutzerstudie KW - Crowdsourcing Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-140726 SN - 1432-8801 ER - TY - THES A1 - Staehle, Barbara T1 - Modeling and Optimization Methods for Wireless Sensor and Mesh Networks T1 - Modellierungs- und Optimierungs-Methoden für drahtlose Sensor- und Mesh-Netze N2 - Im Internet der Zukunft werden Menschen nicht nur mit Menschen, sondern auch mit „Dingen“, und sogar „Dinge“ mit „Dingen“ kommunizieren. Zusätzlich wird das Bedürfnis steigen, immer und überall Zugang zum Internet zu haben. Folglich gewinnen drahtlose Sensornetze (WSNs) und drahtlose Mesh-Netze (WMNs) an Bedeutung, da sie Daten über die Umwelt ins Internet liefern, beziehungsweise einfache Internet-Zugangsmöglichkeiten schaffen. In den vier Teilen dieser Arbeit werden unterschiedliche Modellierungs- und Optimierungsmethoden für WSNs und WMNs vorgestellt. Der Energieverbrauch ist die wichtigste Metrik, wenn es darum geht die Kommunikation in einem WSN zu optimieren. Da sich in der Literatur sehr viele unterschiedliche Energiemodelle finden, untersucht der erste Teil der Arbeit welchen Einfluss unterschiedliche Energiemodelle auf die Optimierung von WSNs haben. Aufbauend auf diesen Überlegungen beschäftigt sich der zweite Teil der Arbeit mit drei Problemen, die überwunden werden müssen um eine standardisierte energieeffiziente Kommunikations-Lösung für WSNs basierend auf IEEE 802.15.4 und ZigBee zu realisieren. Für WMNs sind beide Probleme von geringem Interesse, die Leistung des Netzes jedoch umso mehr. Der dritte Teil der Arbeit führt daher Algorithmen für die Berechnung des Max-Min fairen (MMF) Netzwerk-Durchsatzes in WMNs mit mehreren Linkraten und Internet-Gateways ein. Der letzte Teil der Arbeit untersucht die Auswirkungen des LRA-Konzeptes. Dessen grundlegende Idee ist die folgende. Falls für einen Link eine niedrigere Datenrate als theoretisch möglich verwendet wird, sinkt zwar der Link-Durchsatz, jedoch ist unter Umständen eine größere Anzahl von gleichzeitigen Übertragungen möglich und der Gesamt-Durchsatz des Netzes kann sich erhöhen. Mithilfe einer analytischen LRA Formulierung und einer systematischen Studie kann gezeigt werden, dass eine netzwerkweite Zuordnung robusterer Datenraten als nötig zu einer Erhöhung des MMF Netzwerk-Durchsatzes führt. Desweitern kann gezeigt werden, dass sich LRA positiv auf die Leistungsfähigkeit eines IEEE 802.11 WMNs auswirkt und für die Optimierung des Netzes genutzt werden kann. N2 - In the future Internet, the people-centric communication paradigm will be complemented by a ubiquitous communication among people and devices, or even a communication between devices. This comes along with the need for a more flexible, cheap, widely available Internet access. Two types of wireless networks are considered most appropriate for attaining those goals. While wireless sensor networks (WSNs) enhance the Internet’s reach by providing data about the properties of the environment, wireless mesh networks (WMNs) extend the Internet access possibilities beyond the wired backbone. This monograph contains four chapters which present modeling and optimization methods for WSNs and WMNs. Minimizing energy consumptions is the most important goal of WSN optimization and the literature consequently provides countless energy consumption models. The first part of the monograph studies to what extent the used energy consumption model influences the outcome of analytical WSN optimizations. These considerations enable the second contribution, namely overcoming the problems on the way to a standardized energy-efficient WSN communication stack based on IEEE 802.15.4 and ZigBee. For WMNs both problems are of minor interest whereas the network performance has a higher weight. The third part of the work, therefore, presents algorithms for calculating the max-min fair network throughput in WMNs with multiple link rates and Internet gateway. The last contribution of the monograph investigates the impact of the LRA concept which proposes to systematically assign more robust link rates than actually necessary, thereby allowing to exploit the trade-off between spatial reuse and per-link throughput. A systematical study shows that a network-wide slightly more conservative LRA than necessary increases the throughput of a WMN where max-min fairness is guaranteed. It moreover turns out that LRA is suitable for increasing the performance of a contention-based WMN and is a valuable optimization tool. T3 - Würzburger Beiträge zur Leistungsbewertung Verteilter Systeme - 01/11 KW - Drahtloses Sensorsystem KW - Drahtloses vermaschtes Netz KW - Modellierung KW - Optimierung KW - IEEE 802.11 KW - IEEE 802.15.4 KW - Energieeffizienz KW - Fairness KW - Linkratenanpassung KW - Energy efficiency KW - Fairness KW - Link rate adaptation Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-64884 ER - TY - THES A1 - Schmitt, Norbert T1 - Measurement, Modeling, and Emulation of Power Consumption of Distributed Systems T1 - Messung, Modellierung und Emulation des Stromverbrauchs von verteilten Systemen N2 - Today’s cloud data centers consume an enormous amount of energy, and energy consumption will rise in the future. An estimate from 2012 found that data centers consume about 30 billion watts of power, resulting in about 263TWh of energy usage per year. The energy consumption will rise to 1929TWh until 2030. This projected rise in energy demand is fueled by a growing number of services deployed in the cloud. 50% of enterprise workloads have been migrated to the cloud in the last decade so far. Additionally, an increasing number of devices are using the cloud to provide functionalities and enable data centers to grow. Estimates say more than 75 billion IoT devices will be in use by 2025. The growing energy demand also increases the amount of CO2 emissions. Assuming a CO2-intensity of 200g CO2 per kWh will get us close to 227 billion tons of CO2. This emission is more than the emissions of all energy-producing power plants in Germany in 2020. However, data centers consume energy because they respond to service requests that are fulfilled through computing resources. Hence, it is not the users and devices that consume the energy in the data center but the software that controls the hardware. While the hardware is physically consuming energy, it is not always responsible for wasting energy. The software itself plays a vital role in reducing the energy consumption and CO2 emissions of data centers. The scenario of our thesis is, therefore, focused on software development. Nevertheless, we must first show developers that software contributes to energy consumption by providing evidence of its influence. The second step is to provide methods to assess an application’s power consumption during different phases of the development process and to allow modern DevOps and agile development methods. We, therefore, need to have an automatic selection of system-level energy-consumption models that can accommodate rapid changes in the source code and application-level models allowing developers to locate power-consuming software parts for constant improvements. Afterward, we need emulation to assess the energy efficiency before the actual deployment. N2 - Die heutigen Cloud-Rechenzentren verbrauchen eine enorme Menge an Energie, und der Energieverbrauch wird in Zukunft noch steigen. Eine Schätzung aus dem Jahr 2012 ergab, dass Rechenzentren etwa 30 Milliarden Watt Strom verbrauchen, was einem Energieverbrauch von etwa 263TWh pro Jahr entspricht. Der Energieverbrauch wird bis zum Jahr 2030 auf 1929TWh ansteigen. Dieser prognostizierte Anstieg des Energiebedarfs wird durch die wachsende Zahl der in der Cloud bereitgestellten Dienste angeheizt. In den letzten zehn Jahren wurden bereits 50% der Arbeitslasten in Unternehmen in die Cloud verlagert. Außerdem nutzen immer mehr Geräte die Cloud, um Funktionen bereitzustellen und das Wachstum von Rechenzentren zu ermöglichen. Schätzungen zufolge werden bis 2025 mehr als 75 Milliarden IoT-Geräte im Einsatz sein. Der wachsende Energiebedarf erhöht auch die Menge der CO2-Emissionen. Geht man von einer CO2-Intensität von 200g CO2 pro kWh in einem eher optimistischen Szenario aus, kommen wir auf fast 227 Milliarden Tonnen CO2. Dieser Ausstoß ist mehr CO2 als die Emissionen aller energieerzeugenden Kraftwerke in Deutschland im Jahr 2020. Rechenzentren verbrauchen jedoch Energie, weil sie auf Serviceanfragen reagieren, die durch Rechenressourcen erfüllt werden. Es sind also nicht die Benutzer und Geräte, die in einem Rechenzentrum Energie verbrauchen, sondern die Software, die die Hardware steuert. Obwohl die Hardware physisch Energie verbraucht, ist sie nicht immer für die Energieverschwendung verantwortlich. Die Software selbst spielt eine wichtige Rolle bei der Reduzierung des Energieverbrauchs und der CO2-Emissionen von Rechenzentren. Das Szenario unserer Arbeit konzentriert sich daher auf die Softwareentwicklung. Dennoch müssen wir die Entwickler zunächst darauf hinweisen, dass die Software zum Energieverbrauch beiträgt, indem wir ihren Einfluss nachweisen. Der zweite Schritt ist die Bereitstellung von Methoden zur Bewertung des Energieverbrauchs einer Anwendung in den verschiedenen Phasen des Entwicklungsprozesses, um moderne DevOps und agile Entwicklungsmethoden zu ermöglichen. Wir brauchen daher eine automatische Auswahl von Energieverbrauchsmodellen auf Systemebene, die schnelle Änderungen im Quellcode berücksichtigen können, und Modelle auf Anwendungsebene, die es den Entwicklern ermöglichen, stromverbrauchende Softwareteile für ständige Verbesserungen zu lokalisieren. Danach benötigen wir eine Emulation, um die Energieeffizienz vor dem eigentlichen Einsatz zu bewerten KW - Leistungsbedarf KW - Energieeffizienz KW - Cloud Computing KW - Rechenzentrum KW - Modellierung KW - Power Consumption KW - Energy Efficiency KW - Cloud KW - Distributed System KW - Modeling Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-276582 ER - TY - THES A1 - Wilde, Martina T1 - Landslide susceptibility assessment in the Chiconquiaco Mountain Range area, Veracruz (Mexico) T1 - Bewertung der Rutschungssuszeptibilität in der Chiconquiaco Gebirgsregion, Veracruz (Mexiko) N2 - In Mexico, numerous landslides occur each year and Veracruz represents the state with the third highest number of events. Especially the Chiconquiaco Mountain Range, located in the central part of Veracruz, is highly affected by landslides and no detailed information on the spatial distribution of existing landslides or future occurrences is available. This leaves the local population exposed to an unknown threat and unable to react appropriately to this hazard or to consider the potential landslide occurrence in future planning processes. Thus, the overall objective of the present study is to provide a comprehensive assessment of the landslide situation in the Chiconquiaco Mountain Range area. Here, the combination of a site-specific and a regional approach enables to investigate the causes, triggers, and process types as well as to model the landslide susceptibility for the entire study area. For the site-specific approach, the focus lies on characterizing the Capulín landslide, which represents one of the largest mass movements in the area. In this context, the task is to develop a multi-methodological concept, which concentrates on cost-effective, flexible and non-invasive methods. This approach shows that the applied methods complement each other very well and their combination allows for a detailed characterization of the landslide. The analyses revealed that the Capulín landslide is a complex mass movement type. It comprises rotational movement in the upper parts and translational movement in the lower areas, as well as flow processes at the flank and foot area and therefore, is classified as a compound slide-flow according to Cruden and Varnes (1996). Furthermore, the investigations show that the Capulín landslide represents a reactivation of a former process. This is an important new information, especially with regard to the other landslides identified in the study area. Both the road reconstructed after the landslide, which runs through the landslide mass, and the stream causing erosion processes at the foot of the landslide severely affect the stability of the landslide, making it highly susceptible to future reactivation processes. This is particularly important as the landslide is located only few hundred meters from the village El Capulín and an extension of the landslide area could cause severe damage. The next step in the landslide assessment consists of integrating the data obtained in the site-specific approach into the regional analysis. Here, the focus lies on transferring the generated data to the entire study area. The developed methodological concept yields applicable results, which is supported by different validation approaches. The susceptibility modeling as well as the landslide inventory reveal that the highest probability of landslides occurrence is related to the areas with moderate slopes covered by slope deposits. These slope deposits comprise material from old mass movements and erosion processes and are highly susceptible to landslides. The results give new insights into the landslide situation in the Chiconquiaco Mountain Range area, since previously landslide occurrence was related to steep slopes of basalt and andesite. The susceptibility map is a contribution to a better assessment of the landslide situation in the study area and simultaneously proves that it is crucial to include specific characteristics of the respective area into the modeling process, otherwise it is possible that the local conditions will not be represented correctly. N2 - In Mexico ereignen sich jedes Jahr zahlreiche Rutschungen und Veracruz ist der Bundesstaat mit der dritthöchsten Anzahl von solchen Ereignissen. Besonders das Chiconquiaco Gebirge, welches im zentralen Bereich von Veracruz liegt, ist stark von Rutschungen betroffen und trotzdem sind keine detaillierten Informationen zur räumlichen Verbreitung existierender Rutschungen oder zu deren erwarteten, zukünftigen Auftreten verfügbar. Dadurch ist die lokale Bevölkerung mit einer nicht einschätzbaren Bedrohungslage konfrontiert und kann weder auf diese angemessen reagieren noch das potentielle Auftreten von Rutschungen in künftigen Planungsprozessen berücksichtigen. Das übergeordnete Ziel der vorliegenden Arbeit besteht daher darin, eine umfassende Beurteilung der Rutschungssituation im Chiconquiaco Gebirge zu erstellen. Hierbei ermöglicht die Kombination eines standortspezifischen und eines regionalen Ansatzes sowohl die Untersuchung der Ursachen, Auslöser und Prozesstypen, als auch die Modellierung der Rutschanfälligkeit für das gesamte Untersuchungsgebiet. Bei dem standortspezifischen Ansatz liegt der Schwerpunkt auf der Charakterisierung der Capulín Rutschung, bei der es sich um eine der größten Massenbewegungen in dieser Region handelt. In diesem Rahmen besteht die Aufgabe darin, ein multi-methodologisches Konzept zu entwickeln, welches sich hauptsächlich auf kostengünstige, flexible und nicht-invasive Methoden konzentriert. Dieser Ansatz zeigt, dass sich die verwendeten Methoden sehr gut ergänzen und ihre Kombination eine detaillierte Charakterisierung der Rutschung ermöglicht. Die Ergebnisse legen dar, dass die Capulín Rutschung eine komplexe Massenbewegung ist. So umfasst sie Rotationsbewegungen im oberen und Translationsbewegungen im unteren Bereich, sowie Fließprozesse an der Flanke und im Fußbereich und kann daher nach Cruden und Varnes (1996) als Kombination aus Gleit- und Fließprozessen (compound slide-flow) klassifiziert werden. Des Weiteren zeigen die Ergebnisse, dass es sich bei der Capulín Rutschung um eine Reaktivierung einer älteren Rutschung handelt. Das ist eine wichtige neue Erkenntnis besonders im Hinblick auf die anderen Rutschungen, die im Untersuchungsgebiet festgestellt wurden. Sowohl die nach der Rutschung wieder aufgebaute Straße, die durch die Rutschmasse verläuft, als auch der Fluss, der Erosionsprozesse am Fuß der Rutschung verursacht, beeinträchtigen die Stabilität der Capulín Rutschung maßgeblich, was sie sehr anfällig für zukünftige Reaktivierungsprozesse macht. Dies ist besonders wichtig, da die Rutschung nur wenige hundert Meter von dem Ort El Capulín entfernt ist und eine Erweiterung des Rutschgebietes erhebliche Schäden verursachen könnte. Im Anschluss werden die durch den lokalen Ansatz erhaltenen Daten in die regionale Analyse integriert. Der Fokus bei diesem Vorgehen liegt dabei auf der Übertragung der generierten Daten auf das gesamte Untersuchungsgebiet. Das hier entwickelte methodische Konzept erzielt verwertbare Ergebnisse, was durch verschiedene Validierungsansätze bekräftigt werden kann. Sowohl die Suszeptibilitätsmodellierung als auch das Rutschungsinventar zeigen, dass die höchste Wahrscheinlichkeit für das Auftreten von Rutschungen vor allem in den Gebieten mit moderater Hangneigung liegt, welche mit Hangschutt bedeckt sind. Diese Hangablagerungen bestehen aus Material von alten Massenbewegungen und Erosionsprozessen und zeigen eine hohe Anfälligkeit für Rutschungen. Die Ergebnisse liefern neue Erkenntnisse über die Rutschungssituation im Chiconquiaco Gebirge, da vorher das Auftreten von Rutschungen mit den steilen Hängen aus Basalt und Andesit in Verbindung gebracht wurde. Auf Grundlage der generierten Suszeptibilitätskarte ist eine bessere Bewertung der Rutschungssituation im Untersuchungsgebiet möglich. Weiterhin zeigt sie, dass es von entscheidender Bedeutung ist, spezifische Eigenschaften der jeweiligen Untersuchungsgebiete in die Modellierung miteinzubeziehen, da sonst die Gefahr besteht, dass die örtlichen Gegebenheiten fehlerhaft eingeschätzt werden. KW - Naturgefahren KW - Landslide susceptibility modeling KW - Geomorphologie KW - Rutschungen KW - Modellierung KW - Veracruz KW - Mexiko KW - UAV KW - Digital Elevation Model KW - Hangstabilitätsmodellierung Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-276085 ER - TY - THES A1 - Wilhelm, Thomas T1 - Konzeption und Evaluation eines Kinematik/Dynamik-Lehrgangs zur Veränderung von Schülervorstellungen mit Hilfe dynamisch ikonischer Repräsentationen und graphischer Modellbildung T1 - Conception and evaluation of a kinematics/dynamics course to change students' conceptions with the aid of dynamic-iconic representations and graphic modelling N2 - Auch nach dem herkömmlichen Mechanikunterricht in der Oberstufe verfügen viele Schüler nicht über angemessene physikalische Vorstellungen über die verwendeten physikalischen Begriffe und deren Zusammenhänge. Einführend wurden in dieser Arbeit allgemeine Aspekte zu Schülervorstellungen (Kapitel 2.1) sowie konkrete Schülervorstellungen zur Mechanik (Kapitel 2.2) und relevante Lehrervorstellungen (Kapitel 2.3) dargelegt. Ein Ziel dieser Arbeit war, ein Gesamtkonzept für einen veränderten Kinematik- und Dynamikunterricht ein- und zweidimensionaler Bewegungen in der Jahrgangsstufe 11 des Gymnasiums zu entwickeln, das möglichst vielen Schülern hilft, möglichst viele Fehlvorstellungen zur Mechanik aufzuarbeiten. Dazu wurden u.a. computergestützte Experimente und die Visualisierung der physikalischen Größen mit dynamisch ikonischen Repräsentationen (siehe Kapitel 3.2) eingesetzt, was neue Elementarisierungen und neue Unterrichtsstrategien ermöglichte (siehe Kapitel 8.2 oder Kapitel 5). Um gute Chancen zu haben, dass dieses Konzept den Schulalltag erreicht, wurde es lehrplankonform zum bayerischen Lehrplan konzipiert. Eine erste Zielsetzung der summativen Evaluation war festzustellen, inwieweit das gesamte Unterrichtskonzept von verschiedenen Lehrern durchführbar ist und wie diese es einschätzen (siehe Kapitel 8.4 oder Kapitel 6.3). Ein wichtiges Ziel war dann, mit Hilfe von Tests festzustellen, inwieweit es Veränderungen in den Schülervorstellungen gab (Vor-/Nachtest-Design) und diese Veränderungen mit konventionell unterrichteten Klassen zu vergleichen (Trainings-/Kontrollgruppen-Design) (konventionelle Klassen: Kapitel 8.1; Vergleich: Kapitel 8.5; Kapitel 6.4 + 6.5). Dazu wurden hauptsächlich bereits vorliegende paper-pencil-Tests verwendet, da eine Testneuentwicklung im Rahmen der Arbeit nicht möglich gewesen wäre. Da diese Tests verschiedene Schwächen haben, wurden mehrere verschiedene Tests gleichzeitig eingesetzt, die sich gegenseitig ergänzen. Die graphische Modellbildung in Verbindung mit Animationen ist ein fakultativer Teil dieses Unterrichtskonzeptes. Hierzu wurde zusätzlich eine eigene Interventionsstudie durchgeführt (siehe Kapitel 8.3 und Kapitel 4). Ergebnisse: Dynamisch ikonische Repräsentationen können dem Lehrer neue unterrichtliche Möglichkeiten geben und somit dem Schüler helfen, physikalische Konzepte angemessener zu verstehen. Die Einführung kinematischer Größen anhand zweidimensionaler Bewegungen, die nur mit ikonischen Repräsentationen in Form von Vektorpfeilen sinnvoll ist (geeignete Elementarisierung), führt zu einem physikalischeren Verständnis des Beschleunigungsbegriffes und vermeidet Fehlvorstellungen durch eine ungeeignete Reduktion auf den Spezialfall eindimensionaler Bewegungen. Mehr Schüler konzeptualisieren Beschleunigung wie in der Physik als gerichtete Größe anstelle einer Größe, die die Änderung des Geschwindigkeitsbetrages angibt und allenfalls tangentiale Richtung haben kann. Auch in der Dynamik sind dadurch hilfreiche Darstellungen und so sinnvolle Veränderungen des Unterrichts möglich. Um wesentliche Strukturen aufzuzeigen, werden komplexere Versuche mit mehreren Kräften und Reibung eingesetzt, was erst durch eine rechnerunterstützte Aufbereitung mit dynamisch ikonischen Repräsentationen ermöglicht wird. Diese Darstellungen ermöglichen auch eine aktive Auseinandersetzung der Schüler mit den Themen, indem von ihnen häufig Vorhersagen gefordert werden (geeignete Unterrichtsstrategie). Graphische Modellbildung als weiterer Einsatz bildlicher Darstellungen kann ebenso eine weitere Verständnishilfe sein. Schüler, die nach dem vorgelegten Unterrichtskonzept unterrichtet wurden, zeigten mehr Verständnis für den newtonschen Kraftbegriff. Da die entwickelten Ideen tatsächlich im Unterricht ankamen und dort Veränderungen bewirkten, kann von einer effektiven Lehrerfortbildung mit Transferwirkung gesprochen werden. N2 - Even after the traditional mechanics instruction in the senior classes, many students do not have any adequate physical conceptions of the physical terms and definitions used, as well as of their coherencies. This study therefore commences with a presentation of general aspects of students’ conceptions (chapter 2.1) as well as precise students' conceptions on mechanics (chapter 2.2) and relevant teachers’ conceptions (chapter 2.3). An objective of this study was to develop an overall concept for modified kinematics and dynamics instruction of motions in one and two dimensions in grade 11 of grammar school, aiming at helping as many students as possible to clear as many misconceptions on mechanics as possible. In order to achieve this goal, computer-aided experiments and the visualisation of physical quantities with dynamic-iconic representations (see chapter 3.2) were used, among other things, thus enabling new elementarizations as well as new teaching strategies (see chapter 9.2 or chapter 5). In order to have good chances that this concept reaches the school everyday life, it was conceived curriculum-conformal to the Bavarian curriculum. The first goal of the summative evaluation was to determine to what extent the entire teaching concept can be implemented by different teachers, and how they assess said concept (see chapter 9.4 or chapter 6.3). Subsequently, an important objective was to ascertain, by means of tests, to which extent the students’ conceptions had changed (pre-/post-testing design), and to compare these changes with conventionally taught classes (treatment-/control-group design) (conventional classes: chapter 9.1; comparison: chapter 9.5; chapters 6.4 + 6.5). For that purpose, already existing paper-pencil-tests were mainly used, as a new development of tests would not have been possible in the course of the study. These tests have various shortcomings, so several tests were used at the same time, complementing each other. Graphic modelling in combination with animations is part of this teaching concept. Additionally, an own intervention study was carried out in this context (see chapter 9.3 and chapter 4). Results: Dynamic-iconic representations can provide teachers with new teaching possibilities and thus help students to adequately understand physical concepts. An introduction of kinematic quantities with the aid of two-dimensional motions, which makes only sense with iconic representations in the form of vector arrows (suitable elementarization), leads to a more physical understanding of the acceleration concept and avoids misconceptions due to an inept reduction to the special case of motions in one dimension. More students conceptualize acceleration – like in physics – as a directed quantity instead of a quantity indicating the change of the magnitude of velocity and having at best tangential direction. This renders possible helpful representations for and thus reasonable changes of dynamics instruction as well: In order to illustrate essential structures, more complex experiments with several forces and friction are used, which is only feasible because of a computer-aided preparation with dynamic-iconic representations. These representations also allow for the students to actively deal with the subject by often asking them to make predictions (suitable teaching strategy). Graphic modelling as another application of iconic representations can also further understanding. Students who were instructed pursuant to the teaching concept on hand showed a greater understanding of Newton's concept of force. As the developed ideas were in fact well received in class and caused changes there, it can be called an effective further teacher training with a transfer effect. KW - Physikunterricht KW - Modellierung KW - Physikdidaktik KW - Kinematik KW - Dynamik KW - Modellbildung KW - Schülervorstellungen KW - physics education KW - kinematics KW - dynamics KW - modelling KW - students' conceptions Y1 - 2005 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-39554 N1 - Das Buch mit CD-ROM kann unter der ISBN 978-3-8325-1046-6 auch online oder über den Buchhandel beim Logos-Verlag Berlin bestellt werden. Siehe auch http://www.logos-verlag.de/cgi-bin/buch?isbn=1046 ER - TY - THES A1 - Pirner, Marlies T1 - Kinetic modelling of gas mixtures T1 - Kinetische Modellierung von Gasgemischen N2 - This book deals with the kinetic modelling of gas mixtures. It extends the existing literature in mathematics for one species of gas to the case of gasmixtures. This is more realistic in applications. Thepresentedmodel for gas mixtures is proven to be consistentmeaning it satisfies theconservation laws, it admitsanentropy and an equilibriumstate. Furthermore, we can guarantee the existence, uniqueness and positivity of solutions. Moreover, the model is used for different applications, for example inplasma physics, for fluids with a small deviation from equilibrium and in the case of polyatomic gases. N2 - Die vorliegende Arbeit beschäftigt sich mit der Modellierung von Gasgemischen mittels einer kinetischen Beschreibung. Es werden Grundlagen über die Boltzmanngleichung für Gasgemische und die BGK-Aproximation präsentiert. Insbesondere wird auf deren Erweiterung auf Gasgemische eingegangen. Es wird ein Gasgemisch bestehend aus zwei Sorten von Gasen ohne chemische Reaktionen betrachtet. Das Gemisch wird mittels eines Systems kinetischer BGK-Gleichungen modelliert, welches je zwei Wechselwirkungsterme enthält, die den Impuls- und Energieaustausch berücksichtigen. Das hier vorgestellte Modell enthält einige von Physikern und Ingenieuren vorgeschlagene Modelle als Spezialfälle. Es wird gezeigt, dass das hier vorgeschlagene Modell die wesentlichen physikalischen Eigenschaften, wie Erhaltungseigenschaften, Positivität aller Temperaturen, das H-Theorem und Maxwellverteilungen im Gleichgewicht, erfüllt. Des Weiteren können die üblichen makroskopischen Gleichungen daraus hergeleitet werden. In der Literatur gibt es ein weiteres vorgeschlagenes Modell für Gasgemische mit nur einem Wechselwirkungsterm von Andries, Aoki und Perthame. In dieser Arbeit werden die Vorteile dieses Modells aus der Literatur und des hier vorgeschlagenen Modells diskutiert. Es wird die Nützlichkeit des hier vorgeschlagenen Modells illustriert, indem es dazu benutzt wird eine unbekannte Funktion in dem makroskopischen Modell für Gasgemische von Dellacherie herzuleiten. Des Weiteren wird für jedes dieser beiden Modelle Existenz, Eindeutigkeit und Positivität der Lösungen gezeigt. Dann wird das hier vorgeschlagene Modell auf bestimmte physikalische Situationen angewandt: auf Elektronen und Ionen in einem Plasma, auf ein Gasgemisch, welches sich nicht im Gleichgewicht befindet und ein Gasgemisch bestehend aus Molekülen mit zusätzlichen inneren Freiheitsgraden. Als erste Anwendung wird das Modell für geladene Teilchen erweitert und auf ein Gemisch aus Elektronen und Ionen angewandt, welches sich teilweise im Gleichgewicht befindet, teilweise nicht. Man findet solch eine Konstellation zum Beispiel bei der Fusion in einem Tokamak. Das Modell, welches hier vorgestellt wird, wird hier benutzt, da es die Wechselwirkungen zwischen Teilchen von der gleichen Sorte und Wechselwirkungen zwischen Teilchen verschiedener Sorten separiert. Dann wird ein neues Modell mithilfe der Mikro-Makro-Zerlegung hergeleitet, welches numerisch in einem Regime angewandt wird, in dem Gase teilweise im Gleichgewicht sind, teilweise nicht. Es werden theoretische Ergebnisse vorgestellt, zum einen Konvergenzraten gegen das Gleichgewicht im räumlich homogenen Fall, zum anderen die Landau-Dämpfung für Gasgemische, um sie mit Ergebnissen aus numerischen Simulationen vergleichen zu können. Als zweite Anwendung wird ein Gasgemisch betrachtet, welches eine Abweichung vom Gleichgewichtszustand hat und makroskopisch mithilfe der Navier-Stokes-Gleichungen beschrieben wird. In dieser makroskopischen Beschreibung erwartet man vier physikalische Größen, die das physikalische Verhalten eines Gases beschreiben, den Diffusionskoeffizienten, den Viskositätskoeffizienten, die Wärmeleitfähigkeit und den thermischen Diffusionsparameter. Es wird eine Chapman-Enskog-Entwicklung des hier vorgestellten Modells durchgeführt, um drei dieser vier physikalischen Größen zu bestimmen. Zusatzlich werden mehrere mögliche Erweiterungen zu einem ES-BGK-Modell für Gasgemische vorgeschlagen um die vierte physikalische Größe zu bestimmen. Es wird eine Erweiterung präsentiert, die möglichst einfach gehalten ist, eine intuitive Erweiterung, die den Fall einer Gassorte ähnelt und eine Erweiterung, die die physikalische Motivation des Physikers Holway, der das ES-BGK-Modell erfunden hat, berücksichtigt. Es wird gezeigt, dass die Erweiterungen die Erhaltungseigenschaften erfüllen, alle Temperaturen positiv sind und das H-Theorem erfüllt ist. Als dritte Anwendung wird das hier vorgestellte Modell zu einem Modell für Moleküle mit zusätzlichen inneren Freiheitsgraden erweitert. Die zwei Gassorten dürfen dabei eine unterschiedliche Anzahl an inneren Freiheitsgraden haben und werden beschrieben durch ein System von kinetischen ES-BGK-Gleichungen. Es wird gezeigt, dass das Modell die Erhaltungseigenschaften erfülllt, dass alle Temperaturen positiv sind und dass das H-Theorem erfüllt ist. Für numerische Zwecke wird die Chu-Reduktion angewandt um die Komplexität des Modells zu reduzieren und eine Anwendung gezeigt, bei dem eine Gassorte keine inneren Freiheitsgrade hat und die andere Sorte zwei Rotationsfreiheitsgrade besitzt. Als letztes wird der Grenzwert des hier vorgestellten Modells zu den dissipativen Eulergleichungen bewiesen. N2 - The present thesis considers the modelling of gas mixtures via a kinetic description. Fundamentals about the Boltzmann equation for gas mixtures and the BGK approximation are presented. Especially, issues in extending these models to gas mixtures are discussed. A non-reactive two component gas mixture is considered. The two species mixture is modelled by a system of kinetic BGK equations featuring two interaction terms to account for momentum and energy transfer between the two species. The model presented here contains several models from physicists and engineers as special cases. Consistency of this model is proven: conservation properties, positivity of all temperatures and the H-theorem. The form in global equilibrium as Maxwell distributions is specified. Moreover, the usual macroscopic conservation laws can be derived. In the literature, there is another type of BGK model for gas mixtures developed by Andries, Aoki and Perthame, which contains only one interaction term. In this thesis, the advantages of these two types of models are discussed and the usefulness of the model presented here is shown by using this model to determine an unknown function in the energy exchange of the macroscopic equations for gas mixtures described in the literature by Dellacherie. In addition, for each of the two models existence and uniqueness of mild solutions is shown. Moreover, positivity of classical solutions is proven. Then, the model presented here is applied to three physical applications: a plasma consisting of ions and electrons, a gas mixture which deviates from equilibrium and a gas mixture consisting of polyatomic molecules. First, the model is extended to a model for charged particles. Then, the equations of magnetohydrodynamics are derived from this model. Next, we want to apply this extended model to a mixture of ions and electrons in a special physical constellation which can be found for example in a Tokamak. The mixture is partly in equilibrium in some regions, in some regions it deviates from equilibrium. The model presented in this thesis is taken for this purpose, since it has the advantage to separate the intra and interspecies interactions. Then, a new model based on a micro-macro decomposition is proposed in order to capture the physical regime of being partly in equilibrium, partly not. Theoretical results are presented, convergence rates to equilibrium in the space-homogeneous case and the Landau damping for mixtures, in order to compare it with numerical results. Second, the model presented here is applied to a gas mixture which deviates from equilibrium such that it is described by Navier-Stokes equations on the macroscopic level. In this macroscopic description it is expected that four physical coefficients will show up, characterizing the physical behaviour of the gases, namely the diffusion coefficient, the viscosity coefficient, the heat conductivity and the thermal diffusion parameter. A Chapman-Enskog expansion of the model presented here is performed in order to capture three of these four physical coefficients. In addition, several possible extensions to an ellipsoidal statistical model for gas mixtures are proposed in order to capture the fourth coefficient. Three extensions are proposed: An extension which is as simple as possible, an intuitive extension copying the one species case and an extension which takes into account the physical motivation of the physicist Holway who invented the ellipsoidal statistical model for one species. Consistency of the extended models like conservation properties, positivity of all temperatures and the H-theorem are proven. The shape of global Maxwell distributions in equilibrium are specified. Third, the model presented here is applied to polyatomic molecules. A multi component gas mixture with translational and internal energy degrees of freedom is considered. The two species are allowed to have different degrees of freedom in internal energy and are modelled by a system of kinetic ellipsoidal statistical equations. Consistency of this model is shown: conservation properties, positivity of the temperature, H-theorem and the form of Maxwell distributions in equilibrium. For numerical purposes the Chu reduction is applied to the developed model for polyatomic gases to reduce the complexity of the model and an application for a gas consisting of a mono-atomic and a diatomic gas is given. Last, the limit from the model presented here to the dissipative Euler equations for gas mixtures is proven. KW - Polyatomare Verbindungen KW - Gasgemisch KW - Transportkoeffizient KW - Plasma KW - multi-fluid mixture KW - kinetic description of gases KW - entropy inequality KW - transport coefficients KW - Modellierung KW - well posedness KW - plasma modelling KW - polyatomic molecules KW - hydrodynamic limits Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-161077 SN - 978-3-95826-080-1 (Print) SN - 978-3-95826-081-8 (Online) N1 - Parallel erschienen als Druckausgabe in Würzburg University Press, ISBN 978-3-95826-080-1, 27,80 EUR. PB - Würzburg University Press CY - Würzburg ET - 1. Auflage ER - TY - THES A1 - Gerner, Bettina T1 - Improvement of oral antineoplastic therapy by means of pharmacometric approaches & therapeutic drug monitoring T1 - Verbesserung der oralen antineoplastischen Therapie mit Hilfe von pharmakometrischen Ansätzen und therapeutischem drug monitoring N2 - Oral antineoplastic drugs are an important component in the treatment of solid tumour diseases, haematological and immunological malignancies. Oral drug administration is associated with positive features (e.g., non-invasive drug administration, outpatient care with a high level of independence for the patient and reduced costs for the health care system). The systemic exposure after oral intake however is prone to high IIV as it strongly depends on gastrointestinal absorption processes, which are per se characterized by high inter-and intraindividual variability. Disease and patient-specific characteristics (e.g., disease state, concomitant diseases, concomitant medication, patient demographics) may additionally contribute to variability in plasma concentrations between individual patients. In addition, many oral antineoplastic drugs show complex PK, which has not yet been fully investigated and elucidated for all substances. All this may increase the risk of suboptimal plasma exposure (either subtherapeutic or toxic), which may ultimately jeopardise the success of therapy, either through a loss of efficacy or through increased, intolerable adverse drug reactions. TDM can be used to detect suboptimal plasma levels and prevent permanent under- or overexposure. It is essential in the treatment of ACC with mitotane, a substance with unfavourable PK and high IIV. In the current work a HPLC-UV method for the TDM of mitotane using VAMS was developed. A low sample volume (20 µl) of capillary blood was used in the developed method, which facilitates dense sampling e.g., at treatment initiation. However, no reference ranges for measurements from capillary blood are established so far and a simple conversion from capillary concentrations to plasma concentrations was not possible. To date the therapeutic range is established only for plasma concentrations and observed capillary concentrations could not be reliable interpretated.The multi-kinase inhibitor cabozantinib is also used for the treatment of ACC. However, not all PK properties, like the characteristic second peak in the cabozantinib concentration-time profile have been fully understood so far. To gain a mechanistic understanding of the compound, a PBPK model was developed and various theories for modelling the second peak were explored, revealing that EHC of the compound is most plausible. Cabozantinib is mainly metabolized via CYP3A4 and susceptible to DDI with e.g., CYP3A4 inducers. The DDI between cabozantinib and rifampin was investigated with the developed PBPK model and revealed a reduced cabozantinib exposure (AUC) by 77%. Hence, the combination of cabozantinib with strong CYP inducers should be avoided. If this is not possible, co administration should be monitored using TDM. The model was also used to simulate cabozantinib plasma concentrations at different stages of liver injury. This showed a 64% and 50% increase in total exposure for mild and moderate liver injury, respectively.Ruxolitinib is used, among others, for patients with acute and chronic GvHD. These patients often also receive posaconazole for invasive fungal prophylaxis leading to CYP3A4 mediated DDI between both substances. Different dosing recommendations from the FDA and EMA on the use of ruxolitinib in combination with posaconazole complicate clinical use. To simulate the effect of this relevant DDI, two separate PBPK models for ruxolitinib and posaconazole were developed and combined. Predicted ruxolitinib exposure was compared to observed plasma concentrations obtained in GvHD patients. The model simulations showed that the observed ruxolitinib concentrations in these patients were generally higher than the simulated concentrations in healthy individuals, with standard dosing present in both scenarios. According to the developed model, EMA recommended RUX dose reduction seems to be plausible as due to the complexity of the disease and intake of extensive co-medication, RUX plasma concentration can be higher than expected. N2 - Orale antineoplastische Arzneimittel (OADs) sind ein wichtiger Bestandteil der Behandlung von soliden Tumorerkrankungen, hämatologischen und immunologischen Malignomen. Die orale Verabreichung von Arzneimitteln geht mit positiven Eigenschaften einher (z. B. nicht-invasive Anwendung, ambulante Versorgung mit einem hohen Maß an Unabhängigkeit für den Patienten und geringere Kosten für das Gesundheitssystem). Die systemische Exposition nach oraler Einnahme unterliegt jedoch einer hohen interindividuellen Variabilität, da sie stark von gastrointestinalen Absorptionsprozessen abhängt, die per se durch eine hohe inter- und intraindividuelle Variabilität gekennzeichnet sind. Krankheits- und patientenspezifische Merkmale (z. B. Krankheitszustand, Begleiterkrankungen, Begleitmedikation, Demographie der Patienten) können zusätzlich zu einer Variabilität in den Plasmakonzentrationen zwischen einzelnen Patienten beitragen. Darüber hinaus weisen viele OADs eine komplexe Pharmakokinetik (PK) auf, die noch nicht für alle Substanzen hinreichend untersucht und aufgeklärt wurde. All dies kann das Risiko einer suboptimalen Plasmaexposition (entweder subtherapeutisch oder toxisch) erhöhen, was letztendlich den Therapieerfolg gefährden kann, entweder durch einen Wirkungsverlust oder durch vermehrt auftretende, nicht tolerierbare unerwünschte Arzneimittelwirkungen. Therapeutisches Drug Monitoring (TDM) kann eingesetzt werden, um suboptimale Plasmaspiegel zu erkennen und eine dauerhafte Unter- oder Überexposition zu verhindern. TDM ist in der Behandlung des Nebennierenrindenkarzinoms (ACC) mit Mitotane, einer Substanz, die sich durch ungünstige PK-Eigenschaften und einer hohen IIV auszeichnet, unerlässlich. In der vorliegenden Arbeit wurde eine HPLC-UV Methode für das TDM von Mitotane aus Trockenblut unter Verwendung volumetrisch absorptiver Mikroprobenahme (VAMS) entwickelt. Bei der entwickelten Methode wurde ein geringes Probenvolumen (20 µl) aus Kapillarblut verwendet, was eine häufigere Probenahme, z. B. zu Beginn der Behandlung, erleichtert. Allerdings gibt es bisher keine Referenzbereiche für Messungen aus Kapillarblut, und eine einfache Umrechnung von Kapillarkonzentrationen in Plasmakonzentrationen erwies sich als schwierig. Bislang ist der therapeutische Bereich nur für Plasmakonzentrationen festgelegt, und beobachtete Kapillarkonzentrationen konnten nicht zuverlässig interpretiert werden. Der Multi-Kinase-Inhibitor Cabozantinib wird ebenfalls für die Behandlung des ACC eingesetzt. Allerdings sind noch nicht alle PK-Eigenschaften, wie der charakteristische zweite Peak im Konzentrations-Zeit-Profil von Cabozantinib, vollständig untersucht. Um ein mechanistisches Verständnis des Wirkstoffs zu erlangen, wurde ein physiologie basiertes pharmakokinetisches (PBPK) Model entwickelt und verschiedene Theorien zur Modellierung des zweiten Peaks untersucht, wobei sich herausstellte, dass eine enterohepatische Rezirkulation der Substanz am plausibelsten ist. Cabozantinib wird hauptsächlich über CYP3A4 metabolisiert und ist daher anfällig für Wechselwirkungen mit z. B. CYP3A4-Induktoren. Die DDI zwischen Cabozantinib und Rifampin wurde mit dem entwickelten PBPK-Modell untersucht und ergab eine um 77 % verringerte Cabozantinib-Exposition (AUC). Daher sollte die Kombination von Cabozantinib mit starken CYP-Induktoren vermieden werden. Wenn dies nicht möglich ist, sollte die gemeinsame Verabreichung mittels TDM überwacht werden. Das Modell wurde außerdem verwendet, um die Cabozantinib Plasmakonzentrationen bei unterschiedlicher Schwere einer Leberschädigung zu simulieren. Hier zeigte sich eine um 64 % bzw. 50 % erhöhte Gesamtexposition bei leichter beziehungsweise mittlerer Leberschädigung. Ruxolitinib wird unter anderem bei Patienten mit akuter (aGvHD) und chronischer (cGvHD) Graft-versus-Host-Erkrankung eingesetzt. Diese Patienten erhalten häufig auch Posaconazol zur Prophylaxe invasiver Pilzerkrankungen, was zu einer CYP3A4-vermittelten DDI zwischen beiden Substanzen führen kann. Unterschiedliche Dosierungsempfehlungen der FDA und der EMA für die Verwendung von Ruxolitinib in Kombination mit Posaconazol erschweren die klinische Anwendung. Um die Auswirkung dieser relevanten DDI zu simulieren, wurden zunächst zwei separate PBPK-Modelle für Ruxolitinib und Posaconazol entwickelt, welche anschließend miteinander kombiniert wurden. Die vorhergesagte Ruxolitinib Exposition wurde mit beobachteten Plasmakonzentrationen von GvHD-Patienten verglichen. Die Modellsimulationen zeigten, dass die beobachteten Ruxolitinib Konzentrationen bei diesen Patienten im Allgemeinen höher waren als die simulierten Konzentrationen bei gesunden Personen, wobei in beiden Szenarien eine Standarddosierung vorlag. Dem Modell zufolge schient die von der EMA empfohlene Reduzierung der RUX-Dosis um 50 % daher plausibler bzw. ausreichend zu sein. KW - pharmacometrics KW - kinase inhibitor KW - modelling KW - Pharmakometrie KW - Kinaseinhibitor KW - Arzneimittelüberwachung KW - Modellierung KW - TDM KW - Therapeutisches Drug Monitoring Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-321966 ER - TY - THES A1 - Ziegler, Katrin T1 - Implementierung von verbesserten Landoberflächenparametern und -prozessen in das hochaufgelöste Klimamodell REMO T1 - Implementation of improved land surface parameters and processes for the high-resolution climate model REMO N2 - Das Ziel dieser Arbeit war neue Eingangsdaten für die Landoberflächenbeschreibung des regionalen Klimamodells REMO zu finden und ins Modell zu integrieren, um die Vorhersagequalität des Modells zu verbessern. Die neuen Daten wurden so in das Modell eingebaut, dass die bisherigen Daten weiterhin als Option verfügbar sind. Dadurch kann überprüft werden, ob und in welchem Umfang sich die von jedem Klimamodell benötigten Rahmendaten auf Modellergebnisse auswirken. Im Zuge der Arbeit wurden viele unterschiedliche Daten und Methoden zur Generierung neuer Parameter miteinander verglichen, denn neben dem Ersetzen der konstanten Eingangswerte für verschiedene Oberflächenparameter und den damit verbundenen Änderungen wurden als zusätzliche Verbesserung auch Veränderungen an der Parametrisierung des Bodens speziell in Hinblick auf die Bodentemperaturen in REMO vorgenommen. Im Rahmen dieser Arbeit wurden die durch die verschiedenen Änderungen ausgelösten Auswirkungen für das CORDEX-Gebiet EUR-44 mit einer Auflösung von ca. 50km und für das in dem darin eingebetteten neu definierten Deutschlandgebiet GER-11 mit einer Auflösung von ca. 12km getestet sowie alle Änderungen anhand von verschiedenen Beobachtungsdatensätzen validiert. Die vorgenommenen Arbeiten gliederten sich in drei Hauptteile. Der erste Teil bestand in dem vom eigentlichen Klimamodell unabhängigen Vergleich der verschiedenen Eingangsdaten auf unterschiedlichen Auflösungen und deren Performanz in allen Teilen der Erde, wobei ein besonderer Fokus auf der Qualität in den späteren Modellgebieten lag. Unter Berücksichtigung der Faktoren, wie einer globalen Verfügbarkeit der Daten, einer verbesserten räumlichen Auflösung und einer kostenlosen Nutzung der Daten sowie verschiedener Validationsergebnissen von anderen Studien, wurden in dieser Arbeit vier neue Topographiedatensätze (SRTM, ALOS, TANDEM und ASTER) und drei neue Bodendatensätze (FAOn, Soilgrid und HWSD) für die Verwendung im Präprozess von REMO aufbereitet und miteinander sowie mit den bisher in REMO verwendeten Daten verglichen. Auf Grundlage dieser Vergleichsstudien schieden bei den Topographiedaten die verwendeten Datensatz-Versionen von SRTM, ALOS und TANDEM für die in dieser Arbeit durchgeführten REMO-Läufe aus. Bei den neuen Bodendatensätzen wurde ausgenutzt, dass diese verschiedenen Bodeneigenschaften für unterschiedliche Tiefen als Karten zur Verfügung stellen. In REMO wurden bisher alle benötigten Bodenparameter abhängig von fünf verschiedenen Bodentexturklassen und einer zusätzlichen Torfklasse ausgewiesen und als konstant über die gesamte Modellbodensäule (bis ca. 10m) angenommen. Im zweiten Teil wurden auf Basis der im ersten Teil ausgewählten neuen Datensätze und den neu verfügbaren Bodenvariablen verschiedene Sensitivitätsstudien über das Beispieljahr 2000 durchgeführt. Dabei wurden verschiedene neue Parametrisierungen für die bisher aus der Textur abgeleiteten Bodenvariablen und die Parametrisierung von weiteren hydrologischen und thermalen Bodeneigenschaften verglichen. Ferner wurde aufgrund der neuen nicht über die Tiefe konstanten Bodeneigenschaften eine neue numerische Methode zur Berechnung der Bodentemperaturen der fünf Schichten in REMO getestet, welche wiederum andere Anpassungen erforderte. Der Test und die Auswahl der verschiedenen Datensatz- und Parametrisierungsversionen auf die Modellperformanz wurde in drei Experimentpläne unterteilt. Im ersten Plan wurden die Auswirkungen der ausgewählten Topographie- und Bodendatensätze überprüft. Der zweite Plan behandelte die Unterschiede der verschiedenen Parametrisierungsarten der Bodenvariablen hinsichtlich der verwendeten Variablen zur Berechnung der Bodeneigenschaften, der über die Tiefe variablen oder konstanten Eigenschaften und der verwendeten Berechnungsmethode der Bodentemperaturänderungen. Durch die Erkenntnisse aus diesen beiden Experimentplänen, die für beide Untersuchungsgebiete durchgeführt wurden, ergaben sich im dritten Plan weitere Parametrisierungsänderungen. Alle Änderungen dieses dritten Experimentplans wurden sukzessiv getestet, sodass der paarweise Vergleich von zwei aufeinanderfolgenden Modellläufen die Auswirkungen der Neuerung im jeweils zweiten Lauf widerspiegelt. Der letzte Teil der Arbeit bestand aus der Analyse von fünf längeren Modellläufen (2000-2018), die zur Überprüfung der Ergebnisse aus den Sensitivitätsstudien sowie zur Einschätzung der Performanz in weiteren teilweise extremen atmosphärischen Bedingungen durchgeführt wurden. Hierfür wurden die bisherige Modellversion von REMO (id01) für die beiden Untersuchungsgebiete EUR-44 und GER-11 als Referenzläufe, zwei aufgrund der Vergleichsergebnisse von Experimentplan 3 selektierte Modellversionen (id06 und id15a für GER-11) sowie die finale Version (id18a für GER-11), die alle vorgenommenen Änderungen dieser Arbeit enthält, ausgewählt. Es stellte sich heraus, dass sowohl die neuen Topographiedaten als auch die neuen Bodendaten große Differenzen zu den bisherigen Daten in REMO haben. Zudem änderten sich die von diesen konstanten Eingangsdaten abgeleiteten Hilfsvariablen je nach verwendeter Parametrisierung sehr deutlich. Dies war besonders gut anhand der Bodenparameter zu erkennen. Sowohl die räumliche Verteilung als auch der Wertebereich der verschiedenen Modellversionen unterschieden sich stark. Eine Einschätzung der Qualität der resultierenden Parameter wurde jedoch dadurch erschwert, dass auch die verschiedenen zur Validierung herangezogenen Bodendatensätze für diese Parameter deutlich voneinander abweichen. Die finale Modellversion id18a ähnelte trotz der umfassenden Änderungen in den meisten Variablen den Ergebnissen der bisherigen REMO-Version. Je nach zeitlicher und räumlicher Aggregation sowie unterschiedlichen Regionen und Jahreszeiten wurden leichte Verbesserungen, aber auch leichte Verschlechterungen im Vergleich zu den klimatologischen Validationsdaten festgestellt. Größere Veränderungen im Vergleich zur bisherigen Modellversion konnten in den tieferen Bodenschichten aufgezeigt werden, welche allerdings aufgrund von fehlenden Validationsdaten nicht beurteilt werden konnten. Für alle 2m-Temperaturen konnte eine tendenzielle leichte Erwärmung im Vergleich zum bisherigen Modelllauf beobachtet werden, was sich einerseits negativ auf die ohnehin durchschnittlich zu hohe Minimumtemperatur, aber andererseits positiv auf die bisher zu niedrige Maximumtemperatur des Modells in den betrachteten Gebieten auswirkte. Im Niederschlagssignal und in den 10m-Windvariablen konnten keine signifikanten Änderungen nachgewiesen werden, obwohl die neue Topographie an manchen Stellen im Modellgebiet deutlich von der bisherigen abweicht. Des Weiteren variierte das Ranking der verschiedenen Modellversionen jeweils nach dem angewendeten Qualitätsindex. Um diese Ergebnisse besser einordnen zu können, muss berücksichtigt werden, dass die neuen Daten für Modellgebiete mit 50 bzw. 12km räumlicher Auflösung und der damit verbundenen hydrostatischen Modellversion getestet wurden. Zudem sind vor allem in Fall der Topographie die bisher enthaltenen GTOPO-Daten (1km Auflösung) für die Aggregation auf diese gröbere Modellauflösung geeignet. Die bisherigen Bodendaten stoßen jedoch mit 50km Auflösung bereits an ihre Grenzen. Zusätzlich ist zu beachten, dass nicht nur die Mittelwerte dieser Daten, sondern auch deren Subgrid-Variabilität als Variablen im Modell für verschiedene Parametrisierungen verwendet werden. Daher ist es essentiell, dass die Eingangsdaten eine deutlich höhere Auflösung bereitstellen als die zur Modellierung definierte Auflösung. Für lokale Klimasimulationen mit Auflösungen im niedrigen Kilometerbereich spielen auch die Vertikalbewegungen (nicht-hydrostatische Modellversion) eine wichtige Rolle, die stark von der Topographie sowie deren horizontaler und vertikaler Änderungsrate beeinflusst werden, was die in dieser Arbeit eingebauten wesentlich höher aufgelösten Daten für die zukünftige Weiterentwicklung von REMO wertvoll machen kann. N2 - The main aim of this work was to find new input data sets for the land surface description of the regional climate model REMO and to integrate them into the model in order to improve the predictive quality of the model. The new data sets have been incorporated into the model in such a way that the previous data are still available as an option for the model run. This allows to check whether and to what extent the boundary data required by each climate model have an impact on the model results. In this study comparisons of many different data sets and methods for generating new parameters are included. In addition to replacing the constant input values for different surface parameters and the associated changes, changes were also made for the parameterization of the soil, especially with regard to the soil temperatures in REMO. The effects of different changes which were made in this study were analysed for the CORDEX region EUR-44 with a resolution of 50km and for a newly defined German area GER-11 with a resolution of 12km. All changes were validated with different observational data sets. The work process was divided into three main parts. The first part was independent of the actual climate model and included the comparison of different input data sets at different resolutions and their performance in all parts of the world. Taking into account factors such as global availability of the data, improved spatial resolution and free use of the data, as well as various validation results from other studies, four new topography data sets (SRTM, ALOS, TANDEM and ASTER) and three new soil data sets (FAOn, Soilgrid and HWSD) were processed for the usage by REMO and compared with each other and with the data sets previously used in REMO. Based on these comparative studies of the topographical data sets the SRTM, ALOS and TANDEM data set versions were excluded from the further usage in REMO in this study. For the new soil data sets the fact that they provide different soil properties for different depths as maps has been taken advantage of. In the previous REMO versions, all required soil parameters so far have been determined depending on five different soil texture classes with an additional peat class and assumed to be constant over the entire model soil column (up to approximately 10m). In the second part, several sensitivity studies were tested for the year 2000 based on the new data sets selected in the first part of the analysis and on the new available soil variables. Different new parameterizations for soil variables previously derived from the soil texture now based on the sand, clay and organic content of the soil as well as new parameterizations of further hydrological and thermal properties of soil were compared. In addition, due to the new non-constant soil properties, a new numerical method for calculating the soil temperatures of the five layers in the model was tested, which in turn necessitated further adjustments. The testing and selection of the different data sets and parameterization versions for the model according to performance was divided into three experimental plans. In the first plan, the effects of the selected topography and soil data sets were examined. The second plan dealt with the differences between the different types of parameterization of the soil variables in terms of the variables used to calculate the properties, the properties variable or constant over depth, and the method used to calculate the changes in soil temperature. The findings of these two experimental plans, which were carried out for both study areas, led to further parameterization changes in the third plan. All changes in this third experimental plan were tested successively, so the pairwise comparison of two consecutive model runs reflects the impact of the innovation in the second run. The final part of the analysis consists of five longer model runs (2000-2018), which were carried out to review the results of the sensitivity studies and to assess the performance under other, sometimes extreme, atmospheric conditions. For this purpose, the previous model version of REMO (id01) for the two study areas (EUR-44 and GER-11) served as reference runs. Two new model versions (GER-11 of id06 and id15a) were selected on the basis of the comparison results of the third experimental plan and the final version (GER-11 of id18a) which contains all changes made in this work was also chosen for a detailed analysis. Taken together the results show that both the new topography data and the new soil data differ crucially from the previous data sets in REMO. In addition, the auxiliary variables derived from these constant input data change significantly depending on the parameterization used, especially for the soil parameters. Both the spatial distribution and the range of values of the different model versions differ greatly. However, a quality assessment of the parameterization is difficult because different soil data sets used for the validation of the parameters also differ significantly. The final model version (id18a) is similar to the results of the previous REMO version in most variables, despite the extensive changes of the input data and parametrizations. Depending on temporal and spatial aggregation as well as different regions and seasons, slight improvements have been observed, but also slight deterioration compared to the climatological validation data. In the deeper soil layers larger changes could be identified compared to the previous model version, which could not be assessed due to a lack of validation data. Overall, there was also a slight warming of all 2m temperatures compared to the previous model run, which on the one hand has a negative effect on the already too high minimum temperature, but on the other hand has a positive effect on the previously too low maximum temperature of the model in the study areas. No significant changes could be detected in the precipitation signal and in the 10m wind variables, although the new topography differs significantly from the previous topography at some points in the test area. Furthermore, the ranking of the different model versions varied according to the quality index applied. To evaluate the results it has to be considered that the new data were tested for model regions with 50 and 12km spatial resolution and the associated hydrostatic model version. The so far already included data are suitable for aggregation to this coarser model resolution, especially in the case of topography (GTOPO with 1km resolution). However, the previous soil data already reach their limits with 50km resolution. In addition, it should be noted that not only the mean values of these data, but also their subgrid variability are used as variables in the model for different parameterizations. Therefore, it is essential that the input data provide a significantly higher resolution than the resolution defined for modeling. Vertical fluxes (non-hydrostatic model version) play an important role in local climate simulations with resolutions in the low kilometre range, which are strongly influenced by the topography and its horizontal and vertical change rate, which may make the much higher resolution data incorporated in this work valuable for the future development of REMO. KW - Klimamodell KW - Datenanalyse KW - Modellierung KW - Topographie KW - Klimamodellierung KW - REMO KW - Vergleich verschiedener Modellparameterisierungen KW - Bodenparameter KW - Topographiedaten KW - parametrizations Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-261285 ER - TY - THES A1 - Zeeshan [geb. Majeed], Saman T1 - Implementation of Bioinformatics Methods for miRNA and Metabolic Modelling T1 - Die Umsetzung der Bioinformatik-Methoden für miRNA-und der Metabolischen Modellierung N2 - Dynamic interactions and their changes are at the forefront of current research in bioinformatics and systems biology. This thesis focusses on two particular dynamic aspects of cellular adaptation: miRNA and metabolites. miRNAs have an established role in hematopoiesis and megakaryocytopoiesis, and platelet miRNAs have potential as tools for understanding basic mechanisms of platelet function. The thesis highlights the possible role of miRNAs in regulating protein translation in platelet lifespan with relevance to platelet apoptosis and identifying involved pathways and potential key regulatory molecules. Furthermore, corresponding miRNA/target mRNAs in murine platelets are identified. Moreover, key miRNAs involved in aortic aneurysm are predicted by similar techniques. The clinical relevance of miRNAs as biomarkers, targets, resulting later translational therapeutics, and tissue specific restrictors of genes expression in cardiovascular diseases is also discussed. In a second part of thesis we highlight the importance of scientific software solution development in metabolic modelling and how it can be helpful in bioinformatics tool development along with software feature analysis such as performed on metabolic flux analysis applications. We proposed the “Butterfly” approach to implement efficiently scientific software programming. Using this approach, software applications were developed for quantitative Metabolic Flux Analysis and efficient Mass Isotopomer Distribution Analysis (MIDA) in metabolic modelling as well as for data management. “LS-MIDA” allows easy and efficient MIDA analysis and, with a more powerful algorithm and database, the software “Isotopo” allows efficient analysis of metabolic flows, for instance in pathogenic bacteria (Salmonella, Listeria). All three approaches have been published (see Appendices). N2 - Dynamische Wechselwirkungen und deren Veränderungen sind wichtige Themen der aktuellen Forschung in Bioinformatik und Systembiologie. Diese Promotionsarbeit konzentriert sich auf zwei besonders dynamische Aspekte der zellulären Anpassung: miRNA und Metabolite. miRNAs spielen eine wichtige Rolle in der Hämatopoese und Megakaryozytopoese, und die Thrombozyten miRNAs helfen uns, grundlegende Mechanismen der Thrombozytenfunktion besser zu verstehen. Die Arbeit analysiert die potentielle Rolle von miRNAs bei der Proteintranslation, der Thrombozytenlebensdauer sowie der Apoptose von Thrombozyten und ermöglichte die Identifizierung von beteiligten Signalwegen und möglicher regulatorischer Schlüsselmoleküle. Darüber hinaus wurden entsprechende miRNA / Ziel-mRNAs in murinen Thrombozyten systematisch gesammelt. Zudem wurden wichtige miRNAs, die am Aortenaneurysma beteiligt sein könnten, durch ähnliche Techniken vorhergesagt. Die klinische Relevanz von miRNAs als Biomarker, und resultierende potentielle Therapeutika, etwa über eine gewebsspezifische Beeinflussung der Genexpression bei Herz-Kreislauf Erkrankungen wird ebenfalls diskutiert. In einem zweiten Teil der Dissertation wird die Bedeutung der Entwicklung wissenschaftlicher Softwarelösungen für die Stoffwechselmodellierung aufgezeigt, mit einer Software-Feature-Analyse wurden verschiedene Softwarelösungen in der Bioinformatik verglichen. Wir vorgeschlagen dann den "Butterfly"-Ansatz, um effiziente wissenschaftliche Software-Programmierung zu implementieren. Mit diesem Ansatz wurden für die quantitative Stoffflussanalyse mit Isotopomeren effiziente Software-Anwendungen und ihre Datenverwaltung entwickelt: LS-MIDA ermöglicht eine einfache und effiziente Analyse, die Software "Isotopo" ermöglicht mit einem leistungsfähigeren Algorithmus und einer Datenbank, eine noch effizientere Analyse von Stoffwechselflüssen, zum Beispiel in pathogenen Bakterien (Salmonellen, Listerien). Alle drei Ansätze wurden bereits veröffentlicht (siehe Appendix). KW - miRNS KW - Bioinformatics KW - miRNA KW - Metabolic Modelling KW - Spectral Data Analysis KW - Butterfly KW - Thrombozyt KW - Bioinformatik KW - Stoffwechsel KW - Modellierung KW - Metabolischen Modellierung Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-102900 ER - TY - THES A1 - Borgstedt, Ariane T1 - Grundwasserneubildung im Einzugsgebiet des Ouham, Zentralafrikanische Republik : Bestimmung mit klassischen Methoden und einer computergestützten Modellierung T1 - Groundwaterrecharge in the cathmentarea of the river Ouham, Central African Republic. Determination with classical evaluation methods and a computer bades modelisation N2 - Ziel dieser Arbeit war es, die Grundwasserneubildung im Einzugsgebiet des Ouham mit den vorhandenen zum Teil sehr lückenhaften Daten zu bestimmen. Hierbei sollten unterschiedliche Methoden in der wechselfeuchten, subtropischen Klimazone verglichen und bewertet werden. Das Arbeitsgebiet umfasst das Einzugsgebiet des Oberlaufes des Ouham, eines Flusses im Nordwesten der Zentralafrikanischen Republik. Das hier untersuchte Flussnetz gehört zum Einzugsgebiet des Chari und fließt dem abflusslosen Tschadbecken zu. Das Einzugsgebiet des Ouham liegt in der sahel-sudanischen Klimazone. Zwischen November und März bzw. April herrschen hier trockene Nordostwinde vor, d.h. messbarer Oberflächenabfluss findet in der Trockenzeit lediglich in den Flüssen erster Ordnung statt. Von Mai bis Oktober bestimmen feuchte Südwestwinde das Wetter, es bilden sich zusätzlich zu den Abflüssen erster Ordnung Abflüsse dort, wo es Morphologie und Bodenverhältnisse zulassen. Das Abflussverhalten des Ouham wird im Untersuchungsgebiet an fünf Flusspegeln gemessen. Die größten Abflussspenden treten im Westen auf, mit der Abnahme des Niederschlags nach Osten nimmt auch die Abflussspende der einzelnen Einzugsgebiete ab. Die maximalen Abflussmengen der einzelnen Pegel werden in den westlicheren Teileinzugsgebieten im September gemessen, in den östlicheren Teileinzugsgebieten erstreckt sich das Maximum über September und Oktober bzw. Oktober. Der Niederschlag nimmt von Südwesten nach Nordosten kontinuierlich ab, dieser allgemeine Trend wird durch die Steigungsregen am Massiv von „Bakoré“ modifiziert. Niederschlagsreiche Jahre sind 1951 bis 1952, 1954 bis 1955, 1957, 1960, 1962, 1963 und 1969, ausgeprägt niederschlagsarme Jahre sind 1972, 1973, 1977, 1982 bis 1984 und 1986 bis 1987. Das Untersuchungsgebiet besteht zum größten Teil aus einem proterozoischen Granit-Gneis-Sockel, der im äußersten Südwesten von mesozoischen Sandsteinen bedeckt ist. Das gesamte Grundgebirge ist von einer Vielzahl von Störungen durchzogen, deren Hauptstörungsrichtung Nordwest – Südost, bzw. senkrecht dazu verläuft. Innerhalb großer Störungs- und Intrusionsbereiche ist das Gestein stärker geklüftet. Die Grundwasserneubildung wurde mit unterschiedlichen Methoden berechnet, zum erst auf der Basis von Abflussdaten nach drei unterschiedlichen Verfahren (WUNDT, KILLE, MAILLET), dann mit der Wasserhaushaltsgleichung und durch eine Modellierung der Wasserbilanz mit dem Programm MODBIL . Die ermittelten unterirdischen Abflüsse differieren deutlich. Am höchsten sind die Abflussmengen nach WUNDT, am niedrigsten sind die nach MAILLET berechneten. Für das Einzugs¬gebiet des Ouham, mit der vorhandenen, im Westen deutlich ausgeprägten Topo¬graphie und den heftigen schub¬weise erfolgenden Niederschlägen, wurde die nach KILLE ermittelten Grundwasserneubildungsraten als realistisch gegenüber den Grundwasserneubildungsraten nach WUNDT angesehen. Die Grundwasserneubildung nimmt aufgrund des unterschiedlichen Wasserdargebotes von Westen nach Osten ab, im Westen werden in niederschlagsreichen Jahren 150 mm/Jahr, während es im Osten lediglich 79 mm/Jahr sind. In niederschlagsarmen Jahren nimmt die Grundwasserneubildung von 106 mm/Jahr im Westen auf 64 mm/Jahr im Osten ab. Nach MAILLET wird eine Grundwasserneubildungsrate von 50 mm/Jahr im Westen und 26 mm/Jahr im Osten berechnet, sie stellt ein Mindestmaß an Grundwasserneubildung dar. Die Bestimmung der Grundwasserneubildung mit der Wasserhaushaltsgleichung wurde als Plausibilitätskontrolle der aus Abflussdaten ermittelten Werte durchgeführt. Die ermittelten Grundwasserneubildungsraten liegen deutlich über denen nach dem Verfahren von KILLE und MAILLET berechneten. In einem weiteren Verfahren wurde die Berechnung der Grundwasserneubildung durch Modellierung der Wasser¬bilanz mit dem Programm MODBIL durchgeführt. Hierbei werden vorhandene Punktdaten wie Niederschlag, Temperatur und Verdunstung mit primär existierenden Raumdaten wie Topographie, Morphologie, Landnutzung und Geologie in Raumdaten umgewandelt und auf Grundlage des Bodenwasserhaushaltes die aktuelle Verdunstung, der Abfluss und die Grundwasserneubildung berechnet. Die berechneten Mittelwerte von effektivem Niederschlag, potentieller und aktueller Verdunstung der einzelnen Teileinzugsgebiete lassen einen deutlichen West-Ost-Trend erkennen. Der höchste effektive Niederschlag fällt im westlichsten Einzugsgebiet und nimmt weiter nach Osten weiter ab. Potentielle und aktuelle Verdunstung nehmen von Westen nach Osten zu, wobei bei der aktuellen Verdunstung dieser Trend nicht sehr stark ausgeprägt ist. Das mittlere Abflussverhalten der Teileinzugsgebiete folgt keinem deutlichen West-Ost-Trend. Im Gegensatz dazu nimmt die Grundwasserneubildung von Westen nach Osten ab. N2 - The main object of this work was to determine the groundwater recharge in the catchment area of the river Ouham, Central African Republic, with the existing partially fragmentary data by using different methods. The different approaches have been tested and evaluated for their applicability in subtropical areas. The river Ouham flowing in the Northwest of the Central African Republic is part of the catchment area of the river Chari and drains into the Lake Chad Basin. The area under investigation is part of the humid alternating tropics, therefore hot and dry winds coming from the Northeast are predominant from November to March or April. In this time surface runoff is taking place only in rivers of first order. From Mai to October humid winds coming from the Southeast dominate the weather. Surface runoff is formed not only in rivers of first order but everywhere the morphology and the soil characteristics admits it. The surface runoff is measured with the five staff gauges. The western part of catchment area shows the highest specific discharge, while this decreases to the east due to lower precipitation. The maximum rate of runoff is measured in September in the western catchment area, in the eastern part of the catchment areas this occurs in October. Precipitation is continuously decreasing from Southwest to Northeast with the exception of the mountainous region of “Bakoré”. Years with high of precipitation were 1951, 1952, 1954 to 1955, 1957, 1960, 1962, 1963 and 1969, whereas 1972, 1973, 1977, 1982 to 1984 and 1986 to 1987 were years with low precipitation. The area of investigation consists mainly of a proterozoic basement build of granite and gneiss, which is overlaid in the Southwest with mesozoic sandstones. The whole basement area is crossed by many faults running mainly Northwest – Southeast or perpendicular to it. Within big areas of faulting and intrusion the rock is highly fissured. The groundwater recharge is calculated first with runoff data, secondly with the “hydrological book-keeping equation” and than with a computer-based program called MODBIL. The calculation based on runoff data was carried out with the methods of WUNDT, KILLE and MAILLET. The results differ clearly. The maximum groundwater recharge was calculated with WUNDT, the minimum recharge is the one of MAILLET. For the catchment area of the river Ouham with a highly pronounced topography in the West and heavy and batch-wise precipitation, the groundwater recharge calculated with KILLE seems to be the most realistic one. The groundwater recharge decreases with the decreasing available water supply from West to East. In the West it amounts to 150 mm/year in years with lots of precipitation, whereas in the East it only comes to 79 mm/year. In years of poor of precipitation the calculated groundwater recharge is 106 mm/year in the West and 64 mm/year in the East. The results of the MAILLET-method show a recharge rate of 50 mm/year in the West and of 26 mm/year in the East which is a minimum of the groundwater recharge. The determination of the recharge with “hydrological book-keeping equation” is done as a plausibility control of the results obtained with runoff data. The recharge rates of the “hydrological book-keeping equation” are clearly higher than the one calculated with the methods of KILLE and MAILLET. With the computer-based program MODBIL point data such as precipitation, temperature and evaporation are transferred into space data using primary existing space data as topography, morphology, land use and geology. The actual evaporation, the runoff and the groundwater recharge is calculated on the basis of soil water household. The averages of the effective precipitation, potential and actual evaporation show a clear West-East-tendency. The highest effective precipitation is falling in the westernmost part of the catchment area and decreases to the East. Potential and actual evaporation increases from West to East, but this tendency is only slightly visible for the actual evaporation. The average runoff behaviour does not show any tendency. Contrary to this, the groundwater recharge decreases clearly from West to East. The rates of recharge are in the same dimension as the ones calculated with KILLE. KW - Ouham KW - Grundwasserbildung KW - Grundwasserneubildung KW - Zentralafrika KW - Modellierung Y1 - 2003 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-10892 ER - TY - THES A1 - Külls, Christoph T1 - Groundwater of the North-Western Kalahari, Namibia T1 - Das Grundwasser am Nord-Westrand der Kalahari, Namibia N2 - A quantitative model of groundwater flows contributing to the Goblenz state water scheme at the north-western fringe of the Kalahari was developed within this study. The investigated area corresponds to the Upper Omatako basin and encompasses an outer mountainous rim and sediments of the Kalahari sand desert in the centre. This study revealed the eminent importance of the mountainous rim for the water balance of the Kalahari, both in terms of surface and ground water. A hydrochemical subdivision of groundwater types in the mountain rim around the Kalahari was derived from cluster analysis of hydrochemical groundwater data. The western and south-western secondary aquifers within rocks of the Damara Sequence, the Otavi Mountain karst aquifers of the Tsumeb and Abenab subgroups as well as the Waterberg Etjo sandstone aquifer represent the major hydrochemical groups. Ca/Mg and Sr/Ca ratios allowed to trace the groundwater flow from the Otavi Mountains towards the Kalahari near Goblenz. The Otavi Mountains and the Waterberg were identified as the main recharge areas showing almost no or only little isotopic enrichment by evaporation. Soil water balance modelling confirmed that direct groundwater recharge in hard-rock environments tends to be much higher than in areas covered with thick Kalahari sediments. According to the water balance model average recharge rates in hard-rock exposures with only thin sand cover are between 0.1 and 2.5 % of mean annual rainfall. Within the Kalahari itself very limited recharge was predicted (< 1 % of mean annual rainfall). In the Upper Omatako basin the highest recharge probability was found in February in the late rainfall season. The water balance model also indicated that surface runoff is produced sporadically, triggering indirect recharge events. Several sinkholes were discovered in the Otavi Foreland to the north of Goblenz forming short-cuts to the groundwater table and preferential recharge zones. Their relevance for the generation of indirect recharge could be demonstrated by stable isotope variations resulting from observed flood events. Within the Kalahari basin several troughs were identified in the pre-Kalahari surface by GIS-based analyses. A map of saturated thickness of Kalahari sediments revealed that these major troughs are partly saturated with groundwater. The main trough, extending from south-west to north-east, is probably connected to the Goblenz state water scheme and represents a major zone of groundwater confluence, receiving groundwater inflows from several recharge areas in the Upper Omatako basin. As a result of the dominance of mountain front recharge the groundwater of the Kalahari carries an isotopic composition of recharge at higher altitudes. The respective percentages of inflow into the Kalahari from different source areas were determined by a mixing-cell approach. According to the mixing model Goblenz receives most of its inflow (70 to 80 %) from a shallow Kalahari aquifer in the Otavi Foreland which is connected to the Otavi Mountains. Another 15 to 10 % of groundwater inflow to the Kalahari at Goblenz derive from the Etjo sandstone aquifer to the south and from inflow of a mixed component. In conclusion, groundwater abstraction at Goblenz will be affected by measures that heavily influence groundwater inflow from the Otavi Mountains, the Waterberg, and the fractured aquifer north of the Waterberg. N2 - Ziel dieser Arbeit ist es, die Herkunft des Grundwassers zu untersuchen, das in der Nähe von Goblenz am Rand der Namibianischen Kalahari in den letzten Jahren erschlossen worden ist. Fragen zur Erneuerbarkeit dieser Grundwasserreserven aus direkter und indirekter Neubildung und zur Rolle lateraler, unterirdischer Zuflüsse von unterschiedlichen Herkunftsräumen waren hierfür zu beantworten. Dies erforderte eine kombinierte Anwendung hydro(geo)logischer, hydrochemischer und isotopenhydrologischer Methoden. Das Arbeitsgebiet in Namibia ist als semi-arid zu bezeichnen und durch ein subtropisches Klimaregime geprägt. Aufgrund der hohen Temperaturen während der Regenzeit verdunstet ein erheblicher Teil der Niederschläge direkt oder durch Transpiration. Daher ist die Kalahari trotz der zum Teil für semi-aride Gebiete vergleichbar hohen Niederschläge von 350 bis über 550 mm/Jahr relativ arm an Oberflächen- und verfügbarem Grundwasser. Ein wesentliches Merkmal des Arbeitsgebietes ist zudem die Dichotomie zwischen dem äußeren Festgesteinsbereich und dem überwiegend mit Sanden bedeckten Kalahari-Becken. Für das Grundwasserfließsystem der Kalahari ist der äußere Festgesteinsbereich bestimmend. Der erstellte regionale Grundwassergleichenplan zeigt ein annähernd zentripetales Fließmuster, das in der Nähe von Goblenz konvergiert, mit einer Hauptentwässerung zur Groß-Kalahari Richtung Osten. Die Neubildungsgebiete liegen in den unterschiedlichen zum Teil verkarsteten Festgesteinsbereichen der Damara Sequenz und des Etjo-Sandsteins (Waterberg). Allerdings konnte auch innerhalb der Kalahari südlich von Goblenz ein begrenztes Grundwasserneubildungsgebiet identifiziert werden. In diesem Bereich haben sich durch die Verkarstung anstehender Kalkkrusten gute Neubildungsbedingungen für das flache Grundwasser entwickelt. Durch die Kombination digitaler Rasterkarten der Geländehöhe, der Kalahari-Mächtigkeit und der Grundwasserstände konnte eine Karte der Bereiche erstellt werden, in denen die Kalahari mit Grundwasser gesättigt ist. Ein Vergleich mit digitalisierten Karten aus früheren geophysikalischen Untersuchungen zeigte eine gute Übereinstimmung. Daraus konnte ein verallgemeinertes Modell der Sättigungsmächtigkeit abgeleitet werden. Aus diesem Modell werden zwei mit Kalahari-Sedimenten verfüllte und gesättigte Rinnen erkennbar. Diese Rinnen sind bevorzugte Fließbahnen für die Grundwasserbewegung vom Festgesteinsrand zum Zentrum des Kalahari-Beckens und stellen zudem Erkundungs- und Erschließungsziele für Grundwasser dar. Die Wassererschließung von Goblenz grenzt an die größere nördliche Rinne. Eine Karte der Mächtigkeit der ungesättigten Zone wurde aus der Verschneidung des digitalen Geländemodells mit einem interpolierten Grundwassergleichenplan errechnet. Diese Karte deutet auf ausgedehnte Bereiche geringer Flurabstände im südlichen und nördlichen Teil des Einzugsgebietes Oberer Omatako hin. Diese Informationen wurden zudem als wesentliche Grundlagen für die regionale Interpretation der stabilen Isotope verwendet. Die Grundwasserneubildung im Oberen Omatako wurde mit mehreren Methoden vergleichend abgeschätzt. Eine klimatische Wasserbilanz aus Tageswerten des Niederschlages (Nt) und der gemessenen Pfannenverdunstung (Vt) zeigte, daß die Neubildung des Grundwassers im Februar am wahrscheinlichsten ist. Nur Niederschlagsereignisse mit hoher Jährlichkeit vermögen dabei auf Tagesbasis die erforderliche Neubildungsbedingung Nt > Vt zu erfüllen. Daraus ergibt sich, daß Grund-wasserneubildung in der Regel nur infolge zeitlicher oder räumlicher Konzentration von Niederschlägen und Abflüssen erfolgen kann und unter Umständen nicht jährlich stattfindet. Eine Erweiterung der klimatischen Wasserbilanz um die Modellierung des Bodenwasserhaushaltes wurde schließlich verwendet, um für den Bereich ‚Grootfontein‘ eine detaillierte Betrachtung der Grundwasserneubildung aufgrund von Tageswerten zu ermöglichen. Das Bodenwasserhaushaltsmodell wurde zunächst mit empirisch erhobenen bodenphysikalischen Kennwerten belegt und dann anhand von Grundwasserständen kalibriert. Dabei ergaben sich Neubildungsraten von 0.4 bis 9.6 mm/Jahr oder von 0.1 bis 2.5 % des jeweiligen jährlichen Niederschlages. Ein Zusammenhang zwischen dem Jahresmittel des Niederschlages und der Neubildungsrate war nicht ausgeprägt, die Häufung hoher Intensitäten täglicher Niederschläge erwies sich aber als ein wesentlicher Faktor für hohe direkte Neubildungsraten. Auch die Bodenwassermodellierung deutete auf eine höhere Wahrscheinlichkeit der Grundwasserneubildung im Februar hin. Die mit der Chloridmethode ermittelte Neubildungsrate lag mit 8.5 bis 14 mm/Jahr für dieses Gebiet höher. Der Unterschied kann sich aus den bei der Chloridmethode zusätzlich berücksichtigten Komponenten des Makroporenflusses, der indirekten Neubildung und aus anderen lateralen Zuflüssen ergeben. Geländebeobachtungen zeigten jedoch, daß solche Modellergebnisse nur begrenzt verallgemeinerbar oder übertragbar sind. Im Otavi Vorland nördlich von Goblenz wurde eine Reihe von Schlucklöchern entdeckt. Diese haben sich unter geringmächtiger Sandbedeckung in Kalkkrusten durch Verkarstung entwickelt und sind durch das Einbrechen der oberen Bodenschicht vereinzelt sichtbar geworden. Zum einen deuten diese Schlucklöcher auf eine Veränderung der Grundwasserstände hin. Die Kalkkrusten, die sich im Quellgebiet unterhalb der Otavi-Berge durch Calcitausfällung entwickelt hatten, sind durch das Absinken der Grundwasserstände und durch die Aufwehung von Kalahari-Sanden nun lokal verkarstet und wiederum zu Neubildungsgebieten geworden. Solche Schlucklöcher können bevorzugte Fließ- und Überbrückungsbahnen zum Grundwasser darstellen. Die hydrologische Funktion solcher Schlucklöcher läßt sich mit physikalischen Modellen im regionalen Maßstab quantitativ schwer erfassen. Es wurden hydrochemische und Isotopen-Methoden zur indirekten Abschätzung des Fließsystems herangezogen. Zunächst wurde eine generelle Charakterisierung der Grundwässer anhand der Hauptelementchemie und mittels der hierarchischen Cluster-Analyse vorgenommen. Hierbei ließen sich fünf wesentliche Hauptgruppen im Arbeitsgebiet erkennen: Ca-HCO3-Wässer finden sich in den Bereichen der Damara Sequenz, in denen Marmore anstehen und gute Neubildungsbedingungen bieten, Ca-Mg-HCO3-Wässer und Mg-Ca-HCO3-Wässer sind charakteristisch für den Otavi Karst und das ihm vorgelagerte Otavi Vorland. Das Grundwasser im Etjo-Sandstein des Waterberges zeichnet sich durch eine äußerst geringe Mineralisierung und ein ausgeglichenes Verhältnis von Erdalkalien und Alkalien bei hohen Hydrogenkarbonat-Gehalten aus. In der Kalahari und in tieferen Grundwasser-Stockwerken des Otavi-Vorlandes treten schließlich Grundwässer mit hohen Natrium und Chlorid-Gehalten auf. Das Ca/Mg-Verhältnis und das Sr/Ca Verhältnis erwiesen sich als ausgezeichnete hydrochemische Indikatoren für die Unterscheidung von Grundwasser aus dem Otavi Karst und aus den sekundären Aquiferen der Damara Sequenz. Anhand von äußerst geringen molaren Sr/Ca Verhältnissen konnte der Abstrom des Grundwassers aus dem Otavi Karst in die Kalahari genau abgegrenzt und verfolgt werden. Die Chloridkonzentrationen im Grundwasser wurden im Hinblick auf die Anreicherung im Vergleich zum Niederschlag untersucht. Dabei wurden in den Festgesteinsbereichen Konzentrationen zwischen 25 und 100 mg/l festgestellt, die auf Anreicherungsfaktoren von ca. 25 bis 200 bzw. hindeuten. Dies entspricht unter vereinfachten Annahmen Neubildungsraten in der Größenordnung von 2 bis 20 mm/Jahr. In der Kalahari liegen die Konzentrationen von Chlorid mit 250 bis 750 mg/l im Mittel wesentlich höher; diese können in einigen Bereichen 5000 mg/l übersteigen. Eine Umrechnung in Neubildungsraten kann wegen der Konvergenz der Fließbahnen und möglicher geogener Quellen nicht mehr direkt erfolgen, allerdings deuten die hohen Chloridkonzentrationen auf Bereiche mit Verdunstungsverlusten und auf deutlich geringere Neubildungsraten innerhalb der Kalahari hin. Dieses gilt nicht für zwei Bereiche, in denen die Kalahari gering mächtig ist: Im Abstrom dieser Gebiete liegen die Chloridkonzentrationen deutlich niedriger und zeigen lokal erhöhte Neubildung des Grundwassers an. Eine weitergehende Charakterisierung der Wasserchemie und der Isotopenzusammensetzung erfolgte anhand von Grundwasserproben im direkten Umfeld von Goblenz. Hydrochemische Profile durch das Arbeitsgebiet deuteten Mischungsprozesse zwischen Endgliedern der fünf hydrochemischen Gruppen an. So konnte entlang des Flusses Omambonde Richtung Goblenz der laterale Zustrom von Grundwasser aus dem Etjo Sandstein von Westen und der Zustrom von dolomitischem Grundwasser qualitativ nachgewiesen werden. Ebenso ließen sich hydrochemische Hinweise auf eine Neubildung im Otavi Vorland finden, eventuell verursacht durch Versickerung in den beobachteten Schlucklöchern. Eine Untersuchung der stabilen Isotope 18O und 2H bestätigte die qualitativen Aussagen aus den Untersuchungen zur klimatischen Wasserbilanz: Aufgrund der deutlichen Verschiebung zwischen der mittleren gewichteten Isotopen-Zusammensetzung des Niederschlages und des Grundwassers erfolgt die Neubildung wahrscheinlich durch wenige intensive (und an schweren Isotopen abgereicherte) Niederschläge. Die Grundwässer der Kalahari haben eine ursprüngliche Isotopen-zusammensetzung, die derjenigen von hochgelegenen Niederschlagsgebieten entspricht (> 1750 m ü. NN). Damit ergibt sich ein weiterer Hinweis darauf, daß das Grundwasser der Kalahari entweder durch Sturzfluten gebildet wird, die sich in den höher liegenden Festgesteinsbereichen entwickeln, oder direkt im Randbereich neugebildet wird und der Kalahari unterirdisch zuströmt. Die zeitliche Variabilität der Isotopenzusammensetzung begrenzt die Trennschärfe für regionale Analysen. Nördlich von Goblenz im Bereich der beobachteten Schlucklöcher konnte anhand einer Zeitreihe der Isotopenzusammensetzung die Bedeutung von Sturzfluten für die Grundwasserneubildung direkt nachgewiesen werden. Die 14C und 3H Daten bestätigten die Abgrenzung der Neubildungsbereiche. Die aus den hydrogeologischen, hydrologischen, hydrochemischen und isotopen-hydrologischen Teiluntersuchungen gewonnenen Erkenntnisse wurden in einem Konzeptmodell des Grundwasserfließsystems Goblenz zusammengetragen. Aufgrund dieses Konzeptmodells wurden mit einem inversen hydrochemischen Mischungsansatz die jeweiligen Anteile aus den einzelnen Neubildungsgebieten berechnet. Hierzu wurde zunächst über thermodynamische Gleichgewichts-betrachtungen sichergestellt, daß die Annahme konservativen Verhaltens der für die Berechnung verwendeten Wasserinhaltsstoffe für das nähere Arbeitsgebiet um Goblenz gewährleistet war. Kritische Bereiche wurden als ‚Reaktions-Zonen‘ von den ‚Mischungs-Zonen‘ abgegrenzt und nicht in die mathematische Berechnung einbezogen. Der Etjo-Sandstein als Mischungszelle für den Bereich nördlich von Goblenz stellte für die Verwendung dieses nicht-reaktiven Mischungsansatzes im Arbeitsgebiet nahezu ideale Voraussetzungen dar. Zur praktischen Umsetzung des mathematischen Ansatzes wurde ein Programm (MIG, „Mixing Input Generator“) zur interaktiven Erstellung von Mischungsmodellen geschrieben (Anhang 1). Über ein iteratives Verfahren wurden schließlich die Fließraten ermittelt, welche sowohl die Wasserbilanz und als auch die Massenbilanz aller betrachteten Hauptelemente und Isotopen im Arbeitsgebiet optimal erklären. Durch dieses Verfahren wurde errechnet, daß ca. 70 bis 80 Prozent des Wassers, das in Goblenz gefördert wird, aus den Otavi Bergen stammt. Weitere 15 bis 10 % stammen jeweils aus dem Etjo Sandstein bzw. aus einer Mischkomponente von Grundwässern nördlich des Waterbergs. Detailbetrachtungen der Mischungskomponenten im Otavi Vorland zeigten, daß hier in einigen Bereichen eine Zumischung von geringen Anteilen neugebildeten Grundwassers erfolgt, in anderen Bereichen höher mineralisiertes Tiefenwasser zutritt. Der konservative Mischungsansatz stellt unter günstigen Bedingungen ein geeignetes Mittel zur inversen Berechnung von Fließraten dar. Allerdings sind dazu wie in diesem Falle umfangreiche Voruntersuchungen notwendig. Goblenz liegt in einem Konvergenzgebiet von Grundwasserströmen aus unterschiedlichen Neubildungsgebieten im Festgesteinsbereich. Für Goblenz ist der laterale Zustrom von Grundwasser aus dem Otavi Karst und dem Waterberg die entscheidende Wasserhaus-haltskomponente. Die direkte Neubildung in der Kalahari ist dagegen relativ gering. Allerdings kann eine zusätzliche Neubildung in verkarsteten und kaum oder nur mit geringmächtigen Sanden bedeckten Kalkkrusten eine Rolle spielen. KW - Kalahari KW - Grundwasser KW - Kalahari KW - Grundwasserbildung KW - Hydrogeologie KW - Namibia KW - Grundwasser KW - Kalahari KW - Isotope KW - Modellierung KW - Ground water KW - Kalahari KW - isotopes KW - modelling Y1 - 2000 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-1180680 ER - TY - THES A1 - Paxian, Andreas T1 - Future changes in climate means and extremes in the Mediterranean region deduced from a regional climate model T1 - Zukünftige Veränderungen von Klimamittelwerten und -extremwerten im Mittelmeerraum abgeleitet von einem regionalen Klimamodell N2 - The Mediterranean area reveals a strong vulnerability to future climate change due to a high exposure to projected impacts and a low capacity for adaptation highlighting the need for robust regional or local climate change projections, especially for extreme events strongly affecting the Mediterranean environment. The prevailing study investigates two major topics of the Mediterranean climate variability: the analysis of dynamical downscaling of present-day and future temperature and precipitation means and extremes from global to regional scale and the comprehensive investigation of temperature and rainfall extremes including the estimation of uncertainties and the comparison of different statistical methods for precipitation extremes. For these investigations, several observational datasets of CRU, E-OBS and original stations are used as well as ensemble simulations of the regional climate model REMO driven by the coupled global general circulation model ECHAM5/MPI-OM and applying future greenhouse gas (GHG) emission and land degradation scenarios. N2 - Der Mittelmeerraum weist eine starke Vulnerabilität gegenüber dem zukünftigen Klimawandel auf, da für diese Region starke klimatische Auswirkungen vorhergesagt werden, aber nur eine geringe Anpassungsfähigkeit besteht. Daher werden präzise Vorhersagen des regionalen oder lokalen Klimawandels benötigt, v.a. für Extremereignisse, welche den Mittelmeer-Lebensraum stark beeinträchtigen. Die vorliegende Studie untersucht zwei Hauptaspekte der Klimavariabilität im Mittelmeerraum: Zum Einen wird das dynamische Downscaling gegenwärtiger und zukünftiger Mittelwerte und Extremereignisse von Temperatur und Niederschlag von der globalen zur regionalen Skala analysiert. Zum Anderen wird eine umfassende Untersuchung von Temperatur- und Niederschlagsextremen samt Unsicherheitsabschätzung und Vergleich unterschiedlicher statistischer Methoden zur Bestimmung von Niederschlagsextremen durchgeführt. Für diese Untersuchungen stehen verschiedene Beobachtungsdaten von CRU, E-OBS und Messstationen sowie Ensemble-Simulationen des regionalen Klimamodells REMO zur Verfügung, das vom gekoppelten globalen “General Circulation Model” ECHAM5/MPI-OM angetrieben wird und zukünftige Treibhausgasemissions- und Landnutzungsänderungs-Szenarien verwendet. KW - Mittelmeerraum KW - Klima KW - Klimaänderung KW - Temperatur KW - Modell KW - Niederschlag KW - Klimaschwankung KW - Klimamodellierung KW - regionales Klimamodell KW - Mittelmeer KW - Modellierung KW - Extremwertstatistik KW - climate modelling KW - regional climate model Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-72155 ER - TY - THES A1 - Rygielski, Piotr T1 - Flexible Modeling of Data Center Networks for Capacity Management T1 - Elastische Modellierung von Rechenzentren-Netzen zwecks Kapazitätsverwaltung N2 - Nowadays, data centers are becoming increasingly dynamic due to the common adoption of virtualization technologies. Systems can scale their capacity on demand by growing and shrinking their resources dynamically based on the current load. However, the complexity and performance of modern data centers is influenced not only by the software architecture, middleware, and computing resources, but also by network virtualization, network protocols, network services, and configuration. The field of network virtualization is not as mature as server virtualization and there are multiple competing approaches and technologies. Performance modeling and prediction techniques provide a powerful tool to analyze the performance of modern data centers. However, given the wide variety of network virtualization approaches, no common approach exists for modeling and evaluating the performance of virtualized networks. The performance community has proposed multiple formalisms and models for evaluating the performance of infrastructures based on different network virtualization technologies. The existing performance models can be divided into two main categories: coarse-grained analytical models and highly-detailed simulation models. Analytical performance models are normally defined at a high level of abstraction and thus they abstract many details of the real network and therefore have limited predictive power. On the other hand, simulation models are normally focused on a selected networking technology and take into account many specific performance influencing factors, resulting in detailed models that are tightly bound to a given technology, infrastructure setup, or to a given protocol stack. Existing models are inflexible, that means, they provide a single solution method without providing means for the user to influence the solution accuracy and solution overhead. To allow for flexibility in the performance prediction, the user is required to build multiple different performance models obtaining multiple performance predictions. Each performance prediction may then have different focus, different performance metrics, prediction accuracy, and solving time. The goal of this thesis is to develop a modeling approach that does not require the user to have experience in any of the applied performance modeling formalisms. The approach offers the flexibility in the modeling and analysis by balancing between: (a) generic character and low overhead of coarse-grained analytical models, and (b) the more detailed simulation models with higher prediction accuracy. The contributions of this thesis intersect with technologies and research areas, such as: software engineering, model-driven software development, domain-specific modeling, performance modeling and prediction, networking and data center networks, network virtualization, Software-Defined Networking (SDN), Network Function Virtualization (NFV). The main contributions of this thesis compose the Descartes Network Infrastructure (DNI) approach and include: • Novel modeling abstractions for virtualized network infrastructures. This includes two meta-models that define modeling languages for modeling data center network performance. The DNI and miniDNI meta-models provide means for representing network infrastructures at two different abstraction levels. Regardless of which variant of the DNI meta-model is used, the modeling language provides generic modeling elements allowing to describe the majority of existing and future network technologies, while at the same time abstracting factors that have low influence on the overall performance. I focus on SDN and NFV as examples of modern virtualization technologies. • Network deployment meta-model—an interface between DNI and other meta- models that allows to define mapping between DNI and other descriptive models. The integration with other domain-specific models allows capturing behaviors that are not reflected in the DNI model, for example, software bottlenecks, server virtualization, and middleware overheads. • Flexible model solving with model transformations. The transformations enable solving a DNI model by transforming it into a predictive model. The model transformations vary in size and complexity depending on the amount of data abstracted in the transformation process and provided to the solver. In this thesis, I contribute six transformations that transform DNI models into various predictive models based on the following modeling formalisms: (a) OMNeT++ simulation, (b) Queueing Petri Nets (QPNs), (c) Layered Queueing Networks (LQNs). For each of these formalisms, multiple predictive models are generated (e.g., models with different level of detail): (a) two for OMNeT++, (b) two for QPNs, (c) two for LQNs. Some predictive models can be solved using multiple alternative solvers resulting in up to ten different automated solving methods for a single DNI model. • A model extraction method that supports the modeler in the modeling process by automatically prefilling the DNI model with the network traffic data. The contributed traffic profile abstraction and optimization method provides a trade-off by balancing between the size and the level of detail of the extracted profiles. • A method for selecting feasible solving methods for a DNI model. The method proposes a set of solvers based on trade-off analysis characterizing each transformation with respect to various parameters such as its specific limitations, expected prediction accuracy, expected run-time, required resources in terms of CPU and memory consumption, and scalability. • An evaluation of the approach in the context of two realistic systems. I evaluate the approach with focus on such factors like: prediction of network capacity and interface throughput, applicability, flexibility in trading-off between prediction accuracy and solving time. Despite not focusing on the maximization of the prediction accuracy, I demonstrate that in the majority of cases, the prediction error is low—up to 20% for uncalibrated models and up to 10% for calibrated models depending on the solving technique. In summary, this thesis presents the first approach to flexible run-time performance prediction in data center networks, including network based on SDN. It provides ability to flexibly balance between performance prediction accuracy and solving overhead. The approach provides the following key benefits: • It is possible to predict the impact of changes in the data center network on the performance. The changes include: changes in network topology, hardware configuration, traffic load, and applications deployment. • DNI can successfully model and predict the performance of multiple different of network infrastructures including proactive SDN scenarios. • The prediction process is flexible, that is, it provides balance between the granularity of the predictive models and the solving time. The decreased prediction accuracy is usually rewarded with savings of the solving time and consumption of resources required for solving. • The users are enabled to conduct performance analysis using multiple different prediction methods without requiring the expertise and experience in each of the modeling formalisms. The components of the DNI approach can be also applied to scenarios that are not considered in this thesis. The approach is generalizable and applicable for the following examples: (a) networks outside of data centers may be analyzed with DNI as long as the background traffic profile is known; (b) uncalibrated DNI models may serve as a basis for design-time performance analysis; (c) the method for extracting and compacting of traffic profiles may be used for other, non-network workloads as well. N2 - Durch Virtualisierung werden moderne Rechenzentren immer dynamischer. Systeme sind in der Lage ihre Kapazität hoch und runter zu skalieren , um die ankommende Last zu bedienen. Die Komplexität der modernen Systeme in Rechenzentren wird nicht nur von der Softwarearchitektur, Middleware und Rechenressourcen sondern auch von der Netzwerkvirtualisierung beeinflusst. Netzwerkvirtualisierung ist noch nicht so ausgereift wie die Virtualisierung von Rechenressourcen und es existieren derzeit unterschiedliche Netzwerkvirtualisierungstechnologien. Man kann aber keine der Technologien als Standardvirtualisierung für Netzwerke bezeichnen. Die Auswahl von Ansätzen durch Performanzanalyse von Netzwerken stellt eine Herausforderung dar, weil existierende Ansätze sich mehrheitlich auf einzelne Virtualisierungstechniken fokussieren und es keinen universellen Ansatz für Performanzanalyse gibt, der alle Techniken in Betracht nimmt. Die Forschungsgemeinschaft bietet verschiedene Performanzmodelle und Formalismen für Evaluierung der Performanz von virtualisierten Netzwerken an. Die bekannten Ansätze können in zwei Gruppen aufgegliedert werden: Grobetaillierte analytische Modelle und feindetaillierte Simulationsmodelle. Die analytischen Performanzmodelle abstrahieren viele Details und liefern daher nur beschränkt nutzbare Performanzvorhersagen. Auf der anderen Seite fokussiert sich die Gruppe der simulationsbasierenden Modelle auf bestimmte Teile des Systems (z.B. Protokoll, Typ von Switches) und ignoriert dadurch das große Bild der Systemlandschaft. ... KW - Modellierung KW - Leistungsbewertung KW - Netzwerk KW - Meta-modeling KW - Model transformation KW - Performance analysis KW - Simulation Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-146235 ER - TY - THES A1 - Ring, Christoph T1 - Entwicklung und Vergleich von Gewichtungsmetriken zur Analyse probabilistischer Klimaprojektionen aktueller Modellensembles T1 - Development and comparison of metrics for probabilistic climate change projections of state-of-the-art climate models N2 - Der anthropogene Klimawandel ist eine der größten Herausforderungen des 21. Jahrhunderts. Eine Hauptschwierigkeit liegt dabei in der Unsicherheit bezüglich der regionalen Änderung von Niederschlag und Temperatur. Hierdurch wird die Entwicklung geeigneter Anpassungsstrategien deutlich erschwert. In der vorliegenden Arbeit werden vier Evaluationsansätze mit insgesamt 13 Metriken für aktuelle globale (zwei Generationen) und regionale Klimamodelle entwickelt und verglichen, um anschließend eine Analyse der Projektionsunsicherheit vorzunehmen. Basierend auf den erstellten Modellbewertungen werden durch Gewichtung Aussagen über den Unsicherheitsbereich des zukünftigen Klimas getroffen. Die Evaluation der Modelle wird im Mittelmeerraum sowie in acht Unterregionen durchgeführt. Dabei wird der saisonale Trend von Temperatur und Niederschlag im Evaluationszeitraum 1960–2009 ausgewertet. Zusätzlich wird für bestimmte Metriken jeweils das klimatologische Mittel oder die harmonischen Zeitreiheneigenschaften evaluiert. Abschließend werden zum Test der Übertragbarkeit der Ergebnisse neben den Hauptuntersuchungsgebieten sechs global verteilte Regionen untersucht. Außerdem wird die zeitliche Konsistenz durch Analyse eines zweiten, leicht versetzten Evaluationszeitraums behandelt, sowie die Abhängigkeit der Modellbewertungen von verschiedenen Referenzdaten mit Hilfe von insgesamt drei Referenzdatensätzen untersucht. Die Ergebnisse legen nahe, dass nahezu alle Metriken zur Modellevaluierung geeignet sind. Die Auswertung unterschiedlicher Variablen und Regionen erzeugt Modellbewertungen, die sich in den Kontext aktueller Forschungsergebnisse einfügen. So wurde die Leistung der globalen Klimamodelle der neusten Generation (2013) im Vergleich zur Vorgängergeneration (2007) im Schnitt ähnlich hoch bzw. in vielen Situationen auch stärker eingeordnet. Ein durchweg bestes Modell konnte nicht festgestellt werden. Der Großteil der entwickelten Metriken zeigt für ähnliche Situationen übereinstimmende Modellbewertungen. Bei der Gewichtung hat sich der Niederschlag als besonders geeignet herausgestellt. Grund hierfür sind die im Schnitt deutlichen Unterschiede der Modellleistungen in Zusammenhang mit einer geringeren Simulationsgüte. Umgekehrt zeigen die Metriken für die Modelle der Temperatur allgemein überwiegend hohe Evaluationsergebnisse, wodurch nur wenig Informationsgewinn durch Gewichtung erreicht werden kann. Während die Metriken gut für unterschiedliche Regionen und Skalenniveaus verwendet werden Evaluationszeiträume nicht grundsätzlich gegeben. Zusätzlich zeigen die Modellranglisten unterschiedlicher Regionen und Jahreszeiten häufig nur geringe Korrelationen. Dies gilt besonders für den Niederschlag. Bei der Temperatur sind hingegen leichte Übereinstimmungen auszumachen. Beim Vergleich der mittleren Ranglisten über alle Modellbewertungen und Situationen der Hauptregionen des Mittelmeerraums mit den Globalregionen besteht eine signifikante Korrelation von 0,39 für Temperatur, während sie für Niederschlag um null liegt. Dieses Ergebnis ist für alle drei verwendeten Referenzdatensätze im Mittelmeerraum gültig. So schwankt die Korrelation der Modellbewertungen des Niederschlags für unterschiedliche Referenzdatensätze immer um Null und die der Temperaturranglisten zwischen 0,36 und 0,44. Generell werden die Metriken als geeignete Evaluationswerkzeuge für Klimamodelle eingestuft. Daher können sie einen Beitrag zur Änderung des Unsicherheitsbereichs und damit zur Stärkung des Vertrauens in Klimaprojektionen leisten. Die Abhängigkeit der Modellbewertungen von Region und Untersuchungszeitraum muss dabei jedoch berücksichtigt werden. So besitzt die Analyse der Konsistenz von Modellbewertungen sowie der Stärken und Schwächen der Klimamodelle großes Potential für folgende Studien, um das Vertrauen in Modellprojektionen weiter zu steigern. N2 - Climate change is one of the major tasks of the 21st century. The uncertainty of precipitation and temperature change is considered as a main challenge in this context. Thus, the development of appropriate adaptation strategies is very difficult. In this study, four climate model evaluation approaches with 13 metrics in total are developed and compared. Current global (two generations) and regional climate models are evaluated to assess projection uncertainty. Based on model performances, weighting is applied to future climate projections to estimate simulation uncertainty. The evaluations are performed in the Mediterranean and eight sub-regions. Seasonal trend of temperature and precipitation are evaluated for the period 1960–2009. For some metrics, the climatological mean and the spectra of the time series are evaluated as well. In addition, six globally distributed study areas are evaluated to test the metrics’ transferability. Further, temporal consistency is assessed by the evaluation of a second slightly shifted timeframe. Finally, three reference datasets are considered in order to analyse the dependence of the evaluation results between each other. Results indicate that most metrics are suitable to evaluate climate models. Their application to different variables and regions generates reasonable model assessments which fit in the context of current publications in this field of research. In many situations, the results of the current model generation (2013) are similar or better compared to those of the last generation (2007). One single model with superior performance for all variables and situations cannot be found. Most metrics show similar estimations of performances for the same situations. Precipitation turned out to be more suitable for model weighting. Here, the differences between model weights are larger because of overall higher spread and lower model performances. Against this, there are mostly high performances on an equal level for simulations of temperature which lead to a minor added value of weighting. While metrics can easily be transferred and applied to different regions and scales, some evaluation results depend on the evaluated timeframe. Further, the model rankings for different regions and seasons show only minor correlations for most situations. This is particularly true for precipitation. However, for temperature there are some significant positive correlations. Comparing the mean ranking over all evaluation results of the main study areas of the Mediterranean with that of the globally distributed regions, there is a significant correlation of 0.39 for temperature and a correlation around zero for precipitation. The choice of reference dataset for the Mediterranean areas is subordinated in this context. For different reference datasets, the overall rankings show correlations around zero for precipitation while those for temperature are between 0.36 and 0.44. Overall, the metrics are suitable for the evaluation of climate models. Thus, they offer promising contributions to improve the range of uncertainty and therefore to enhance the general confidence in climate projections. However, dependence of model assessments on the analysed region and evaluation timeframe has to be considered. Consequently, the analyses of consistency of model evaluations and of climate model strengths and weaknesses have great potential for future studies, to further enhance confidence in climate projections. KW - Anthropogene Klimaänderung KW - Unsicherheit KW - Klima KW - Modellierung KW - Statistik KW - Evaluierung und Gewichtung von Klimamodellen KW - Niederschlag und Temperatur KW - weighting of climate models Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-157294 ER - TY - CHAP A1 - Klein, Ralf T1 - Der probabilistische Ansatz zur Modellierung des räumlichen Einkaufsverhaltens T2 - Analysemethodik und Modellierung in der geographischen Handelsforschung N2 - No abstract available. KW - Handelsforschung KW - Einzelhandel KW - Modellierung KW - Analyse Y1 - 2007 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-185990 ER - TY - THES A1 - Steininger, Michael T1 - Deep Learning for Geospatial Environmental Regression T1 - Deep Learning für Regressionsmodelle mit georäumlichen Umweltdaten N2 - Environmental issues have emerged especially since humans burned fossil fuels, which led to air pollution and climate change that harm the environment. These issues’ substantial consequences evoked strong efforts towards assessing the state of our environment. Various environmental machine learning (ML) tasks aid these efforts. These tasks concern environmental data but are common ML tasks otherwise, i.e., datasets are split (training, validatition, test), hyperparameters are optimized on validation data, and test set metrics measure a model’s generalizability. This work focuses on the following environmental ML tasks: Regarding air pollution, land use regression (LUR) estimates air pollutant concentrations at locations where no measurements are available based on measured locations and each location’s land use (e.g., industry, streets). For LUR, this work uses data from London (modeled) and Zurich (measured). Concerning climate change, a common ML task is model output statistics (MOS), where a climate model’s output for a study area is altered to better fit Earth observations and provide more accurate climate data. This work uses the regional climate model (RCM) REMO and Earth observations from the E-OBS dataset for MOS. Another task regarding climate is grain size distribution interpolation where soil properties at locations without measurements are estimated based on the few measured locations. This can provide climate models with soil information, that is important for hydrology. For this task, data from Lower Franconia is used. Such environmental ML tasks commonly have a number of properties: (i) geospatiality, i.e., their data refers to locations relative to the Earth’s surface. (ii) The environmental variables to estimate or predict are usually continuous. (iii) Data can be imbalanced due to relatively rare extreme events (e.g., extreme precipitation). (iv) Multiple related potential target variables can be available per location, since measurement devices often contain different sensors. (v) Labels are spatially often only sparsely available since conducting measurements at all locations of interest is usually infeasible. These properties present challenges but also opportunities when designing ML methods for such tasks. In the past, environmental ML tasks have been tackled with conventional ML methods, such as linear regression or random forests (RFs). However, the field of ML has made tremendous leaps beyond these classic models through deep learning (DL). In DL, models use multiple layers of neurons, producing increasingly higher-level feature representations with growing layer depth. DL has made previously infeasible ML tasks feasible, improved the performance for many tasks in comparison to existing ML models significantly, and eliminated the need for manual feature engineering in some domains due to its ability to learn features from raw data. To harness these advantages for environmental domains it is promising to develop novel DL methods for environmental ML tasks. This thesis presents methods for dealing with special challenges and exploiting opportunities inherent to environmental ML tasks in conjunction with DL. To this end, the proposed methods explore the following techniques: (i) Convolutions as in convolutional neural networks (CNNs) to exploit reoccurring spatial patterns in geospatial data. (ii) Posing the problems as regression tasks to estimate the continuous variables. (iii) Density-based weighting to improve estimation performance for rare and extreme events. (iv) Multi-task learning to make use of multiple related target variables. (v) Semi–supervised learning to cope with label sparsity. Using these techniques, this thesis considers four research questions: (i) Can air pollution be estimated without manual feature engineering? This is answered positively by the introduction of the CNN-based LUR model MapLUR as well as the off-the-shelf LUR solution OpenLUR. (ii) Can colocated pollution data improve spatial air pollution models? Multi-task learning for LUR is developed for this, showing potential for improvements with colocated data. (iii) Can DL models improve the quality of climate model outputs? The proposed DL climate MOS architecture ConvMOS demonstrates this. Additionally, semi-supervised training of multilayer perceptrons (MLPs) for grain size distribution interpolation is presented, which can provide improved input data. (iv) Can DL models be taught to better estimate climate extremes? To this end, density-based weighting for imbalanced regression (DenseLoss) is proposed and applied to the DL architecture ConvMOS, improving climate extremes estimation. These methods show how especially DL techniques can be developed for environmental ML tasks with their special characteristics in mind. This allows for better models than previously possible with conventional ML, leading to more accurate assessment and better understanding of the state of our environment. N2 - Umweltprobleme sind vor allem seit der Verbrennung fossiler Brennstoffe durch den Menschen entstanden. Dies hat zu Luftverschmutzung und Klimawandel geführt, was die Umwelt schädigt. Die schwerwiegenden Folgen dieser Probleme haben starke Bestrebungen ausgelöst, den Zustand unserer Umwelt zu untersuchen. Verschiedene Ansätze des maschinellen Lernens (ML) im Umweltbereich unterstützen diese Bestrebungen. Bei diesen Aufgaben handelt es sich um gewöhnliche ML-Aufgaben, z. B. werden die Datensätze aufgeteilt (Training, Validation, Test), Hyperparameter werden auf den Validierungsdaten optimiert, und die Metriken auf den Testdaten messen die Generalisierungsfähigkeit eines Modells, aber sie befassen sich mit Umweltdaten. Diese Arbeit konzentriert sich auf die folgenden Umwelt-ML-Aufgaben: In Bezug auf Luftverschmutzung schätzt Land Use Regression (LUR) die Luftschadstoffkonzentration an Orten, an denen keine Messungen verfügbar sind auf Basis von gemessenen Orten und der Landnutzung (z. B. Industrie, Straßen) der Orte. Für LUR werden in dieser Arbeit Daten aus London (modelliert) und Zürich (gemessen) verwendet. Im Zusammenhang mit dem Klimawandel ist eine häufige ML-Aufgabe Model Output Statistics (MOS), bei der die Ausgaben eines Klimamodells so angepasst werden, dass sie mit Erdbeobachtungen besser übereinstimmen. Dadurch werden genauere Klimadaten erzeugt. Diese Arbeit verwendet das regionale Klimamodell REMO und Erdbeobachtungen aus dem E-OBS-Datensatz für MOS. Eine weitere Aufgabe im Zusammenhang mit dem Klima ist die Interpolation von Korngrößenverteilungen. Hierbei werden Bodeneigenschaften an Orten ohne Messungen auf Basis von wenigen gemessenen Orten geschätzt, um Klimamodelle mit Bodeninformationen zu versorgen, die für die Hydrologie wichtig sind. Für diese Aufgabe werden in dieser Arbeit Bodenmessungen aus Unterfranken herangezogen. Solche Umwelt-ML-Aufgaben haben oft eine Reihe von Eigenschaften: (i) Georäumlichkeit, d. h. ihre Daten beziehen sich auf Standorte relativ zur Erdoberfläche. (ii) Die zu schätzenden oder vorherzusagenden Umweltvariablen sind normalerweise kontinuierlich. (iii) Daten können unbalanciert sein, was auf relativ seltene Extremereignisse (z. B. extreme Niederschläge) zurückzuführen ist. (iv) Pro Standort können mehrere verwandte potenzielle Zielvariablen verfügbar sein, da Messgeräte oft verschiedene Sensoren enthalten. (v) Zielwerte sind räumlich oft nur spärlich vorhanden, da die Durchführung von Messungen an allen gewünschten Orten in der Regel nicht möglich ist. Diese Eigenschaften stellen eine Herausforderung, aber auch eine Chance bei der Entwicklung von ML-Methoden für derlei Aufgaben dar. In der Vergangenheit wurden ML-Aufgaben im Umweltbereich mit konventionellen ML-Methoden angegangen, wie z. B. lineare Regression oder Random Forests (RFs). In den letzten Jahren hat der Bereich ML jedoch durch Deep Learning (DL) enorme Fortschritte über diese klassischen Modelle hinaus gemacht. Bei DL verwenden die Modelle mehrere Schichten von Neuronen, die mit zunehmender Schichtungstiefe immer abstraktere Merkmalsdarstellungen erzeugen. DL hat zuvor undurchführbare ML-Aufgaben realisierbar gemacht, die Leistung für viele Aufgaben im Vergleich zu bestehenden ML-Modellen erheblich verbessert und die Notwendigkeit für manuelles Feature-Engineering in einigen Bereichen aufgrund seiner Fähigkeit, Features aus Rohdaten zu lernen, eliminiert. Um diese Vorteile für ML-Aufgaben in der Umwelt nutzbar zu machen, ist es vielversprechend, geeignete DL-Methoden für diesen Bereich zu entwickeln. In dieser Arbeit werden Methoden zur Bewältigung der besonderen Herausforderungen und zur Nutzung der Möglichkeiten von Umwelt-ML-Aufgaben in Verbindung mit DL vorgestellt. Zu diesem Zweck werden in den vorgeschlagenen Methoden die folgenden Techniken untersucht: (i) Faltungen wie in Convolutional Neural Networks (CNNs), um wiederkehrende räumliche Muster in Geodaten zu nutzen. (ii) Probleme als Regressionsaufgaben stellen, um die kontinuierlichen Variablen zu schätzen. (iii) Dichtebasierte Gewichtung zur Verbesserung der Schätzungen bei seltenen und extremen Ereignissen. (iv) Multi-Task-Lernen, um mehrere verwandte Zielvariablen zu nutzen. (v) Halbüber- wachtes Lernen, um auch mit wenigen bekannten Zielwerten zurechtzukommen. Mithilfe dieser Techniken werden in der Arbeit vier Forschungsfragen untersucht: (i) Kann Luftverschmutzung ohne manuelles Feature Engineering geschätzt werden? Dies wird durch die Einführung des CNN-basierten LUR-Modells MapLUR sowie der automatisierten LUR–Lösung OpenLUR positiv beantwortet. (ii) Können kolokalisierte Verschmutzungsdaten räumliche Luftverschmutzungsmodelle verbessern? Hierfür wird Multi-Task-Learning für LUR entwickelt, das Potenzial für Verbesserungen mit kolokalisierten Daten zeigt. (iii) Können DL-Modelle die Qualität der Ausgaben von Klimamodellen verbessern? Die vorgeschlagene DL-MOS-Architektur ConvMOS demonstriert das. Zusätzlich wird halbüberwachtes Training von Multilayer Perceptrons (MLPs) für die Interpolation von Korngrößenverteilungen vorgestellt, das verbesserte Eingabedaten liefern kann. (iv) Kann man DL-Modellen beibringen, Klimaextreme besser abzuschätzen? Zu diesem Zweck wird eine dichtebasierte Gewichtung für unbalancierte Regression (DenseLoss) vorgeschlagen und auf die DL-Architektur ConvMOS angewendet, um die Schätzung von Klimaextremen zu verbessern. Diese Methoden zeigen, wie speziell DL-Techniken für Umwelt-ML-Aufgaben unter Berücksichtigung ihrer besonderen Eigenschaften entwickelt werden können. Dies ermöglicht bessere Modelle als konventionelles ML bisher erlaubt hat, was zu einer genaueren Bewertung und einem besseren Verständnis des Zustands unserer Umwelt führt. KW - Deep learning KW - Modellierung KW - Umwelt KW - Geospatial KW - Environmental KW - Regression KW - Neuronales Netz KW - Maschinelles Lernen KW - Geoinformationssystem Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-313121 ER - TY - THES A1 - Kirschke, Stefanie T1 - Bilanzierung des Methanaustauschs zwischen Biosphäre und Atmosphäre in Periglazialräumen mit Hilfe von Fernerkundung und Modellen am Beispiel des Lena Deltas T1 - Balancing Methane Exchange between Biosphere and Atmosphere in Periglacial Regions Using Remote Sensing and Modeling: A Case Study for the Lena River Delta N2 - Verbleibende Unsicherheiten im Kohlenstoffhaushalt in Ökosystemen der hohen nördlichen Breiten können teilweise auf die Schwierigkeiten bei der Erfassung der räumlich und zeitlich hoch variablen Methanemissionsraten von Permafrostböden zurückgeführt werden. Methan ist ein global abundantes atmosphärisches Spurengas, welches signifikant zur Erwärmung der Atmosphäre beiträgt. Aufgrund der hohen Sensibilität des arktischen Bodenkohlenstoffreservoirs sowie der großen von Permafrost unterlagerten Landflächen sind arktische Gebiete am kritischsten von einem globalen Klimawandel betroffen. Diese Dissertation adressiert den Bedarf an Modellierungsansätzen für die Bestimmung der Quellstärke nordsibirischer permafrostbeeinflusster Ökosysteme der nassen polygonalen Tundra mit Hinblick auf die Methanemissionen auf regionalem Maßstab. Die Arbeit präsentiert eine methodische Struktur in welcher zwei prozessbasierte Modelle herangezogen werden, um die komplexen Wechselwirkungen zwischen den Kompartimenten Pedosphäre, Biosphäre und Atmosphäre, welche zu Methanemissionen aus Permafrostböden führen, zu erfassen. Es wird ein Upscaling der Gesamtmethanflüsse auf ein größeres, von Permafrost unterlagertes Untersuchungsgebiet auf Basis eines prozessbasierten Modells durchgeführt. Das prozessbasierte Vegetationsmodell Biosphere Energy Hydrology Transfer Model (BETHY/DLR) wird für die Berechnung der Nettoprimärproduktion (NPP) arktischer Tundravegetation herangezogen. Die NPP ist ein Maß für die Substratverfügbarkeit der Methanproduktion und daher ein wichtiger Eingangsparameter für das zweite Modell: Das prozessbasierte Methanemissionsmodell wird anschließend verwendet, um die Methanflüsse einer gegebenen Bodensäule explizit zu berechnen. Dabei werden die Prozesse der Methanogenese, Methanotrophie sowie drei verschiedene Transportmechanismen – molekulare Diffusion, Gasblasenbildung und pflanzengebundener Transport durch vaskuläre Pflanzen – berücksichtigt. Das Methanemissionsmodell ist für Permafrostbedingungen modifiziert, indem das tägliche Auftauen des Permafrostbodens in der kurzen arktischen Vegetationsperiode berücksichtigt wird. Der Modellantrieb besteht aus meteorologischen Datensätzen des European Center for Medium-Range Weather Forecasts (ECMWF). Die Eingangsdatensätze werden mit Hilfe von in situ Messdaten validiert. Zusätzliche Eingangsdaten für beide Modelle werden aus Fernerkundungsdaten abgeleitet, welche mit Feldspektralmessungen validiert werden. Eine modifizierte Landklassifikation auf der Basis von Landsat-7 Enhanced Thematic Mapper Plus (ETM+) Daten wird für die Ableitung von Informationen zu Feuchtgebietsverteilung und Vegetationsbedeckung herangezogen. Zeitserien der Auftautiefe werden zur Beschreibung des Auftauens bzw. Rückfrierens des Bodens verwendet. Diese Faktoren sind die Haupteinflussgrößen für die Modellierung von Methanemissionen aus permafrostbeeinflussten Tundraökosystemen. Die vorgestellten Modellergebnisse werden mittels Eddy-Kovarianz-Messungen der Methanflüsse validiert, welche während der Vegetationsperioden der Jahre 2003-2006 im südlichen Teil des Lena Deltas (72°N, 126°E) vom Alfred Wegener Institut für Polar- und Meeresforschung (AWI) durchgeführt wurden. Das Untersuchungsgebiet Lena Delta liegt an der Laptewsee in Nordostsibirien und ist durch Ökosysteme der arktischen nassen polygonalen Tundra sowie kalten kontinuierlichen Permafrost charakterisiert. Zeitlich integrierte Werte der modellierten Methanflüsse sowie der in situ Messungen zeigen gute Übereinstimmungen und weisen auf eine leichte Modellunterschätzung von etwa 10%. N2 - Remaining uncertainties in the carbon budget of high latitude ecosystems are partly due to difficulties in assessing methane emission rates from permafrost soils the source strengths of which are highly variable in space and time. Methane is a globally abundant atmospheric trace gas that contributes significantly to the warming of the atmosphere. Due to the high sensitivity of the arctic soil carbon reservoir and the large surface area underlain by permafrost, arctic regions are most critically influenced by a changing climate. This dissertation addresses the need for modelling approaches to determine the source strength of northern Siberian permafrost affected wet polygonal tundra ecosystems with regard to methane emission on the regional scale. It presents a methodical structure wherein two process-based models are used to capture the complex interrelated processes between pedosphere, biosphere and atmosphere that lead to methane emission from permafrost soils on the regional scale. Upscaling of methane fluxes for a larger permafrost site is performed using results of a process-based model. The process-based vegetation model Biosphere Energy Transfer Hydrology Model (BETHY/DLR) is applied to estimate net primary productivity (NPP) of arctic tundra vegetation. NPP is parameterized as a measure for substrate availability for methane production and thus an important input parameter for the second model: the process-based wetland methane emission model is subsequently used to explicitly model methane fluxes for a given soil column, taking into account methanogenesis, methane oxidation and three different transport mechanisms, namely molecular diffusion, ebullition and plant-mediated transport through vascular plants. The methane emission model is modified for permafrost conditions by explicitly considering daily thawing of permafrost during the short arctic growing season. Model forcing consists of meteorological data sets obtained from the European Center for Medium-Range Weather Forecasts (ECMWF). Input data sets are validated against field measurements. Auxiliary input data for both models are derived from satellite imagery and validated by field spectral measurements. A modified land use/land classification (LULC) scheme based on Landsat-7 Enhanced Thematic Mapper Plus (ETM+) data is used to derive information on wetland distribution and vegetation cover. Time series of active layer thickness are used to describe thawing/freezing of soils. These parameters are key factors in modelling methane emissions from permafrost influenced tundra ecosystems. Validation of presented model results is performed using eddy covariance measurements of methane flux on the landscape scale carried out during the growing seasons 2003-2006 in the southern part of the Lena Delta (72°N, 126°E) by Alfred Wegener Institute for Polar and Marine Research (AWI). The Lena Delta study site is located at the Laptev Sea in northeast Siberia and is characterized by arctic wet polygonal tundra ecosystems and cold continuous permafrost. Timeintegrated values for modelled methane fluxes and in situ measurements compare reasonably well and indicate a moderate model underestimation of about 10%. KW - Methanemission KW - Satellitenfernerkundung KW - Modellierung KW - Lenadelta KW - Treibhausgas KW - Tundra KW - Kohlenstoffkreislauf KW - methane emission KW - satellite remote sensing KW - modeling KW - Lena River Delta KW - carbon cycle Y1 - 2008 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-29024 ER - TY - THES A1 - Pollinger, Felix T1 - Bewertung und Auswirkungen der Simulationsgüte führender Klimamoden in einem Multi-Modell Ensemble T1 - Evaluation and effects of the simulation quality of leading climate modes in a multi-model ensemble N2 - Der rezente und zukünftige Anstieg der atmosphärischen Treibhausgaskonzentration bedeutet für das terrestrische Klimasystem einen grundlegenden Wandel, der für die globale Gesellschaft schwer zu bewältigende Aufgaben und Herausforderungen bereit hält. Eine effektive, rühzeitige Anpassung an diesen Klimawandel profitiert dabei enorm von möglichst genauen Abschätzungen künftiger Klimaänderungen. Das geeignete Werkzeug hierfür sind Gekoppelte Atmosphäre Ozean Modelle (AOGCMs). Für solche Fragestellungen müssen allerdings weitreichende Annahmen über die zukünftigen klimarelevanten Randbedingungen getroffen werden. Individuelle Fehler dieser Klimamodelle, die aus der nicht perfekten Abbildung der realen Verhältnisse und Prozesse resultieren, erhöhen die Unsicherheit langfristiger Klimaprojektionen. So unterscheiden sich die Aussagen verschiedener AOGCMs im Hinblick auf den zukünftigen Klimawandel insbesondere bei regionaler Betrachtung, deutlich. Als Absicherung gegen Modellfehler werden üblicherweise die Ergebnisse mehrerer AOGCMs, eines Ensembles an Modellen, kombiniert. Um die Abschätzung des Klimawandels zu präzisieren, wird in der vorliegenden Arbeit der Versuch unternommen, eine Bewertung der Modellperformance der 24 AOGCMs, die an der dritten Phase des Vergleichsprojekts für gekoppelte Modelle (CMIP3) teilgenommen haben, zu erstellen. Auf dieser Basis wird dann eine nummerische Gewichtung für die Kombination des Ensembles erstellt. Zunächst werden die von den AOGCMs simulierten Klimatologien für einige grundlegende Klimaelemente mit den betreffenden klimatologien verschiedener Beobachtungsdatensätze quantitativ abgeglichen. Ein wichtiger methodischer Aspekt hierbei ist, dass auch die Unsicherheit der Beobachtungen, konkret Unterschiede zwischen verschiedenen Datensätzen, berücksichtigt werden. So zeigt sich, dass die Aussagen, die aus solchen Ansätzen resultieren, von zu vielen Unsicherheiten in den Referenzdaten beeinträchtigt werden, um generelle Aussagen zur Qualität von AOGCMs zu treffen. Die Nutzung der Köppen-Geiger Klassifikation offenbart jedoch, dass die prinzipielle Verteilung der bekannten Klimatypen im kompletten CMIP3 in vergleichbar guter Qualität reproduziert wird. Als Bewertungskriterium wird daher hier die Fähigkeit der AOGCMs die großskalige natürliche Klimavariabilität, konkret die hochkomplexe gekoppelte El Niño-Southern Oscillation (ENSO), realistisch abzubilden herangezogen. Es kann anhand verschiedener Aspekte des ENSO-Phänomens gezeigt werden, dass nicht alle AOGCMs hierzu mit gleicher Realitätsnähe in der Lage sind. Dies steht im Gegensatz zu den dominierenden Klimamoden der Außertropen, die modellübergreifend überzeugend repräsentiert werden. Die wichtigsten Moden werden, in globaler Betrachtung, in verschiedenen Beobachtungsdaten über einen neuen Ansatz identifiziert. So können für einige bekannte Zirkulationsmuster neue Indexdefinitionen gewonnen werden, die sich sowohl als äquivalent zu den Standardverfahren erweisen und im Vergleich zu diesen zudem eine deutliche Reduzierung des Rechenaufwandes bedeuten. Andere bekannte Moden werden dagegen als weniger bedeutsame, regionale Zirkulationsmuster eingestuft. Die hier vorgestellte Methode zur Beurteilung der Simulation von ENSO ist in guter Übereinstimmung mit anderen Ansätzen, ebenso die daraus folgende Bewertung der gesamten Performance der AOGCMs. Das Spektrum des Southern Oscillation-Index (SOI) stellt somit eine aussagekräftige Kenngröße der Modellqualität dar. Die Unterschiede in der Fähigkeit, das ENSO-System abzubilden, erweisen sich als signifikante Unsicherheitsquelle im Hinblick auf die zukünftige Entwicklung einiger fundamentaler und bedeutsamer Klimagrößen, konkret der globalen Mitteltemperatur, des SOIs selbst, sowie des indischen Monsuns. Ebenso zeigen sich signifikante Unterschiede für regionale Klimaänderungen zwischen zwei Teilensembles des CMIP3, die auf Grundlage der entwickelten Bewertungsfunktion eingeteilt werden. Jedoch sind diese Effekte im Allgemeinen nicht mit den Auswirkungen der anthropogenen Klimaänderungssignale im Multi-Modell Ensemble vergleichbar, die für die meisten Klimagrößen in einem robusten multivariaten Ansatz detektiert und quantifiziert werden können. Entsprechend sind die effektiven Klimaänderungen, die sich bei der Kombination aller Simulationen als grundlegende Aussage des CMIP3 unter den speziellen Randbedingungen ergeben nahezu unabhängig davon, ob alle Läufe mit dem gleichen Einfluss berücksichtigt werden, oder ob die erstellte nummerische Gewichtung verwendet wird. Als eine wesentliche Begründung hierfür kann die Spannbreite der Entwicklung des ENSO-Systems identifiziert werden. Dies bedeutet größere Schwankungen in den Ergebnissen der Modelle mit funktionierendem ENSO, was den Stellenwert der natürlichen Variabilität als Unsicherheitsquelle in Fragen des Klimawandels unterstreicht. Sowohl bei Betrachtung der Teilensembles als auch der Gewichtung wirken sich dadurch gegenläufige Trends im SOI ausgleichend auf die Entwicklung anderer Klimagrößen aus, was insbesondere bei letzterem Vorgehen signifikante mittlere Effekte des Ansatzes, verglichen mit der Verwendung des üblichen arithmetischen Multi-Modell Mittelwert, verhindert. N2 - The recent and future increase in atmospheric greenhouse gases will cause fundamental change in the terrestrial climate system, which will lead to enormous tasks and challenges for the global society. Effective and early adaptation to this climate change will benefit hugley from optimal possible estimates of future climate change. Coupled atmosphere-ocean models (AOGCMs) are the appropriate tool for this. However, to tackle these questions, it is necessary to make far reaching assumptions about the future climate-relevant boundary conditions. Furthermore there are individual errors in each climate model. These originate from flaws in reproducing the real climate system and result in a further increase of uncertainty with regards to long-range climate projections. Hence, concering future climate change, there are pronounced differences between the results of different AOGCMs, especially under a regional point of view. It is the usual approach to use a number of AOGCMs and combine their results as a safety measure against the influence of such model errors. In this thesis, an attempt is made to develop a valuation scheme and based on that a weighting scheme, for AOGCMs in order to narrow the range of climate change projections. The 24 models that were included in the third phase of the coupled model intercomparsion project (CMIP3) are used for this purpose. First some fundamental climatologies simulated by the AOGCMs are quantitatively compared to a number of observational data. An important methodological aspect of this approach is to explicitly address the uncertainty associated with the observational data. It is revealed that statements concerning the quality of climate models based on such hindcastig approaches might be flawed due to uncertainties about observational data. However, the application of the Köppen-Geiger classification reveales that all considered AOGCMs are capable of reproducing the fundamental distribution of observed types of climate. Thus, to evaluate the models, their ability to reproduce large-scale climate variability is chosen as the criterion. The focus is on one highly complex feature, the coupled El Niño-Southern Oscillation. Addressing several aspects of this climate mode, it is demonstrated that there are AOGCMs that are less successful in doing so than others. In contrast, all models reproduce the most dominant extratropical climate modes in a satisfying manner. The decision which modes are the most important is made using a distinct approach considering several global sets of observational data. This way, it is possible to add new definitions for the time series of some well-known climate patterns, which proof to be equivalent to the standard definitions. Along with this, other popular modes are identified as less important regional patterns. The presented approach to assess the simulation of ENSO is in good agreement with other approaches, as well as the resulting rating of the overall model performance. The spectrum of the timeseries of the Southern Oscillation Index (SOI) can thus be regarded as a sound parameter of the quality of AOGCMs. Differences in the ability to simulate a realistic ENSO-system prove to be a significant source of uncertainty with respect to the future development of some fundamental and important climate parameters, namely the global near-surface air mean temperature, the SOI itself and the Indian monsoon. In addition, there are significant differences in the patterns of regional climate change as simulated by two ensembles, which are constituted according to the evaluation function previously developed. However, these effects are overall not comparable to the multi-model ensembles’ anthropogenic induced climate change signals which can be detected and quantified using a robust multi-variate approach. If all individual simulations following a specific emission scenario are combined, the resulting climate change signals can be thought of as the fundamental message of CMIP3. It appears to be quite a stable one, more or less unaffected by the use of the derived weighting scheme instead of the common approach to use equal weights for all simulations. It is reasoned that this originates mainly from the range of trends in the SOI. Apparently, the group of models that seems to have a realistic ENSO-system also shows greater variations in terms of effective climate change. This underlines the importance of natural climate variability as a major source of uncertainty concerning climate change. For the SOI there are negative Trends in the multi-model ensemble as well as positive ones. Overall, these trends tend to stabilize the development of other climate parameters when various AOGCMs are combined, whether the two distinguished parts of CMIP3 are analyzed or the weighting scheme is applied. Especially in case of the latter method, this prevents significant effects on the mean change compared to the arithmetic multi-model mean. KW - Modell KW - Klima KW - Statistik KW - Anthropogene Klimaänderung KW - El-Niño-Phänomen KW - multi-model ensemble KW - großskalige Klimavariabilität KW - Gewichtung von Klimamodellen KW - large scale climate variability KW - weighting of climate models KW - Allgemeine atmosphärische Zirkulation KW - Klimatologie KW - Klimaänderung KW - Modellierung KW - Mathematisches Modell Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-97982 ER - TY - THES A1 - Klügl, Franziska T1 - Aktivitätsbasierte Verhaltensmodellierung und ihre Unterstützung bei Multiagentensimulationen T1 - "Activity"-based Modelling of Behaviour and its Support for Multi-Agent Simulation N2 - Durch Zusammenführung traditioneller Methoden zur individuenbasierten Simulation und dem Konzept der Multiagentensysteme steht mit der Multiagentensimulation eine Methodik zur Verfügung, die es ermöglicht, sowohl technisch als auch konzeptionell eine neue Ebene an Detaillierung bei Modellbildung und Simulation zu erreichen. Ein Modell beruht dabei auf dem Konzept einer Gesellschaft: Es besteht aus einer Menge interagierender, aber in ihren Entscheidungen autonomen Einheiten, den Agenten. Diese ändern durch ihre Aktionen ihre Umwelt und reagieren ebenso auf die für sie wahrnehmbaren Änderungen in der Umwelt. Durch die Simulation jedes Agenten zusammen mit der Umwelt, in der er "lebt", wird die Dynamik im Gesamtsystem beobachtbar. In der vorliegenden Dissertation wurde ein Repräsentationsschema für Multiagentensimulationen entwickelt werden, das es Fachexperten, wie zum Beispiel Biologen, ermöglicht, selbständig ohne traditionelles Programmieren Multiagentenmodelle zu implementieren und mit diesen Experimente durchzuführen. Dieses deklarative Schema beruht auf zwei Basiskonzepten: Der Körper eines Agenten besteht aus Zustandsvariablen. Das Verhalten des Agenten kann mit Regeln beschrieben werden. Ausgehend davon werden verschiedene Strukturierungsansätze behandelt. Das wichtigste Konzept ist das der "Aktivität", einer Art "Verhaltenszustand": Während der Agent in einer Aktivität A verweilt, führt er die zugehörigen Aktionen aus und dies solange, bis eine Regel feuert, die diese Aktivität beendet und eine neue Aktivität auswählt. Durch Indizierung dieser Regeln bei den zugehörigen Aktivitäten und Einführung von abstrakten Aktivitäten entsteht ein Schema für eine vielfältig strukturierbare Verhaltensbeschreibung. Zu diesem Schema wurde ein Interpreter entwickelt, der ein derartig repräsentiertes Modell ausführt und so Simulationsexperimente mit dem Multiagentenmodell erlaubt. Auf dieser Basis wurde die Modellierungs- und Experimentierumgebung SeSAm ("Shell für Simulierte Agentensysteme") entwickelt. Sie verwendet vorhandene Konzepte aus dem visuellen Programmieren. Mit dieser Umgebung wurden Anwendungsmodelle aus verschiedenen Domänen realisiert: Neben abstrakten Spielbeispielen waren dies vor allem Fragestellungen zu sozialen Insekten, z.B. zum Verhalten von Ameisen, Bienen oder der Interaktion zwischen Bienenvölkern und Milbenpopulationen. N2 - In this thesis a representational scheme for multi-agent simulations was developed. This framework enables domain experts - e.g. biologists - to build models and carry out experiments without having to understand and use traditional programming languages. The resulting declarative framework is based on two concepts: the body of an agent can be modelled by a set of state variables. The behaviour of the agents can be described best by using rules. With this as a starting point various approaches for structuring the description are examined. The most important concept is the concept of "activity" - a kind of "behavioural state": While the agent is in a certain activity A, it carries out the sequence of actions that is associated with A - and continues with it until a rule fires thus terminating the activity A and selecting a new one. By indexing these rules at the activity they are terminating and by introducing abstract activities, a framework for behaviour modelling emerges that can be structured in multifarious ways. An interpreter executing this representation scheme was developed in order to allow simulation experiments with such a multi-agent model. This simulator was integrated into a modelling and simulation environment, named SeSAm ("Shell for Simulated Agent-Systems"). Using this framework several models in different application domains are implemented: They are ranging from simple games to complex models, especially of social insects - e.g. the behaviour of ants or bees or the interactions between bee hives and mite populations. KW - Agent KW - Simulation KW - Computersimulation KW - Mehragentensystem KW - Simulation KW - Modellierung KW - Multiagentensystem KW - Regelbasiertes System KW - Simulation KW - Modelling KW - Multi-agent system KW - Rule-based Systems Y1 - 2000 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-2874 ER - TY - THES A1 - Herrler, Rainer T1 - Agentenbasierte Simulation zur Ablaufoptimierung in Krankenhäusern und anderen verteilten, dynamischen Umgebungen T1 - Agent based simulation of processes in hospitals and other distributed, dynamic environments. N2 - Verteilte dynamische Systeme unter lokalen und globalen Gesichtspunkten zu optimieren ist eine schwierige Aufgabe. Zwar sind grundsätzliche Auswirkungen einzelner Maßnahmen häufig bekannt, durch widerstrebende Ziele, Wechselwirkungen zwischen Prozessen und Nebenwirkungen von Maßnahmen ist ein analytisches Vorgehen bei der Optimierung nicht möglich. Besonders schwierig wird es, wenn lokale Einheiten einerseits ihre Ziele und Autonomie behalten sollen, aber durch zentrale Vorgaben bzw. Anreize so gesteuert werden sollen, dass ein übergeordnetes Ziel erreicht wird. Ein praktisches Beispiel dieses allgemeinen Optimierungsproblems findet sich im Gesundheitswesen. Das Management von modernen Kliniken ist stets mit dem Problem konfrontiert, die Qualität der Pflege zu gewährleisten und gleichzeitig kosteneffizient zu arbeiten. Hier gilt es unter gegeben Rahmenbedingungen und bei Respektierung der Autonomie der Funktionseinheiten, Optimierungsmaßnahmen zu finden und durchzuführen. Vorhandene Werkzeuge zur Simulation und Modellierung bieten für diese Aufgabe keine ausreichend guten Vorgehensmodelle und Modellierungsmechanismen. Die agentenbasierte Simulation ermöglicht die Abbildung solcher Systeme und die Durchführung von Simulationsexperimenten zur Bewertung einzelner Maßnahmen. Es werden Lösungswege und Werkzeuge vorgestellt und evaluiert, die den Benutzer bei der Formalisierung des Wissens und der Modellierung solch komplexer Szenarien unterstützen und ein systematisches Vorgehen zur Optimierung ermöglichen. N2 - To optimize distributed dynamic systems or organizations under local and global constraints is a difficult task. Although basic effects of single improvement steps are often known, it is difficult to examine a complex system with conflicting goals, interdependent processes and sideeffects. A special situation occurs, when local entities are supposed to keep autonomy but should be directed by a central instance, to reach a global goal. A concrete example of this optimization problem can be found in health care. The management of modern hospitals has to ensure the quality of service and at the same time work cost efficient. They want to find improvement steps, which on the one hand respect the typical local autonomy of functional units and on the other hand reduce cost factors like the avarage stay duration of patients. Existing tools for modelling and simulation don't provide adequate methodologies and techniques for this problem. Agent based simulation allowes to realize suitable models and finding improvement steps in simulation studies. New approaches and tools are presented and evaluated, that support users in knowledge formalization and model building. KW - Simulation KW - Prozessoptimierung KW - Modellierung KW - Mehragentensystem KW - Krankenhaus KW - Simulation KW - Process Optimization KW - Agentbased System KW - Hospital Y1 - 2007 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-24483 ER -