Refine
Has Fulltext
- yes (31)
Is part of the Bibliography
- yes (31)
Year of publication
Document Type
Keywords
- Modellierung (31) (remove)
Institute
- Institut für Geographie und Geologie (10)
- Institut für Informatik (8)
- Theodor-Boveri-Institut für Biowissenschaften (4)
- Institut für Geologie (2)
- Physikalisches Institut (2)
- Betriebswirtschaftliches Institut (1)
- Graduate School of Life Sciences (1)
- Institut für Geographie (1)
- Institut für Mathematik (1)
- Institut für Pharmazie und Lebensmittelchemie (1)
- Klinik und Poliklinik für Psychiatrie, Psychosomatik und Psychotherapie (1)
Sonstige beteiligte Institutionen
Aktivitätsbasierte Verhaltensmodellierung und ihre Unterstützung bei Multiagentensimulationen
(2000)
Durch Zusammenführung traditioneller Methoden zur individuenbasierten Simulation und dem Konzept der Multiagentensysteme steht mit der Multiagentensimulation eine Methodik zur Verfügung, die es ermöglicht, sowohl technisch als auch konzeptionell eine neue Ebene an Detaillierung bei Modellbildung und Simulation zu erreichen. Ein Modell beruht dabei auf dem Konzept einer Gesellschaft: Es besteht aus einer Menge interagierender, aber in ihren Entscheidungen autonomen Einheiten, den Agenten. Diese ändern durch ihre Aktionen ihre Umwelt und reagieren ebenso auf die für sie wahrnehmbaren Änderungen in der Umwelt. Durch die Simulation jedes Agenten zusammen mit der Umwelt, in der er "lebt", wird die Dynamik im Gesamtsystem beobachtbar. In der vorliegenden Dissertation wurde ein Repräsentationsschema für Multiagentensimulationen entwickelt werden, das es Fachexperten, wie zum Beispiel Biologen, ermöglicht, selbständig ohne traditionelles Programmieren Multiagentenmodelle zu implementieren und mit diesen Experimente durchzuführen. Dieses deklarative Schema beruht auf zwei Basiskonzepten: Der Körper eines Agenten besteht aus Zustandsvariablen. Das Verhalten des Agenten kann mit Regeln beschrieben werden. Ausgehend davon werden verschiedene Strukturierungsansätze behandelt. Das wichtigste Konzept ist das der "Aktivität", einer Art "Verhaltenszustand": Während der Agent in einer Aktivität A verweilt, führt er die zugehörigen Aktionen aus und dies solange, bis eine Regel feuert, die diese Aktivität beendet und eine neue Aktivität auswählt. Durch Indizierung dieser Regeln bei den zugehörigen Aktivitäten und Einführung von abstrakten Aktivitäten entsteht ein Schema für eine vielfältig strukturierbare Verhaltensbeschreibung. Zu diesem Schema wurde ein Interpreter entwickelt, der ein derartig repräsentiertes Modell ausführt und so Simulationsexperimente mit dem Multiagentenmodell erlaubt. Auf dieser Basis wurde die Modellierungs- und Experimentierumgebung SeSAm ("Shell für Simulierte Agentensysteme") entwickelt. Sie verwendet vorhandene Konzepte aus dem visuellen Programmieren. Mit dieser Umgebung wurden Anwendungsmodelle aus verschiedenen Domänen realisiert: Neben abstrakten Spielbeispielen waren dies vor allem Fragestellungen zu sozialen Insekten, z.B. zum Verhalten von Ameisen, Bienen oder der Interaktion zwischen Bienenvölkern und Milbenpopulationen.
A quantitative model of groundwater flows contributing to the Goblenz state water scheme at the north-western fringe of the Kalahari was developed within this study. The investigated area corresponds to the Upper Omatako basin and encompasses an outer mountainous rim and sediments of the Kalahari sand desert in the centre. This study revealed the eminent importance of the mountainous rim for the water balance of the Kalahari, both in terms of surface and ground water. A hydrochemical subdivision of groundwater types in the mountain rim around the Kalahari was derived from cluster analysis of hydrochemical groundwater data. The western and south-western secondary aquifers within rocks of the Damara Sequence, the Otavi Mountain karst aquifers of the Tsumeb and Abenab subgroups as well as the Waterberg Etjo sandstone aquifer represent the major hydrochemical groups. Ca/Mg and Sr/Ca ratios allowed to trace the groundwater flow from the Otavi Mountains towards the Kalahari near Goblenz. The Otavi Mountains and the Waterberg were identified as the main recharge areas showing almost no or only little isotopic enrichment by evaporation. Soil water balance modelling confirmed that direct groundwater recharge in hard-rock environments tends to be much higher than in areas covered with thick Kalahari sediments. According to the water balance model average recharge rates in hard-rock exposures with only thin sand cover are between 0.1 and 2.5 % of mean annual rainfall. Within the Kalahari itself very limited recharge was predicted (< 1 % of mean annual rainfall). In the Upper Omatako basin the highest recharge probability was found in February in the late rainfall season. The water balance model also indicated that surface runoff is produced sporadically, triggering indirect recharge events. Several sinkholes were discovered in the Otavi Foreland to the north of Goblenz forming short-cuts to the groundwater table and preferential recharge zones. Their relevance for the generation of indirect recharge could be demonstrated by stable isotope variations resulting from observed flood events. Within the Kalahari basin several troughs were identified in the pre-Kalahari surface by GIS-based analyses. A map of saturated thickness of Kalahari sediments revealed that these major troughs are partly saturated with groundwater. The main trough, extending from south-west to north-east, is probably connected to the Goblenz state water scheme and represents a major zone of groundwater confluence, receiving groundwater inflows from several recharge areas in the Upper Omatako basin. As a result of the dominance of mountain front recharge the groundwater of the Kalahari carries an isotopic composition of recharge at higher altitudes. The respective percentages of inflow into the Kalahari from different source areas were determined by a mixing-cell approach. According to the mixing model Goblenz receives most of its inflow (70 to 80 %) from a shallow Kalahari aquifer in the Otavi Foreland which is connected to the Otavi Mountains. Another 15 to 10 % of groundwater inflow to the Kalahari at Goblenz derive from the Etjo sandstone aquifer to the south and from inflow of a mixed component. In conclusion, groundwater abstraction at Goblenz will be affected by measures that heavily influence groundwater inflow from the Otavi Mountains, the Waterberg, and the fractured aquifer north of the Waterberg.
Ziel dieser Arbeit war es, die Grundwasserneubildung im Einzugsgebiet des Ouham mit den vorhandenen zum Teil sehr lückenhaften Daten zu bestimmen. Hierbei sollten unterschiedliche Methoden in der wechselfeuchten, subtropischen Klimazone verglichen und bewertet werden. Das Arbeitsgebiet umfasst das Einzugsgebiet des Oberlaufes des Ouham, eines Flusses im Nordwesten der Zentralafrikanischen Republik. Das hier untersuchte Flussnetz gehört zum Einzugsgebiet des Chari und fließt dem abflusslosen Tschadbecken zu. Das Einzugsgebiet des Ouham liegt in der sahel-sudanischen Klimazone. Zwischen November und März bzw. April herrschen hier trockene Nordostwinde vor, d.h. messbarer Oberflächenabfluss findet in der Trockenzeit lediglich in den Flüssen erster Ordnung statt. Von Mai bis Oktober bestimmen feuchte Südwestwinde das Wetter, es bilden sich zusätzlich zu den Abflüssen erster Ordnung Abflüsse dort, wo es Morphologie und Bodenverhältnisse zulassen. Das Abflussverhalten des Ouham wird im Untersuchungsgebiet an fünf Flusspegeln gemessen. Die größten Abflussspenden treten im Westen auf, mit der Abnahme des Niederschlags nach Osten nimmt auch die Abflussspende der einzelnen Einzugsgebiete ab. Die maximalen Abflussmengen der einzelnen Pegel werden in den westlicheren Teileinzugsgebieten im September gemessen, in den östlicheren Teileinzugsgebieten erstreckt sich das Maximum über September und Oktober bzw. Oktober. Der Niederschlag nimmt von Südwesten nach Nordosten kontinuierlich ab, dieser allgemeine Trend wird durch die Steigungsregen am Massiv von „Bakoré“ modifiziert. Niederschlagsreiche Jahre sind 1951 bis 1952, 1954 bis 1955, 1957, 1960, 1962, 1963 und 1969, ausgeprägt niederschlagsarme Jahre sind 1972, 1973, 1977, 1982 bis 1984 und 1986 bis 1987. Das Untersuchungsgebiet besteht zum größten Teil aus einem proterozoischen Granit-Gneis-Sockel, der im äußersten Südwesten von mesozoischen Sandsteinen bedeckt ist. Das gesamte Grundgebirge ist von einer Vielzahl von Störungen durchzogen, deren Hauptstörungsrichtung Nordwest – Südost, bzw. senkrecht dazu verläuft. Innerhalb großer Störungs- und Intrusionsbereiche ist das Gestein stärker geklüftet. Die Grundwasserneubildung wurde mit unterschiedlichen Methoden berechnet, zum erst auf der Basis von Abflussdaten nach drei unterschiedlichen Verfahren (WUNDT, KILLE, MAILLET), dann mit der Wasserhaushaltsgleichung und durch eine Modellierung der Wasserbilanz mit dem Programm MODBIL . Die ermittelten unterirdischen Abflüsse differieren deutlich. Am höchsten sind die Abflussmengen nach WUNDT, am niedrigsten sind die nach MAILLET berechneten. Für das Einzugs¬gebiet des Ouham, mit der vorhandenen, im Westen deutlich ausgeprägten Topo¬graphie und den heftigen schub¬weise erfolgenden Niederschlägen, wurde die nach KILLE ermittelten Grundwasserneubildungsraten als realistisch gegenüber den Grundwasserneubildungsraten nach WUNDT angesehen. Die Grundwasserneubildung nimmt aufgrund des unterschiedlichen Wasserdargebotes von Westen nach Osten ab, im Westen werden in niederschlagsreichen Jahren 150 mm/Jahr, während es im Osten lediglich 79 mm/Jahr sind. In niederschlagsarmen Jahren nimmt die Grundwasserneubildung von 106 mm/Jahr im Westen auf 64 mm/Jahr im Osten ab. Nach MAILLET wird eine Grundwasserneubildungsrate von 50 mm/Jahr im Westen und 26 mm/Jahr im Osten berechnet, sie stellt ein Mindestmaß an Grundwasserneubildung dar. Die Bestimmung der Grundwasserneubildung mit der Wasserhaushaltsgleichung wurde als Plausibilitätskontrolle der aus Abflussdaten ermittelten Werte durchgeführt. Die ermittelten Grundwasserneubildungsraten liegen deutlich über denen nach dem Verfahren von KILLE und MAILLET berechneten. In einem weiteren Verfahren wurde die Berechnung der Grundwasserneubildung durch Modellierung der Wasser¬bilanz mit dem Programm MODBIL durchgeführt. Hierbei werden vorhandene Punktdaten wie Niederschlag, Temperatur und Verdunstung mit primär existierenden Raumdaten wie Topographie, Morphologie, Landnutzung und Geologie in Raumdaten umgewandelt und auf Grundlage des Bodenwasserhaushaltes die aktuelle Verdunstung, der Abfluss und die Grundwasserneubildung berechnet. Die berechneten Mittelwerte von effektivem Niederschlag, potentieller und aktueller Verdunstung der einzelnen Teileinzugsgebiete lassen einen deutlichen West-Ost-Trend erkennen. Der höchste effektive Niederschlag fällt im westlichsten Einzugsgebiet und nimmt weiter nach Osten weiter ab. Potentielle und aktuelle Verdunstung nehmen von Westen nach Osten zu, wobei bei der aktuellen Verdunstung dieser Trend nicht sehr stark ausgeprägt ist. Das mittlere Abflussverhalten der Teileinzugsgebiete folgt keinem deutlichen West-Ost-Trend. Im Gegensatz dazu nimmt die Grundwasserneubildung von Westen nach Osten ab.
Auch nach dem herkömmlichen Mechanikunterricht in der Oberstufe verfügen viele Schüler nicht über angemessene physikalische Vorstellungen über die verwendeten physikalischen Begriffe und deren Zusammenhänge. Einführend wurden in dieser Arbeit allgemeine Aspekte zu Schülervorstellungen (Kapitel 2.1) sowie konkrete Schülervorstellungen zur Mechanik (Kapitel 2.2) und relevante Lehrervorstellungen (Kapitel 2.3) dargelegt. Ein Ziel dieser Arbeit war, ein Gesamtkonzept für einen veränderten Kinematik- und Dynamikunterricht ein- und zweidimensionaler Bewegungen in der Jahrgangsstufe 11 des Gymnasiums zu entwickeln, das möglichst vielen Schülern hilft, möglichst viele Fehlvorstellungen zur Mechanik aufzuarbeiten. Dazu wurden u.a. computergestützte Experimente und die Visualisierung der physikalischen Größen mit dynamisch ikonischen Repräsentationen (siehe Kapitel 3.2) eingesetzt, was neue Elementarisierungen und neue Unterrichtsstrategien ermöglichte (siehe Kapitel 8.2 oder Kapitel 5). Um gute Chancen zu haben, dass dieses Konzept den Schulalltag erreicht, wurde es lehrplankonform zum bayerischen Lehrplan konzipiert. Eine erste Zielsetzung der summativen Evaluation war festzustellen, inwieweit das gesamte Unterrichtskonzept von verschiedenen Lehrern durchführbar ist und wie diese es einschätzen (siehe Kapitel 8.4 oder Kapitel 6.3). Ein wichtiges Ziel war dann, mit Hilfe von Tests festzustellen, inwieweit es Veränderungen in den Schülervorstellungen gab (Vor-/Nachtest-Design) und diese Veränderungen mit konventionell unterrichteten Klassen zu vergleichen (Trainings-/Kontrollgruppen-Design) (konventionelle Klassen: Kapitel 8.1; Vergleich: Kapitel 8.5; Kapitel 6.4 + 6.5). Dazu wurden hauptsächlich bereits vorliegende paper-pencil-Tests verwendet, da eine Testneuentwicklung im Rahmen der Arbeit nicht möglich gewesen wäre. Da diese Tests verschiedene Schwächen haben, wurden mehrere verschiedene Tests gleichzeitig eingesetzt, die sich gegenseitig ergänzen. Die graphische Modellbildung in Verbindung mit Animationen ist ein fakultativer Teil dieses Unterrichtskonzeptes. Hierzu wurde zusätzlich eine eigene Interventionsstudie durchgeführt (siehe Kapitel 8.3 und Kapitel 4). Ergebnisse: Dynamisch ikonische Repräsentationen können dem Lehrer neue unterrichtliche Möglichkeiten geben und somit dem Schüler helfen, physikalische Konzepte angemessener zu verstehen. Die Einführung kinematischer Größen anhand zweidimensionaler Bewegungen, die nur mit ikonischen Repräsentationen in Form von Vektorpfeilen sinnvoll ist (geeignete Elementarisierung), führt zu einem physikalischeren Verständnis des Beschleunigungsbegriffes und vermeidet Fehlvorstellungen durch eine ungeeignete Reduktion auf den Spezialfall eindimensionaler Bewegungen. Mehr Schüler konzeptualisieren Beschleunigung wie in der Physik als gerichtete Größe anstelle einer Größe, die die Änderung des Geschwindigkeitsbetrages angibt und allenfalls tangentiale Richtung haben kann. Auch in der Dynamik sind dadurch hilfreiche Darstellungen und so sinnvolle Veränderungen des Unterrichts möglich. Um wesentliche Strukturen aufzuzeigen, werden komplexere Versuche mit mehreren Kräften und Reibung eingesetzt, was erst durch eine rechnerunterstützte Aufbereitung mit dynamisch ikonischen Repräsentationen ermöglicht wird. Diese Darstellungen ermöglichen auch eine aktive Auseinandersetzung der Schüler mit den Themen, indem von ihnen häufig Vorhersagen gefordert werden (geeignete Unterrichtsstrategie). Graphische Modellbildung als weiterer Einsatz bildlicher Darstellungen kann ebenso eine weitere Verständnishilfe sein. Schüler, die nach dem vorgelegten Unterrichtskonzept unterrichtet wurden, zeigten mehr Verständnis für den newtonschen Kraftbegriff. Da die entwickelten Ideen tatsächlich im Unterricht ankamen und dort Veränderungen bewirkten, kann von einer effektiven Lehrerfortbildung mit Transferwirkung gesprochen werden.
Verteilte dynamische Systeme unter lokalen und globalen Gesichtspunkten zu optimieren ist eine schwierige Aufgabe. Zwar sind grundsätzliche Auswirkungen einzelner Maßnahmen häufig bekannt, durch widerstrebende Ziele, Wechselwirkungen zwischen Prozessen und Nebenwirkungen von Maßnahmen ist ein analytisches Vorgehen bei der Optimierung nicht möglich. Besonders schwierig wird es, wenn lokale Einheiten einerseits ihre Ziele und Autonomie behalten sollen, aber durch zentrale Vorgaben bzw. Anreize so gesteuert werden sollen, dass ein übergeordnetes Ziel erreicht wird. Ein praktisches Beispiel dieses allgemeinen Optimierungsproblems findet sich im Gesundheitswesen. Das Management von modernen Kliniken ist stets mit dem Problem konfrontiert, die Qualität der Pflege zu gewährleisten und gleichzeitig kosteneffizient zu arbeiten. Hier gilt es unter gegeben Rahmenbedingungen und bei Respektierung der Autonomie der Funktionseinheiten, Optimierungsmaßnahmen zu finden und durchzuführen. Vorhandene Werkzeuge zur Simulation und Modellierung bieten für diese Aufgabe keine ausreichend guten Vorgehensmodelle und Modellierungsmechanismen. Die agentenbasierte Simulation ermöglicht die Abbildung solcher Systeme und die Durchführung von Simulationsexperimenten zur Bewertung einzelner Maßnahmen. Es werden Lösungswege und Werkzeuge vorgestellt und evaluiert, die den Benutzer bei der Formalisierung des Wissens und der Modellierung solch komplexer Szenarien unterstützen und ein systematisches Vorgehen zur Optimierung ermöglichen.
Im gleichen Maße wie informatisches Wissen mehr und mehr in den wissenschaftlichen Alltag aller Lebenswissenschaften Einzug gehalten hat, hat sich der Schwerpunkt bioinformatischer Forschung in stärker mathematisch und informatisch-orientierte Themengebiete verschoben. Bioinformatik heute ist mehr als die computergestützte Verarbeitung großer Mengen an biologischen Daten, sondern hat einen entscheidenden Fokus auf der Modellierung komplexer biologischer Systeme. Zur Anwendung kommen hierbei insbesondere Theorien aus dem Bereich der Stochastik und Statistik, des maschinellen Lernens und der theoretischen Informatik. In der vorliegenden Dissertation beschreibe ich in Fallstudien die systematische Modellierung biologischer Systeme aus einem informatisch - mathematischen Standpunkt unter Anwendung von Verfahren aus den genannten Teilbereichen und auf unterschiedlichen Ebenen biologischer Abstraktion. Ausgehend von der Sequenzinformation über Transkriptom, Metabolom und deren regulatorischer Interaktion hin zur Modellierung von Populationseffekten werden hierbei aktuelle biologische Fragestellungen mit mathematisch - informatischen Modellen und einer Vielzahl experimenteller Daten kombiniert. Ein besonderer Augenmerk liegt dabei auf dem Vorgang der Modellierung und des Modellbegriffs als solchem im Rahmen moderner bioinformatischer Forschung. Im Detail umfassen die Projekte (mehrere Publikationen) die Entwicklung eines neuen Ansatzes zur Einbettung und Visualisierung von Multiplen Sequenz- und Sequenz-Strukturalignments, illustriert am Beispiel eines Hemagglutininalignments unterschiedlicher H5N1 Varianten, sowie die Modellierung des Transkriptoms von A. thaliana, bei welchem mit Hilfe einer kernelisierten nicht-parametrischen Metaanalyse neue, an der Infektionsabwehr beteiligten, Gene ausfindig gemacht werden konnten. Desweiteren ist uns mit Hilfe unserer Software YANAsquare eine detaillierte Untersuchung des Metabolismus von L. monocytogenes unter Aktivierung des Transkriptionsfaktors prfA gelungen, dessen Vorhersagen durch experimentelle 13C Isotopologstudien belegt werden konnten. In einem Anschlußprojekt war der Zusammenhang zwischen Regulation des Metabolismus durch Regulation der Genexpression und der Fluxverteilung des metabolischen Steady- State-Netzwerks das Ziel. Die Modellierung eines komplexen organismischen Phänotyps, der Zellgrößenentwicklung der Diatomee Pseudo-nitzschia delicatissima, schließt die Untersuchungen ab.
Verbleibende Unsicherheiten im Kohlenstoffhaushalt in Ökosystemen der hohen nördlichen Breiten können teilweise auf die Schwierigkeiten bei der Erfassung der räumlich und zeitlich hoch variablen Methanemissionsraten von Permafrostböden zurückgeführt werden. Methan ist ein global abundantes atmosphärisches Spurengas, welches signifikant zur Erwärmung der Atmosphäre beiträgt. Aufgrund der hohen Sensibilität des arktischen Bodenkohlenstoffreservoirs sowie der großen von Permafrost unterlagerten Landflächen sind arktische Gebiete am kritischsten von einem globalen Klimawandel betroffen. Diese Dissertation adressiert den Bedarf an Modellierungsansätzen für die Bestimmung der Quellstärke nordsibirischer permafrostbeeinflusster Ökosysteme der nassen polygonalen Tundra mit Hinblick auf die Methanemissionen auf regionalem Maßstab. Die Arbeit präsentiert eine methodische Struktur in welcher zwei prozessbasierte Modelle herangezogen werden, um die komplexen Wechselwirkungen zwischen den Kompartimenten Pedosphäre, Biosphäre und Atmosphäre, welche zu Methanemissionen aus Permafrostböden führen, zu erfassen. Es wird ein Upscaling der Gesamtmethanflüsse auf ein größeres, von Permafrost unterlagertes Untersuchungsgebiet auf Basis eines prozessbasierten Modells durchgeführt. Das prozessbasierte Vegetationsmodell Biosphere Energy Hydrology Transfer Model (BETHY/DLR) wird für die Berechnung der Nettoprimärproduktion (NPP) arktischer Tundravegetation herangezogen. Die NPP ist ein Maß für die Substratverfügbarkeit der Methanproduktion und daher ein wichtiger Eingangsparameter für das zweite Modell: Das prozessbasierte Methanemissionsmodell wird anschließend verwendet, um die Methanflüsse einer gegebenen Bodensäule explizit zu berechnen. Dabei werden die Prozesse der Methanogenese, Methanotrophie sowie drei verschiedene Transportmechanismen – molekulare Diffusion, Gasblasenbildung und pflanzengebundener Transport durch vaskuläre Pflanzen – berücksichtigt. Das Methanemissionsmodell ist für Permafrostbedingungen modifiziert, indem das tägliche Auftauen des Permafrostbodens in der kurzen arktischen Vegetationsperiode berücksichtigt wird. Der Modellantrieb besteht aus meteorologischen Datensätzen des European Center for Medium-Range Weather Forecasts (ECMWF). Die Eingangsdatensätze werden mit Hilfe von in situ Messdaten validiert. Zusätzliche Eingangsdaten für beide Modelle werden aus Fernerkundungsdaten abgeleitet, welche mit Feldspektralmessungen validiert werden. Eine modifizierte Landklassifikation auf der Basis von Landsat-7 Enhanced Thematic Mapper Plus (ETM+) Daten wird für die Ableitung von Informationen zu Feuchtgebietsverteilung und Vegetationsbedeckung herangezogen. Zeitserien der Auftautiefe werden zur Beschreibung des Auftauens bzw. Rückfrierens des Bodens verwendet. Diese Faktoren sind die Haupteinflussgrößen für die Modellierung von Methanemissionen aus permafrostbeeinflussten Tundraökosystemen. Die vorgestellten Modellergebnisse werden mittels Eddy-Kovarianz-Messungen der Methanflüsse validiert, welche während der Vegetationsperioden der Jahre 2003-2006 im südlichen Teil des Lena Deltas (72°N, 126°E) vom Alfred Wegener Institut für Polar- und Meeresforschung (AWI) durchgeführt wurden. Das Untersuchungsgebiet Lena Delta liegt an der Laptewsee in Nordostsibirien und ist durch Ökosysteme der arktischen nassen polygonalen Tundra sowie kalten kontinuierlichen Permafrost charakterisiert. Zeitlich integrierte Werte der modellierten Methanflüsse sowie der in situ Messungen zeigen gute Übereinstimmungen und weisen auf eine leichte Modellunterschätzung von etwa 10%.
The study investigates the water resources and aquifer dynamics of the igneous fractured aquifer-system of the Troodos Mountains in Cyprus, using a coupled, finite differences water balance and groundwater modelling approach. The numerical water balance modelling forms the quantitative framework by assessing groundwater recharge and evapotranspiration, which form input parameters for the groundwater flow models. High recharge areas are identified within the heavily fractured Gabbro and Sheeted Dyke formations in the upper Troodos Mountains, while the impervious Pillow Lava promontories - with low precipitation and high evapotranspiration - show unfavourable recharge conditions. Within the water balance studies, evapotranspiration is split into actual evapotranspiration and the so called secondary evapotranspiration, representing the water demand for open waters, moist and irrigated areas. By separating the evapotranspiration of open waters and moist areas from the one of irrigated areas, groundwater abstraction needs are quantified, allowing the simulation of single well abstraction rates in the groundwater flow models. Two sets of balanced groundwater models simulate the aquifer dynamics in the presented study: First, the basic groundwater percolation system is investigated using two-dimensional vertical flow models along geological cross-sections, depicting the entire Troodos Mountains up to a depth of several thousands of metres. The deeply percolating groundwater system starts in the high recharge areas of the upper Troodos, shows quasi stratiform flow in the Gabbro and Sheeted Dyke formations, and rises to the surface in the vicinity of the impervious Pillow Lava promontories. The residence times mostly yield less than 25 years, the ones of the deepest fluxes several hundreds of years. Moreover, inter basin flow and indirect recharge of the Circum Troodos Sedimentary Succession are identified. In a second step, the upper and most productive part of the fractured igneous aquifer-system is investigated in a regional, horizontal groundwater model, including management scenarios and inter catchment flow studies. In a natural scenario without groundwater abstractions, the recovery potential of the aquifer is tested. Predicted future water demand is simulated in an increased abstraction scenario. The results show a high sensitivity to well abstraction rate changes in the Pillow Lava and Basal Group promontories. The changes in groundwater heads range from a few tens of metres up to more than one hundred metres. The sensitivity in the more productive parts of the aquifer-system is lower. Inter-catchment flow studies indicate that - besides the dominant effluent conditions in the Troodos Mountains - single reaches show influent conditions and are sub-flown by groundwater. These fluxes influence the local water balance and generate inter catchment flow. The balanced groundwater models form thus a comprehensive modelling system, supplying future detail models with information concerning boundary conditions and inter-catchment flow, and allowing the simulation of impacts of landuse or climate change scenarios on the dynamics and water resources of the Troodos aquifer-system.
The urban micro climate has been increasingly recognised as an important aspect for urban planning. Therefore, urban planners need reliable information on the micro climatic characteristics of the urban environment. A suitable spatial scale and large spatial coverage are important requirements for such information. This thesis presents a conceptual framework for the use of airborne hyperspectral data to support urban micro climate characterisation, taking into account the information needs of urban planning. The potential of hyperspectral remote sensing in characterising the micro climate is demonstrated and evaluated by applying HyMap airborne hyperspectral and height data to a case study of the German city of Munich. The developed conceptual framework consists of three parts. The first is concerned with the capabilities of airborne hyperspectral remote sensing to map physical urban characteristics. The high spatial resolution of the sensor allows to separate the relatively small urban objects. The high spectral resolution enables the identification of the large range of surface materials that are used in an urban area at up to sub-pixel level. The surface materials are representative for the urban objects of which the urban landscape is composed. These spatial urban characteristics strongly influence the urban micro climate. The second part of the conceptual framework provides an approach to use the hyperspectral surface information for the characterisation of the urban micro climate. This can be achieved by integrating the remote sensing material map into a micro climate model. Also spatial indicators were found to provide useful information on the micro climate for urban planners. They are commonly used in urban planning to describe building blocks and are related to several micro climatic parameters such as temperature and humidity. The third part of the conceptual framework addresses the combination and presentation of the derived indicators and simulation results under consideration of the planning requirements. Building blocks and urban structural types were found to be an adequate means to group and present the derived information for micro climate related questions to urban planners. The conceptual framework was successfully applied to a case study in Munich. Airborne hyperspectral HyMap data has been used to derive a material map at sub-pixel level by multiple endmember linear spectral unmixing. This technique was developed by the German Research Centre for Geosciences (GFZ) for applications in Dresden and Potsdam. A priori information on building locations was used to support the separation between spectrally similar materials used both on building roofs and non-built surfaces. In addition, surface albedo and leaf area index are derived from the HyMap data. The sub-pixel material map supported by object height data is then used to derive spatial indicators, such as imperviousness or building density. To provide a more detailed micro climate characterisation at building block level, the surface materials, albedo, leaf area index (LAI) and object height are used as input for simulations with the micro climate model ENVI-met. Concluding, this thesis demonstrated the potential of hyperspectral remote sensing to support urban micro climate characterisation. A detailed mapping of surface materials at sub-pixel level could be performed. This provides valuable, detailed information on a large range of spatial characteristics relevant to the assessment of the urban micro climate. The developed conceptual framework has been proven to be applicable to the case study, providing a means to characterise the urban micro climate. The remote sensing products and subsequent micro climatic information are presented at a suitable spatial scale and in understandable maps and graphics. The use of well-known spatial indicators and the framework of urban structural types can simplify the communication with urban planners on the findings on the micro climate. Further research is needed primarily on the sensitivity of the micro climate model towards the remote sensing based input parameters and on the general relation between climate parameters and spatial indicators by comparison with other cities.
Die Apoptose der Leberzellen ist abhängig von externen Signalen wie beispielsweise Komponenten der Extrazellulären Matrix sowie anderen Zell-Zell-Kontakten, welche von einer Vielfalt und Vielzahl an Knoten verarbeitet werden. Einige von ihnen wurden im Rahmen dieser Arbeit auf ihre Systemeffekte hin unter- sucht. Trotz verschiedener äußerer Einflüsse und natürlicher Selektion ist das System daraufhin optimiert, eine kleine Anzahl verschiedener und klar voneinander unterscheidbarer Systemzustände anzunehmen. Die verschiedenartigen Einflüsse und Crosstalk-Mechanismen dienen der Optimierung der vorhandenen Systemzustände. Das in dieser Arbeit vorgestellte Modell zeigt zwei apoptotische sowie zwei nicht-apoptotische stabile Systemzustände, wobei der Grad der Aktivierung eines Knotens bis zu dem Moment stark variieren kann, in welchem der absolute Systemzustand selbst verändert wird (Philippi et al., BMC Systems Biology,2009) [1]. Dieses Modell stellt zwar eine Vereinfachung des gesamten zellulären Netzwerkes und seiner verschiedenen Zustände dar, ist aber trotz allem in der Lage, unabhängig von detaillierten kinetischen Daten und Parametern der einzelnen Knoten zu agieren. Gleichwohl erlaubt das Modell mit guter qualitativer Übereinstimmung die Apoptose als Folge einer Stimulation mit FasL zu modellieren. Weiterhin umfasst das Modell sowohl Crosstalk-Möglichkeiten des Collagen-Integrin-Signalwegs, ebenso berücksichtigt es die Auswirkungen der genetischen Deletion von Bid sowie die Konsequenzen einer viralen Infektion. In einem zweiten Teil werden andere Anwendungsmöglichkeiten dargestellt. Hormonale Signale in Pflanzen, Virusinfektionen und intrazelluläre Kommunikation werden semi-quantitativ modelliert. Auch hier zeigte sich eine gute Ubereinstimmung der Modelle mit den experimentellen Daten.
In the future Internet, the people-centric communication paradigm will be complemented by a ubiquitous communication among people and devices, or even a communication between devices. This comes along with the need for a more flexible, cheap, widely available Internet access. Two types of wireless networks are considered most appropriate for attaining those goals. While wireless sensor networks (WSNs) enhance the Internet’s reach by providing data about the properties of the environment, wireless mesh networks (WMNs) extend the Internet access possibilities beyond the wired backbone. This monograph contains four chapters which present modeling and optimization methods for WSNs and WMNs. Minimizing energy consumptions is the most important goal of WSN optimization and the literature consequently provides countless energy consumption models. The first part of the monograph studies to what extent the used energy consumption model influences the outcome of analytical WSN optimizations. These considerations enable the second contribution, namely overcoming the problems on the way to a standardized energy-efficient WSN communication stack based on IEEE 802.15.4 and ZigBee. For WMNs both problems are of minor interest whereas the network performance has a higher weight. The third part of the work, therefore, presents algorithms for calculating the max-min fair network throughput in WMNs with multiple link rates and Internet gateway. The last contribution of the monograph investigates the impact of the LRA concept which proposes to systematically assign more robust link rates than actually necessary, thereby allowing to exploit the trade-off between spatial reuse and per-link throughput. A systematical study shows that a network-wide slightly more conservative LRA than necessary increases the throughput of a WMN where max-min fairness is guaranteed. It moreover turns out that LRA is suitable for increasing the performance of a contention-based WMN and is a valuable optimization tool.
Current changes of biodiversity result almost exclusively from human activities. This anthropogenic conversion of natural ecosystems during the last decades has led to the so-called ‘biodiversity crisis’, which comprises the loss of species as well as changes in the global distribution patterns of organisms. Species richness is unevenly distributed worldwide. Altogether, 17 so-called ‘megadiverse’ nations cover less than 10% of the earth’s land surface but support nearly 70% of global species richness. Mexico, the study area of this thesis, is one of those countries. However, due to Mexico’s large extent and geographical complexity, it is impossible to conduct reliable and spatially explicit assessments of species distribution ranges based on these collection data and field work alone. In the last two decades, Species distribution models (SDMs) have been established as important tools for extrapolating such in situ observations. SDMs analyze empirical correlations between geo-referenced species occurrence data and environmental variables to obtain spatially explicit surfaces indicating the probability of species occurrence. Remote sensing can provide such variables which describe biophysical land surface characteristics with high effective spatial resolutions. Especially during the last three to five years, the number of studies making use of remote sensing data for modeling species distributions has therefore multiplied. Due to the novelty of this field of research, the published literature consists mostly of selective case studies. A systematic framework for modeling species distributions by means of remote sensing is still missing. This research gap was taken up by this thesis and specific studies were designed which addressed the combination of climate and remote sensing data in SDMs, the suitability of continuous remote sensing variables in comparison with categorical land cover classification data, the criteria for selecting appropriate remote sensing data depending on species characteristics, and the effects of inter-annual variability in remotely sensed time series on the performance of species distribution models. The corresponding novel analyses were conducted with the Maximum Entropy algorithm developed by Phillips et al. (2004). In this thesis, a more comprehensive set of remote sensing predictors than in the existing literature was utilized for species distribution modeling. The products were selected based on their ecological relevance for characterizing species distributions. Two 1 km Terra-MODIS Land 16-day composite standard products including the Enhanced Vegetation Index (EVI), Reflectance Data, and Land Surface Temperature (LST) were assembled into enhanced time series for the time period of 2001 to 2009. These high-dimensional time series data were then transformed into 18 phenological and 35 statistical metrics that were selected based on an extensive literature review. Spatial distributions of twelve tree species were modeled in a hierarchical framework which integrated climate (WorldClim) and MODIS remote sensing data. The species are representative of the major Mexican forest types and cover a variety of ecological traits, such as range size and biotope specificity. Trees were selected because they have a high probability of detection in the field and since mapping vegetation has a long tradition in remote sensing. The result of this thesis showed that the integration of remote sensing data into species distribution models has a significant potential for improving and both spatial detail and accuracy of the model predictions.
Internet applications are becoming more and more flexible to support diverge user demands and network conditions. This is reflected by technical concepts, which provide new adaptation mechanisms to allow fine grained adjustment of the application quality and the corresponding bandwidth requirements. For the case of video streaming, the scalable video codec H.264/SVC allows the flexible adaptation of frame rate, video resolution and image quality with respect to the available network resources. In order to guarantee a good user-perceived quality (Quality of Experience, QoE) it is necessary to adjust and optimize the video quality accurately. But not only have the applications of the current Internet changed. Within network and transport, new technologies evolved during the last years providing a more flexible and efficient usage of data transport and network resources. One of the most promising technologies is Network Virtualization (NV) which is seen as an enabler to overcome the ossification of the Internet stack. It provides means to simultaneously operate multiple logical networks which allow for example application-specific addressing, naming and routing, or their individual resource management. New transport mechanisms like multipath transmission on the network and transport layer aim at an efficient usage of available transport resources. However, the simultaneous transmission of data via heterogeneous transport paths and communication technologies inevitably introduces packet reordering. Additional mechanisms and buffers are required to restore the correct packet order and thus to prevent a disturbance of the data transport. A proper buffer dimensioning as well as the classification of the impact of varying path characteristics like bandwidth and delay require appropriate evaluation methods. Additionally, for a path selection mechanism real time evaluation mechanisms are needed. A better application-network interaction and the corresponding exchange of information enable an efficient adaptation of the application to the network conditions and vice versa. This PhD thesis analyzes a video streaming architecture utilizing multipath transmission and scalable video coding and develops the following optimization possibilities and results: Analysis and dimensioning methods for multipath transmission, quantification of the adaptation possibilities to the current network conditions with respect to the QoE for H.264/SVC, and evaluation and optimization of a future video streaming architecture, which allows a better interaction of application and network.
The Mediterranean area reveals a strong vulnerability to future climate change due to a high exposure to projected impacts and a low capacity for adaptation highlighting the need for robust regional or local climate change projections, especially for extreme events strongly affecting the Mediterranean environment. The prevailing study investigates two major topics of the Mediterranean climate variability: the analysis of dynamical downscaling of present-day and future temperature and precipitation means and extremes from global to regional scale and the comprehensive investigation of temperature and rainfall extremes including the estimation of uncertainties and the comparison of different statistical methods for precipitation extremes. For these investigations, several observational datasets of CRU, E-OBS and original stations are used as well as ensemble simulations of the regional climate model REMO driven by the coupled global general circulation model ECHAM5/MPI-OM and applying future greenhouse gas (GHG) emission and land degradation scenarios.
Thrombozyten (Blutplättchen) sind die Vermittler der zellulären Hämostase. Ihre Fähigkeit zu Aggregieren und sich an das umgebende Gewebe verletzter Blutgefässe anzulagern, wird durch ein komplexes intrazelluläres Signaltransduktionsnetzwerk bestimmt, das sowohl aktivierende, als auch inhibierende Subnetzwerke beinhaltet. Das Verständnis dieser Prozesse ist von hoher medizinischer Bedeutung. Im Rahmen dieser Arbeit wurde die thrombozytäre Signaltransduktion sowohl mittels eines Boole'schen, als auch verschiedener dynamischer Modelle analysiert. Die Boole'sche Modellierung führte zu interessanten Erkenntnissen über das Zusammenwirken einzelner Subnetzwerke bei der Vermittlung irreversibler Plättchenaktivierung und zeigte Mechanismen der Interaktion mit dem hemmenden Prostaglandinsystem auf. Das Modell beinhaltet unter Anderem wichtige Systemkomponenten wie Calciumsignalgebung, Aktivierung von Schlüsselkinasen wie Src und PKC, Integrin-vermitteltes outside-in sowie inside-out Signalgebung und autokrine ADP- und Thromboxan-Produktion. Unter Verwendung dieses Boole'schen Ansatzes wurde weiterhin das System-eigene Schwellenwertverhalten analysiert. Dabei stellte sich eine umgekehrt proportionale Abhängigkeit des relativen aktivierenden Reizes, der notwendig ist um den Schwellenwert zu überschreiten, vom absoluten hemmenden Input heraus. Das System adaptiert demnach an höhere Prostaglandinkonzentrationen durch eine Erhöhung der Sensitivität für Aktivatoren wie dem van-Willebrandt-Faktor und Kollagen, und ermöglicht somit auch unter lokal hemmenden Bedingungen eine Plättchen-vermittelte Hämostase. Der nächste Schritt bestand in der Implementierung eines Differentialgleichungs-basierten Modells der thrombozytären Prostaglandin-Signaltransduktion, um einen detaillierten Überblick über die Dynamik des inhibierenden Netzwerkteils zu erhalten. Die kinetischen Parameter dieses Modells wurden teilweise der Literatur entnommen. Der andere Teil wurde anhand einer umfassenden Kombination dosis- und zeitabhängiger cAMP und phospho-VASP Messdaten geschätzt. Der Prozess beinhaltete mehrere Iterationen aus Modellvorhersagen einerseits und experimentellem Design andererseits. Das Modell liefert die quantitativen Effekte der Prostaglandinrezeptoren IP, DP1, EP3 und EP4 und des ADP-Rezeptors P2Y12 auf die zugrunde liegende Signalkaskade. EP4 zeigt den stärksten Effekt in der aktivierenden Fraktion, wohingegen EP3 einen stärkeren inhibitorischen Effekt ausübt, als der durch Clopidogrel hemmbare ADP-Rezeptor P2Y12. Weiterhin wurden die Eigenschaften des negativen feedback-loops der PKA auf den cAMP-Spiegel untersucht, und eine direkte Beeinflussung der Adenylatzyklase durch die PKA festgestellt, in Form einer Reduzierung der maximalen katalytischen Geschwindigkeit. Die Identifizierbarkeit der geschätzten Parameter wurde mittels profile-Likelihood-Schätzung untersucht. In einem dritten Schritt wurde ein sowohl die aktivierenden, als auch die hemmenden Netzwerkteile umfassendes dynamisches Modell implementiert. Die Topologie dieses Modells wurde in Anlehnung an die des Boole'schen Modells auf der Basis von a priori Wissen festgelegt. Die Modellparameter wurden anhand von Western-Blot, Calcium- und Aggregationsmessungen geschätzt. Auch hier wurde die Identifizierbarkeit der Modellparameter durch profile-likelihood-Schätzung überprüft. Die bei niedrigen Ligandenkonzentrationen auftretende Reversibilität der Plättchen-Aggregation konnte mittels dieses Modells reproduziert werden. Jedoch zeigte sich bei mittleren ADP-Konzentrationen ein Fließgleichgewicht in einem teilweise aktivierten Zustand, und damit kein bistabiles Schwellenwertverhalten. Inwiefern dieses Verhalten durch einen Umgebungs-basierteren Mechanismus des Alles-Oder-Nichts-Verhaltens begründet wird, bei dem der Übergang von reversibler zu irreversibler Aggregation mehr durch parakrine Effekte des gesammten Thrombus bestimmt wird, als durch spezifische Signaltransduktionseigenschaften der einzelnen Zelle, müssen zukünftige Experimente zeigen. Insgesamt geben die erstellten Modelle interessante Einblicke in die Funktionsweise der Thrombozyten und ermöglichen die Simulation von pharmakologischen und genetischen Einflüssen, wie Rezeptormodulationen und knock-outs. Sie geben damit Implikationen zur Entstehung und Behandlung pathophysiologischer Zustände, und wertvolle Denkanstöße für die weitere Forschung.
Bewertung und Auswirkungen der Simulationsgüte führender Klimamoden in einem Multi-Modell Ensemble
(2013)
Der rezente und zukünftige Anstieg der atmosphärischen Treibhausgaskonzentration bedeutet für das terrestrische Klimasystem einen grundlegenden Wandel, der für die globale Gesellschaft schwer zu bewältigende Aufgaben und Herausforderungen bereit hält. Eine effektive, rühzeitige Anpassung an diesen Klimawandel profitiert dabei enorm von möglichst genauen Abschätzungen künftiger Klimaänderungen.
Das geeignete Werkzeug hierfür sind Gekoppelte Atmosphäre Ozean Modelle (AOGCMs). Für solche Fragestellungen müssen allerdings weitreichende Annahmen über die zukünftigen klimarelevanten Randbedingungen getroffen werden. Individuelle Fehler dieser Klimamodelle, die aus der nicht perfekten Abbildung der realen Verhältnisse und Prozesse resultieren, erhöhen die Unsicherheit langfristiger Klimaprojektionen. So unterscheiden sich die Aussagen verschiedener AOGCMs im Hinblick auf den zukünftigen Klimawandel insbesondere bei regionaler Betrachtung, deutlich. Als Absicherung gegen Modellfehler werden üblicherweise die Ergebnisse mehrerer AOGCMs, eines Ensembles an Modellen, kombiniert. Um die Abschätzung des Klimawandels zu präzisieren, wird in der vorliegenden Arbeit der Versuch unternommen, eine Bewertung der Modellperformance der 24 AOGCMs, die an der dritten Phase des Vergleichsprojekts für gekoppelte Modelle (CMIP3) teilgenommen haben, zu erstellen. Auf dieser Basis wird dann eine nummerische Gewichtung für die Kombination des Ensembles erstellt. Zunächst werden die von den AOGCMs simulierten Klimatologien für einige
grundlegende Klimaelemente mit den betreffenden klimatologien verschiedener Beobachtungsdatensätze quantitativ abgeglichen. Ein wichtiger methodischer Aspekt
hierbei ist, dass auch die Unsicherheit der Beobachtungen, konkret Unterschiede zwischen verschiedenen Datensätzen, berücksichtigt werden. So zeigt sich, dass die Aussagen, die aus solchen Ansätzen resultieren, von zu vielen Unsicherheiten in den Referenzdaten beeinträchtigt werden, um generelle Aussagen zur Qualität von AOGCMs zu treffen. Die Nutzung der Köppen-Geiger Klassifikation offenbart jedoch, dass die prinzipielle Verteilung der bekannten Klimatypen im kompletten CMIP3 in vergleichbar guter Qualität reproduziert wird. Als Bewertungskriterium wird daher hier die Fähigkeit der AOGCMs die großskalige natürliche Klimavariabilität, konkret die hochkomplexe gekoppelte
El Niño-Southern Oscillation (ENSO), realistisch abzubilden herangezogen. Es kann anhand verschiedener Aspekte des ENSO-Phänomens gezeigt werden, dass nicht alle AOGCMs hierzu mit gleicher Realitätsnähe in der Lage sind. Dies steht im Gegensatz zu den dominierenden Klimamoden der Außertropen, die modellübergreifend überzeugend repräsentiert werden. Die wichtigsten Moden werden, in globaler Betrachtung, in verschiedenen Beobachtungsdaten über einen neuen Ansatz identifiziert. So können für einige bekannte Zirkulationsmuster neue Indexdefinitionen gewonnen werden, die sich sowohl als äquivalent zu den Standardverfahren erweisen und im Vergleich zu diesen zudem eine deutliche Reduzierung
des Rechenaufwandes bedeuten. Andere bekannte Moden werden dagegen als weniger bedeutsame, regionale Zirkulationsmuster eingestuft. Die hier vorgestellte
Methode zur Beurteilung der Simulation von ENSO ist in guter Übereinstimmung mit anderen Ansätzen, ebenso die daraus folgende Bewertung der gesamten Performance
der AOGCMs. Das Spektrum des Southern Oscillation-Index (SOI) stellt somit eine aussagekräftige Kenngröße der Modellqualität dar.
Die Unterschiede in der Fähigkeit, das ENSO-System abzubilden, erweisen sich als signifikante Unsicherheitsquelle im Hinblick auf die zukünftige Entwicklung einiger fundamentaler und bedeutsamer Klimagrößen, konkret der globalen Mitteltemperatur,
des SOIs selbst, sowie des indischen Monsuns. Ebenso zeigen sich signifikante Unterschiede für regionale Klimaänderungen zwischen zwei Teilensembles des CMIP3, die auf Grundlage der entwickelten Bewertungsfunktion eingeteilt werden. Jedoch sind diese Effekte im Allgemeinen nicht mit den Auswirkungen der
anthropogenen Klimaänderungssignale im Multi-Modell Ensemble vergleichbar, die für die meisten Klimagrößen in einem robusten multivariaten Ansatz detektiert und
quantifiziert werden können. Entsprechend sind die effektiven Klimaänderungen, die sich bei der Kombination aller Simulationen als grundlegende Aussage des
CMIP3 unter den speziellen Randbedingungen ergeben nahezu unabhängig davon, ob alle Läufe mit dem gleichen Einfluss berücksichtigt werden, oder ob die erstellte nummerische Gewichtung verwendet wird. Als eine wesentliche Begründung hierfür kann die Spannbreite der Entwicklung des ENSO-Systems identifiziert werden. Dies
bedeutet größere Schwankungen in den Ergebnissen der Modelle mit funktionierendem ENSO, was den Stellenwert der natürlichen Variabilität als Unsicherheitsquelle
in Fragen des Klimawandels unterstreicht. Sowohl bei Betrachtung der Teilensembles als auch der Gewichtung wirken sich dadurch gegenläufige Trends im SOI
ausgleichend auf die Entwicklung anderer Klimagrößen aus, was insbesondere bei letzterem Vorgehen signifikante mittlere Effekte des Ansatzes, verglichen mit der
Verwendung des üblichen arithmetischen Multi-Modell Mittelwert, verhindert.
Irrigated agriculture in the Khorezm region in the arid inner Aral Sea Basin faces enormous challenges due to a legacy of cotton monoculture and non-sustainable water use. Regional crop growth monitoring and yield estimation continuously gain in importance, especially with regard to climate change and food security issues. Remote sensing is the ideal tool for regional-scale analysis, especially in regions where ground-truth data collection is difficult and data availability is scarce. New satellite systems promise higher spatial and temporal resolutions. So-called light use efficiency (LUE) models are based on the fraction of photosynthetic active radiation absorbed by vegetation (FPAR), a biophysical parameter that can be derived from satellite measurements. The general objective of this thesis was to use satellite data, in conjunction with an adapted LUE model, for inferring crop yield of cotton and rice at field (6.5 m) and regional (250 m) scale for multiple years (2003-2009), in order to assess crop yield variations in the study area. Intensive field measurements of FPAR were conducted in the Khorezm region during the growing season 2009. RapidEye imagery was acquired approximately bi-weekly during this time. The normalized difference vegetation index (NDVI) was calculated for all images. Linear regression between image-based NDVI and field-based FPAR was conducted. The analyses resulted in high correlations, and the resulting regression equations were used to generate time series of FPAR at the RapidEye level. RapidEye-based FPAR was subsequently aggregated to the MODIS scale and used to validate the existing MODIS FPAR product. This step was carried out to evaluate the applicability of MODIS FPAR for regional vegetation monitoring. The validation revealed that the MODIS product generally overestimates RapidEye FPAR by about 6 to 15 %. Mixture of crop types was found to be a problem at the 1 km scale, but less severe at the 250 m scale. Consequently, high resolution FPAR was used to calibrate 8-day, 250 m MODIS NDVI data, this time by linear regression of RapidEye-based FPAR against MODIS-based NDVI. The established FPAR datasets, for both RapidEye and MODIS, were subsequently assimilated into a LUE model as the driving variable. This model operated at both satellite scales, and both required an estimation of further parameters like the photosynthetic active radiation (PAR) or the actual light use efficiency (LUEact). The latter is influenced by crop stress factors like temperature or water stress, which were taken account of in the model. Water stress was especially important, and calculated via the ratio of the actual (ETact) to the potential, crop-specific evapotranspiration (ETc). Results showed that water stress typically occurred between the beginning of May and mid-September and beginning of May and end of July for cotton and rice crops, respectively. The mean water stress showed only minor differences between years. Exceptions occurred in 2008 and 2009, where the mean water stress was higher and lower, respectively. In 2008, this was likely caused by generally reduced water availability in the whole region. Model estimations were evaluated using field-based harvest information (RapidEye) and statistical information at district level (MODIS). The results showed that the model at both the RapidEye and the MODIS scale can estimate regional crop yield with acceptable accuracy. The RMSE for the RapidEye scale amounted to 29.1 % for cotton and 30.4 % for rice, respectively. At the MODIS scale, depending on the year and evaluated at Oblast level, the RMSE ranged from 10.5 % to 23.8 % for cotton and from -0.4 % to -19.4 % for rice. Altogether, the RapidEye scale model slightly underestimated cotton (bias = 0.22) and rice yield (bias = 0.11). The MODIS-scale model, on the other hand, also underestimated official rice yield (bias from 0.01 to 0.87), but overestimated official cotton yield (bias from -0.28 to -0.6). Evaluation of the MODIS scale revealed that predictions were very accurate for some districts, but less for others. The produced crop yield maps indicated that crop yield generally decreases with distance to the river. The lowest yields can be found in the southern districts, close to the desert. From a temporal point of view, there were areas characterized by low crop yields over the span of the seven years investigated. The study at hand showed that light use efficiency-based modeling, based on remote sensing data, is a viable way for regional crop yield prediction. The found accuracies were good within the boundaries of related research. From a methodological viewpoint, the work carried out made several improvements to the existing LUE models reported in the literature, e.g. the calibration of FPAR for the study region using in situ and high resolution RapidEye imagery and the incorporation of crop-specific water stress in the calculation.
Dynamic interactions and their changes are at the forefront of current research in bioinformatics and systems biology. This thesis focusses on two particular dynamic aspects of cellular adaptation: miRNA and metabolites.
miRNAs have an established role in hematopoiesis and megakaryocytopoiesis, and platelet miRNAs have potential as tools for understanding basic mechanisms of platelet function. The thesis highlights the possible role of miRNAs in regulating protein translation in platelet lifespan with relevance to platelet apoptosis and identifying involved pathways and potential key regulatory molecules. Furthermore, corresponding miRNA/target mRNAs in murine platelets are identified. Moreover, key miRNAs involved in aortic aneurysm are predicted by similar techniques. The clinical relevance of miRNAs as biomarkers, targets, resulting later translational therapeutics, and tissue specific restrictors of genes expression in cardiovascular diseases is also discussed.
In a second part of thesis we highlight the importance of scientific software solution development in metabolic modelling and how it can be helpful in bioinformatics tool development along with software feature analysis such as performed on metabolic flux analysis applications. We proposed the “Butterfly” approach to implement efficiently scientific software programming. Using this approach, software applications were developed for quantitative Metabolic Flux Analysis and efficient Mass Isotopomer Distribution Analysis (MIDA) in metabolic modelling as well as for data management. “LS-MIDA” allows easy and efficient MIDA analysis and, with a more powerful algorithm and database, the software “Isotopo” allows efficient analysis of metabolic flows, for instance in pathogenic bacteria (Salmonella, Listeria). All three approaches have been published (see Appendices).
Das Ziel dieser Arbeit ist neben der Synthese von Sol-Gel-Funktionsschichten auf der Basis von
transparent leitfähigen Oxiden (transparent conducting oxides, TCOs) die umfassende infrarotoptische und elektrische Charakterisierung sowie Modellierung dieser Schichten. Es wurden sowohl über klassische Sol-Gel-Prozesse als auch über redispergierte Nanopartikel-Sole spektralselektive Funktionsschichten auf Glas- und Polycarbonat-Substraten appliziert, die einen möglichst hohen Reflexionsgrad im infraroten Spektralbereich und damit einhergehend einen möglichst geringen Gesamtemissionsgrad sowie einen niedrigen elektrischen Flächenwiderstand aufweisen. Zu diesem Zweck wurden dotierte Metalloxide, nämlich einerseits Zinn-dotiertes Indiumoxid (tin doped indium oxide, ITO) und andererseits Aluminium-dotiertes Zinkoxid (aluminum doped zinc oxide, AZO)verwendet. Im Rahmen dieser Arbeit wurden vertieft verschiedene Parameter untersucht, die bei der Präparation von niedrigemittierenden ITO- und AZO-Funktionsschichten im Hinblick auf die Optimierung ihrer infrarot-optischen und elektrischen Eigenschaften sowie ihrer Transmission im sichtbaren Spektralbereich von Bedeutung sind.
Neben der Sol-Zusammensetzung von klassischen Sol-Gel-ITO-Beschichtungslösungen wurden auch
die Beschichtungs- und Ausheizparameter bei der Herstellung von klassischen Sol-Gel-ITO- sowie
-AZO-Funktionsschichten charakterisiert und optimiert. Bei den klassischen Sol-Gel- ITO-Funktionsschichten konnte als ein wesentliches Ergebnis der Arbeit der Gesamtemissionsgrad um 0.18 auf 0.17, bei in etwa gleichbleibenden visuellen Transmissionsgraden und elektrischen Flächenwiderständen, reduziert werden, wenn anstelle von (optimierten) Mehrfach-Beschichtungen Einfach-Beschichtungen mit einer schnelleren Ziehgeschwindigkeit anhand des Dip-Coating-Verfahrens hergestellt wurden. Mit einer klassischen Sol-Gel-ITO-Einfach-Beschichtung, die mit einer deutlich erhöhten Ziehgeschwindigkeit von 600 mm/min gedippt wurde, konnte mit einem Wert von 0.17 der kleinste Gesamtemissionsgrad dieser Arbeit erzielt werden.
Die Gesamtemissionsgrade und elektrischen Flächenwiderstände von klassischen Sol-Gel-AZOFunktionsschichten konnten mit dem in dieser Arbeit optimierten Endheizprozess deutlich gesenkt werden. Bei Neunfach-AZO-Beschichtungen konnten der Gesamtemissionsgrad um 0.34 auf 0.50 und der elektrische Flächenwiderstand um knapp 89 % auf 65 Ω/sq verringert werden. Anhand von Hall-Messungen konnte darüber hinaus nachgewiesen werden, dass mit dem optimierten Endheizprozess, der eine erhöhte Temperatur während der Reduzierung der Schichten aufweist, mit N = 4.3·1019 cm-3 eine etwa doppelt so hohe Ladungsträgerdichte und mit µ = 18.7 cm2/Vs eine etwa drei Mal so große Beweglichkeit in den Schichten generiert wurden, im Vergleich zu jenen Schichten, die nach dem alten Endheizprozess ausgehärtet wurden. Das deutet darauf hin, dass bei dem optimierten Heizschema sowohl mehr Sauerstofffehlstellen und damit eine höhere Ladungsträgerdichte als auch Funktionsschichten mit einem höheren Kristallisationsgrad und damit einhergehend einer höheren Beweglichkeit ausgebildet werden.
Ein Großteil der vorliegenden Arbeit behandelt die Optimierung und Charakterisierung von ITO-Nanopartikel-Solen bzw. -Funktionsschichten. Neben den verwendeten Nanopartikeln, dem
Dispergierungsprozess, der Beschichtungsart sowie der jeweiligen Beschichtungsparameter und der
Nachbehandlung der Funktionsschichten, wurde erstmals in einer ausführlichen Parameterstudie die
Sol-Zusammensetzung im Hinblick auf die Optimierung der infrarot-optischen und elektrischen
Eigenschaften der applizierten Funktionsschichten untersucht. Dabei wurde insbesondere der Einfluss der verwendeten Stabilisatoren sowie der verwendeten Lösungsmittel auf die Schichteigenschaften charakterisiert. Im Rahmen dieser Arbeit wird dargelegt, dass die exakte Zusammensetzung der Nanopartikel-Sole einen große Rolle spielt und die Wahl des verwendeten Lösungsmittels im Sol einen größeren Einfluss auf den Gesamtemissionsgrad und die elektrischen Flächenwiderstände der applizierten Schichten hat als die Wahl des verwendeten Stabilisators. Allerdings wird auch gezeigt, dass keine pauschalen Aussagen darüber getroffen werden können, welcher Stabilisator oder welches Lösungsmittel in den Nanopartikel-Solen zu Funktionsschichten mit kleinen Gesamtemissionsgraden und elektrischen Flächenwiderständen führt. Stattdessen muss jede einzelne Kombination von verwendetem Stabilisator und Lösungsmittel empirisch getestet werden, da jede Kombination zu Funktionsschichten mit anderen Eigenschaften führt.
Zudem konnte im Rahmen dieser Arbeit erstmals stabile AZO-Nanopartikel-Sole über verschiedene Rezepte hergestellt werden.
Neben der Optimierung und Charakterisierung von ITO- und AZO- klassischen Sol-Gel- sowie Nanopartikel-Solen und -Funktionsschichten wurden auch die infrarot-optischen Eigenschaften dieser Schichten modelliert, um die optischen Konstanten sowie die Schichtdicken zu bestimmen. Darüber hinaus wurden auch kommerziell erhältliche, gesputterte ITO- und AZO-Funktionsschichten modelliert. Die Reflexionsgrade dieser drei Funktionsschicht-Typen wurden einerseits ausschließlich mit dem Drude-Modell anhand eines selbstgeschriebenen Programmes in Sage modelliert, und andererseits mit einem komplexeren Fit-Modell, welches in der kommerziellen Software SCOUT aus dem erweiterten Drude-Modell, einem Kim-Oszillator sowie dem OJL-Modell aufgebaut wurde. In diesem Fit-Modell werden auch die Einflüsse der Glas-Substrate auf die Reflexionsgrade der applizierten Funktionsschichten berücksichtigt und es können die optischen Konstanten sowie die Dicken der Schichten ermittelt werden. Darüber hinaus wurde im Rahmen dieser Arbeit ein Ellipsometer installiert und geeignete Fit-Modelle entwickelt, anhand derer die Ellipsometer-Messungen ausgewertet und die optischen Konstanten sowie Schichtdicken der präparierten Schichten bestimmt werden können.