TY - THES A1 - Ziegler, Katrin T1 - Implementierung von verbesserten Landoberflächenparametern und -prozessen in das hochaufgelöste Klimamodell REMO T1 - Implementation of improved land surface parameters and processes for the high-resolution climate model REMO N2 - Das Ziel dieser Arbeit war neue Eingangsdaten für die Landoberflächenbeschreibung des regionalen Klimamodells REMO zu finden und ins Modell zu integrieren, um die Vorhersagequalität des Modells zu verbessern. Die neuen Daten wurden so in das Modell eingebaut, dass die bisherigen Daten weiterhin als Option verfügbar sind. Dadurch kann überprüft werden, ob und in welchem Umfang sich die von jedem Klimamodell benötigten Rahmendaten auf Modellergebnisse auswirken. Im Zuge der Arbeit wurden viele unterschiedliche Daten und Methoden zur Generierung neuer Parameter miteinander verglichen, denn neben dem Ersetzen der konstanten Eingangswerte für verschiedene Oberflächenparameter und den damit verbundenen Änderungen wurden als zusätzliche Verbesserung auch Veränderungen an der Parametrisierung des Bodens speziell in Hinblick auf die Bodentemperaturen in REMO vorgenommen. Im Rahmen dieser Arbeit wurden die durch die verschiedenen Änderungen ausgelösten Auswirkungen für das CORDEX-Gebiet EUR-44 mit einer Auflösung von ca. 50km und für das in dem darin eingebetteten neu definierten Deutschlandgebiet GER-11 mit einer Auflösung von ca. 12km getestet sowie alle Änderungen anhand von verschiedenen Beobachtungsdatensätzen validiert. Die vorgenommenen Arbeiten gliederten sich in drei Hauptteile. Der erste Teil bestand in dem vom eigentlichen Klimamodell unabhängigen Vergleich der verschiedenen Eingangsdaten auf unterschiedlichen Auflösungen und deren Performanz in allen Teilen der Erde, wobei ein besonderer Fokus auf der Qualität in den späteren Modellgebieten lag. Unter Berücksichtigung der Faktoren, wie einer globalen Verfügbarkeit der Daten, einer verbesserten räumlichen Auflösung und einer kostenlosen Nutzung der Daten sowie verschiedener Validationsergebnissen von anderen Studien, wurden in dieser Arbeit vier neue Topographiedatensätze (SRTM, ALOS, TANDEM und ASTER) und drei neue Bodendatensätze (FAOn, Soilgrid und HWSD) für die Verwendung im Präprozess von REMO aufbereitet und miteinander sowie mit den bisher in REMO verwendeten Daten verglichen. Auf Grundlage dieser Vergleichsstudien schieden bei den Topographiedaten die verwendeten Datensatz-Versionen von SRTM, ALOS und TANDEM für die in dieser Arbeit durchgeführten REMO-Läufe aus. Bei den neuen Bodendatensätzen wurde ausgenutzt, dass diese verschiedenen Bodeneigenschaften für unterschiedliche Tiefen als Karten zur Verfügung stellen. In REMO wurden bisher alle benötigten Bodenparameter abhängig von fünf verschiedenen Bodentexturklassen und einer zusätzlichen Torfklasse ausgewiesen und als konstant über die gesamte Modellbodensäule (bis ca. 10m) angenommen. Im zweiten Teil wurden auf Basis der im ersten Teil ausgewählten neuen Datensätze und den neu verfügbaren Bodenvariablen verschiedene Sensitivitätsstudien über das Beispieljahr 2000 durchgeführt. Dabei wurden verschiedene neue Parametrisierungen für die bisher aus der Textur abgeleiteten Bodenvariablen und die Parametrisierung von weiteren hydrologischen und thermalen Bodeneigenschaften verglichen. Ferner wurde aufgrund der neuen nicht über die Tiefe konstanten Bodeneigenschaften eine neue numerische Methode zur Berechnung der Bodentemperaturen der fünf Schichten in REMO getestet, welche wiederum andere Anpassungen erforderte. Der Test und die Auswahl der verschiedenen Datensatz- und Parametrisierungsversionen auf die Modellperformanz wurde in drei Experimentpläne unterteilt. Im ersten Plan wurden die Auswirkungen der ausgewählten Topographie- und Bodendatensätze überprüft. Der zweite Plan behandelte die Unterschiede der verschiedenen Parametrisierungsarten der Bodenvariablen hinsichtlich der verwendeten Variablen zur Berechnung der Bodeneigenschaften, der über die Tiefe variablen oder konstanten Eigenschaften und der verwendeten Berechnungsmethode der Bodentemperaturänderungen. Durch die Erkenntnisse aus diesen beiden Experimentplänen, die für beide Untersuchungsgebiete durchgeführt wurden, ergaben sich im dritten Plan weitere Parametrisierungsänderungen. Alle Änderungen dieses dritten Experimentplans wurden sukzessiv getestet, sodass der paarweise Vergleich von zwei aufeinanderfolgenden Modellläufen die Auswirkungen der Neuerung im jeweils zweiten Lauf widerspiegelt. Der letzte Teil der Arbeit bestand aus der Analyse von fünf längeren Modellläufen (2000-2018), die zur Überprüfung der Ergebnisse aus den Sensitivitätsstudien sowie zur Einschätzung der Performanz in weiteren teilweise extremen atmosphärischen Bedingungen durchgeführt wurden. Hierfür wurden die bisherige Modellversion von REMO (id01) für die beiden Untersuchungsgebiete EUR-44 und GER-11 als Referenzläufe, zwei aufgrund der Vergleichsergebnisse von Experimentplan 3 selektierte Modellversionen (id06 und id15a für GER-11) sowie die finale Version (id18a für GER-11), die alle vorgenommenen Änderungen dieser Arbeit enthält, ausgewählt. Es stellte sich heraus, dass sowohl die neuen Topographiedaten als auch die neuen Bodendaten große Differenzen zu den bisherigen Daten in REMO haben. Zudem änderten sich die von diesen konstanten Eingangsdaten abgeleiteten Hilfsvariablen je nach verwendeter Parametrisierung sehr deutlich. Dies war besonders gut anhand der Bodenparameter zu erkennen. Sowohl die räumliche Verteilung als auch der Wertebereich der verschiedenen Modellversionen unterschieden sich stark. Eine Einschätzung der Qualität der resultierenden Parameter wurde jedoch dadurch erschwert, dass auch die verschiedenen zur Validierung herangezogenen Bodendatensätze für diese Parameter deutlich voneinander abweichen. Die finale Modellversion id18a ähnelte trotz der umfassenden Änderungen in den meisten Variablen den Ergebnissen der bisherigen REMO-Version. Je nach zeitlicher und räumlicher Aggregation sowie unterschiedlichen Regionen und Jahreszeiten wurden leichte Verbesserungen, aber auch leichte Verschlechterungen im Vergleich zu den klimatologischen Validationsdaten festgestellt. Größere Veränderungen im Vergleich zur bisherigen Modellversion konnten in den tieferen Bodenschichten aufgezeigt werden, welche allerdings aufgrund von fehlenden Validationsdaten nicht beurteilt werden konnten. Für alle 2m-Temperaturen konnte eine tendenzielle leichte Erwärmung im Vergleich zum bisherigen Modelllauf beobachtet werden, was sich einerseits negativ auf die ohnehin durchschnittlich zu hohe Minimumtemperatur, aber andererseits positiv auf die bisher zu niedrige Maximumtemperatur des Modells in den betrachteten Gebieten auswirkte. Im Niederschlagssignal und in den 10m-Windvariablen konnten keine signifikanten Änderungen nachgewiesen werden, obwohl die neue Topographie an manchen Stellen im Modellgebiet deutlich von der bisherigen abweicht. Des Weiteren variierte das Ranking der verschiedenen Modellversionen jeweils nach dem angewendeten Qualitätsindex. Um diese Ergebnisse besser einordnen zu können, muss berücksichtigt werden, dass die neuen Daten für Modellgebiete mit 50 bzw. 12km räumlicher Auflösung und der damit verbundenen hydrostatischen Modellversion getestet wurden. Zudem sind vor allem in Fall der Topographie die bisher enthaltenen GTOPO-Daten (1km Auflösung) für die Aggregation auf diese gröbere Modellauflösung geeignet. Die bisherigen Bodendaten stoßen jedoch mit 50km Auflösung bereits an ihre Grenzen. Zusätzlich ist zu beachten, dass nicht nur die Mittelwerte dieser Daten, sondern auch deren Subgrid-Variabilität als Variablen im Modell für verschiedene Parametrisierungen verwendet werden. Daher ist es essentiell, dass die Eingangsdaten eine deutlich höhere Auflösung bereitstellen als die zur Modellierung definierte Auflösung. Für lokale Klimasimulationen mit Auflösungen im niedrigen Kilometerbereich spielen auch die Vertikalbewegungen (nicht-hydrostatische Modellversion) eine wichtige Rolle, die stark von der Topographie sowie deren horizontaler und vertikaler Änderungsrate beeinflusst werden, was die in dieser Arbeit eingebauten wesentlich höher aufgelösten Daten für die zukünftige Weiterentwicklung von REMO wertvoll machen kann. N2 - The main aim of this work was to find new input data sets for the land surface description of the regional climate model REMO and to integrate them into the model in order to improve the predictive quality of the model. The new data sets have been incorporated into the model in such a way that the previous data are still available as an option for the model run. This allows to check whether and to what extent the boundary data required by each climate model have an impact on the model results. In this study comparisons of many different data sets and methods for generating new parameters are included. In addition to replacing the constant input values for different surface parameters and the associated changes, changes were also made for the parameterization of the soil, especially with regard to the soil temperatures in REMO. The effects of different changes which were made in this study were analysed for the CORDEX region EUR-44 with a resolution of 50km and for a newly defined German area GER-11 with a resolution of 12km. All changes were validated with different observational data sets. The work process was divided into three main parts. The first part was independent of the actual climate model and included the comparison of different input data sets at different resolutions and their performance in all parts of the world. Taking into account factors such as global availability of the data, improved spatial resolution and free use of the data, as well as various validation results from other studies, four new topography data sets (SRTM, ALOS, TANDEM and ASTER) and three new soil data sets (FAOn, Soilgrid and HWSD) were processed for the usage by REMO and compared with each other and with the data sets previously used in REMO. Based on these comparative studies of the topographical data sets the SRTM, ALOS and TANDEM data set versions were excluded from the further usage in REMO in this study. For the new soil data sets the fact that they provide different soil properties for different depths as maps has been taken advantage of. In the previous REMO versions, all required soil parameters so far have been determined depending on five different soil texture classes with an additional peat class and assumed to be constant over the entire model soil column (up to approximately 10m). In the second part, several sensitivity studies were tested for the year 2000 based on the new data sets selected in the first part of the analysis and on the new available soil variables. Different new parameterizations for soil variables previously derived from the soil texture now based on the sand, clay and organic content of the soil as well as new parameterizations of further hydrological and thermal properties of soil were compared. In addition, due to the new non-constant soil properties, a new numerical method for calculating the soil temperatures of the five layers in the model was tested, which in turn necessitated further adjustments. The testing and selection of the different data sets and parameterization versions for the model according to performance was divided into three experimental plans. In the first plan, the effects of the selected topography and soil data sets were examined. The second plan dealt with the differences between the different types of parameterization of the soil variables in terms of the variables used to calculate the properties, the properties variable or constant over depth, and the method used to calculate the changes in soil temperature. The findings of these two experimental plans, which were carried out for both study areas, led to further parameterization changes in the third plan. All changes in this third experimental plan were tested successively, so the pairwise comparison of two consecutive model runs reflects the impact of the innovation in the second run. The final part of the analysis consists of five longer model runs (2000-2018), which were carried out to review the results of the sensitivity studies and to assess the performance under other, sometimes extreme, atmospheric conditions. For this purpose, the previous model version of REMO (id01) for the two study areas (EUR-44 and GER-11) served as reference runs. Two new model versions (GER-11 of id06 and id15a) were selected on the basis of the comparison results of the third experimental plan and the final version (GER-11 of id18a) which contains all changes made in this work was also chosen for a detailed analysis. Taken together the results show that both the new topography data and the new soil data differ crucially from the previous data sets in REMO. In addition, the auxiliary variables derived from these constant input data change significantly depending on the parameterization used, especially for the soil parameters. Both the spatial distribution and the range of values of the different model versions differ greatly. However, a quality assessment of the parameterization is difficult because different soil data sets used for the validation of the parameters also differ significantly. The final model version (id18a) is similar to the results of the previous REMO version in most variables, despite the extensive changes of the input data and parametrizations. Depending on temporal and spatial aggregation as well as different regions and seasons, slight improvements have been observed, but also slight deterioration compared to the climatological validation data. In the deeper soil layers larger changes could be identified compared to the previous model version, which could not be assessed due to a lack of validation data. Overall, there was also a slight warming of all 2m temperatures compared to the previous model run, which on the one hand has a negative effect on the already too high minimum temperature, but on the other hand has a positive effect on the previously too low maximum temperature of the model in the study areas. No significant changes could be detected in the precipitation signal and in the 10m wind variables, although the new topography differs significantly from the previous topography at some points in the test area. Furthermore, the ranking of the different model versions varied according to the quality index applied. To evaluate the results it has to be considered that the new data were tested for model regions with 50 and 12km spatial resolution and the associated hydrostatic model version. The so far already included data are suitable for aggregation to this coarser model resolution, especially in the case of topography (GTOPO with 1km resolution). However, the previous soil data already reach their limits with 50km resolution. In addition, it should be noted that not only the mean values of these data, but also their subgrid variability are used as variables in the model for different parameterizations. Therefore, it is essential that the input data provide a significantly higher resolution than the resolution defined for modeling. Vertical fluxes (non-hydrostatic model version) play an important role in local climate simulations with resolutions in the low kilometre range, which are strongly influenced by the topography and its horizontal and vertical change rate, which may make the much higher resolution data incorporated in this work valuable for the future development of REMO. KW - Klimamodell KW - Datenanalyse KW - Modellierung KW - Topographie KW - Klimamodellierung KW - REMO KW - Vergleich verschiedener Modellparameterisierungen KW - Bodenparameter KW - Topographiedaten KW - parametrizations Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-261285 ER - TY - THES A1 - Ring, Christoph T1 - Entwicklung und Vergleich von Gewichtungsmetriken zur Analyse probabilistischer Klimaprojektionen aktueller Modellensembles T1 - Development and comparison of metrics for probabilistic climate change projections of state-of-the-art climate models N2 - Der anthropogene Klimawandel ist eine der größten Herausforderungen des 21. Jahrhunderts. Eine Hauptschwierigkeit liegt dabei in der Unsicherheit bezüglich der regionalen Änderung von Niederschlag und Temperatur. Hierdurch wird die Entwicklung geeigneter Anpassungsstrategien deutlich erschwert. In der vorliegenden Arbeit werden vier Evaluationsansätze mit insgesamt 13 Metriken für aktuelle globale (zwei Generationen) und regionale Klimamodelle entwickelt und verglichen, um anschließend eine Analyse der Projektionsunsicherheit vorzunehmen. Basierend auf den erstellten Modellbewertungen werden durch Gewichtung Aussagen über den Unsicherheitsbereich des zukünftigen Klimas getroffen. Die Evaluation der Modelle wird im Mittelmeerraum sowie in acht Unterregionen durchgeführt. Dabei wird der saisonale Trend von Temperatur und Niederschlag im Evaluationszeitraum 1960–2009 ausgewertet. Zusätzlich wird für bestimmte Metriken jeweils das klimatologische Mittel oder die harmonischen Zeitreiheneigenschaften evaluiert. Abschließend werden zum Test der Übertragbarkeit der Ergebnisse neben den Hauptuntersuchungsgebieten sechs global verteilte Regionen untersucht. Außerdem wird die zeitliche Konsistenz durch Analyse eines zweiten, leicht versetzten Evaluationszeitraums behandelt, sowie die Abhängigkeit der Modellbewertungen von verschiedenen Referenzdaten mit Hilfe von insgesamt drei Referenzdatensätzen untersucht. Die Ergebnisse legen nahe, dass nahezu alle Metriken zur Modellevaluierung geeignet sind. Die Auswertung unterschiedlicher Variablen und Regionen erzeugt Modellbewertungen, die sich in den Kontext aktueller Forschungsergebnisse einfügen. So wurde die Leistung der globalen Klimamodelle der neusten Generation (2013) im Vergleich zur Vorgängergeneration (2007) im Schnitt ähnlich hoch bzw. in vielen Situationen auch stärker eingeordnet. Ein durchweg bestes Modell konnte nicht festgestellt werden. Der Großteil der entwickelten Metriken zeigt für ähnliche Situationen übereinstimmende Modellbewertungen. Bei der Gewichtung hat sich der Niederschlag als besonders geeignet herausgestellt. Grund hierfür sind die im Schnitt deutlichen Unterschiede der Modellleistungen in Zusammenhang mit einer geringeren Simulationsgüte. Umgekehrt zeigen die Metriken für die Modelle der Temperatur allgemein überwiegend hohe Evaluationsergebnisse, wodurch nur wenig Informationsgewinn durch Gewichtung erreicht werden kann. Während die Metriken gut für unterschiedliche Regionen und Skalenniveaus verwendet werden Evaluationszeiträume nicht grundsätzlich gegeben. Zusätzlich zeigen die Modellranglisten unterschiedlicher Regionen und Jahreszeiten häufig nur geringe Korrelationen. Dies gilt besonders für den Niederschlag. Bei der Temperatur sind hingegen leichte Übereinstimmungen auszumachen. Beim Vergleich der mittleren Ranglisten über alle Modellbewertungen und Situationen der Hauptregionen des Mittelmeerraums mit den Globalregionen besteht eine signifikante Korrelation von 0,39 für Temperatur, während sie für Niederschlag um null liegt. Dieses Ergebnis ist für alle drei verwendeten Referenzdatensätze im Mittelmeerraum gültig. So schwankt die Korrelation der Modellbewertungen des Niederschlags für unterschiedliche Referenzdatensätze immer um Null und die der Temperaturranglisten zwischen 0,36 und 0,44. Generell werden die Metriken als geeignete Evaluationswerkzeuge für Klimamodelle eingestuft. Daher können sie einen Beitrag zur Änderung des Unsicherheitsbereichs und damit zur Stärkung des Vertrauens in Klimaprojektionen leisten. Die Abhängigkeit der Modellbewertungen von Region und Untersuchungszeitraum muss dabei jedoch berücksichtigt werden. So besitzt die Analyse der Konsistenz von Modellbewertungen sowie der Stärken und Schwächen der Klimamodelle großes Potential für folgende Studien, um das Vertrauen in Modellprojektionen weiter zu steigern. N2 - Climate change is one of the major tasks of the 21st century. The uncertainty of precipitation and temperature change is considered as a main challenge in this context. Thus, the development of appropriate adaptation strategies is very difficult. In this study, four climate model evaluation approaches with 13 metrics in total are developed and compared. Current global (two generations) and regional climate models are evaluated to assess projection uncertainty. Based on model performances, weighting is applied to future climate projections to estimate simulation uncertainty. The evaluations are performed in the Mediterranean and eight sub-regions. Seasonal trend of temperature and precipitation are evaluated for the period 1960–2009. For some metrics, the climatological mean and the spectra of the time series are evaluated as well. In addition, six globally distributed study areas are evaluated to test the metrics’ transferability. Further, temporal consistency is assessed by the evaluation of a second slightly shifted timeframe. Finally, three reference datasets are considered in order to analyse the dependence of the evaluation results between each other. Results indicate that most metrics are suitable to evaluate climate models. Their application to different variables and regions generates reasonable model assessments which fit in the context of current publications in this field of research. In many situations, the results of the current model generation (2013) are similar or better compared to those of the last generation (2007). One single model with superior performance for all variables and situations cannot be found. Most metrics show similar estimations of performances for the same situations. Precipitation turned out to be more suitable for model weighting. Here, the differences between model weights are larger because of overall higher spread and lower model performances. Against this, there are mostly high performances on an equal level for simulations of temperature which lead to a minor added value of weighting. While metrics can easily be transferred and applied to different regions and scales, some evaluation results depend on the evaluated timeframe. Further, the model rankings for different regions and seasons show only minor correlations for most situations. This is particularly true for precipitation. However, for temperature there are some significant positive correlations. Comparing the mean ranking over all evaluation results of the main study areas of the Mediterranean with that of the globally distributed regions, there is a significant correlation of 0.39 for temperature and a correlation around zero for precipitation. The choice of reference dataset for the Mediterranean areas is subordinated in this context. For different reference datasets, the overall rankings show correlations around zero for precipitation while those for temperature are between 0.36 and 0.44. Overall, the metrics are suitable for the evaluation of climate models. Thus, they offer promising contributions to improve the range of uncertainty and therefore to enhance the general confidence in climate projections. However, dependence of model assessments on the analysed region and evaluation timeframe has to be considered. Consequently, the analyses of consistency of model evaluations and of climate model strengths and weaknesses have great potential for future studies, to further enhance confidence in climate projections. KW - Anthropogene Klimaänderung KW - Unsicherheit KW - Klima KW - Modellierung KW - Statistik KW - Evaluierung und Gewichtung von Klimamodellen KW - Niederschlag und Temperatur KW - weighting of climate models Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-157294 ER - TY - THES A1 - Wolf, Nadine T1 - Synthese, Charakterisierung und Modellierung von klassischen Sol-Gel- und Nanopartikel-Funktionsschichten auf der Basis von Zinn-dotiertem Indiumoxid und Aluminium-dotiertem Zinkoxid T1 - Synthesis, characterization and modeling of classical sol gel and nanoparticle functional layers on the basis of indium tin oxide and alumnium zinc oxide N2 - Das Ziel dieser Arbeit ist neben der Synthese von Sol-Gel-Funktionsschichten auf der Basis von transparent leitfähigen Oxiden (transparent conducting oxides, TCOs) die umfassende infrarotoptische und elektrische Charakterisierung sowie Modellierung dieser Schichten. Es wurden sowohl über klassische Sol-Gel-Prozesse als auch über redispergierte Nanopartikel-Sole spektralselektive Funktionsschichten auf Glas- und Polycarbonat-Substraten appliziert, die einen möglichst hohen Reflexionsgrad im infraroten Spektralbereich und damit einhergehend einen möglichst geringen Gesamtemissionsgrad sowie einen niedrigen elektrischen Flächenwiderstand aufweisen. Zu diesem Zweck wurden dotierte Metalloxide, nämlich einerseits Zinn-dotiertes Indiumoxid (tin doped indium oxide, ITO) und andererseits Aluminium-dotiertes Zinkoxid (aluminum doped zinc oxide, AZO)verwendet. Im Rahmen dieser Arbeit wurden vertieft verschiedene Parameter untersucht, die bei der Präparation von niedrigemittierenden ITO- und AZO-Funktionsschichten im Hinblick auf die Optimierung ihrer infrarot-optischen und elektrischen Eigenschaften sowie ihrer Transmission im sichtbaren Spektralbereich von Bedeutung sind. Neben der Sol-Zusammensetzung von klassischen Sol-Gel-ITO-Beschichtungslösungen wurden auch die Beschichtungs- und Ausheizparameter bei der Herstellung von klassischen Sol-Gel-ITO- sowie -AZO-Funktionsschichten charakterisiert und optimiert. Bei den klassischen Sol-Gel- ITO-Funktionsschichten konnte als ein wesentliches Ergebnis der Arbeit der Gesamtemissionsgrad um 0.18 auf 0.17, bei in etwa gleichbleibenden visuellen Transmissionsgraden und elektrischen Flächenwiderständen, reduziert werden, wenn anstelle von (optimierten) Mehrfach-Beschichtungen Einfach-Beschichtungen mit einer schnelleren Ziehgeschwindigkeit anhand des Dip-Coating-Verfahrens hergestellt wurden. Mit einer klassischen Sol-Gel-ITO-Einfach-Beschichtung, die mit einer deutlich erhöhten Ziehgeschwindigkeit von 600 mm/min gedippt wurde, konnte mit einem Wert von 0.17 der kleinste Gesamtemissionsgrad dieser Arbeit erzielt werden. Die Gesamtemissionsgrade und elektrischen Flächenwiderstände von klassischen Sol-Gel-AZOFunktionsschichten konnten mit dem in dieser Arbeit optimierten Endheizprozess deutlich gesenkt werden. Bei Neunfach-AZO-Beschichtungen konnten der Gesamtemissionsgrad um 0.34 auf 0.50 und der elektrische Flächenwiderstand um knapp 89 % auf 65 Ω/sq verringert werden. Anhand von Hall-Messungen konnte darüber hinaus nachgewiesen werden, dass mit dem optimierten Endheizprozess, der eine erhöhte Temperatur während der Reduzierung der Schichten aufweist, mit N = 4.3·1019 cm-3 eine etwa doppelt so hohe Ladungsträgerdichte und mit µ = 18.7 cm2/Vs eine etwa drei Mal so große Beweglichkeit in den Schichten generiert wurden, im Vergleich zu jenen Schichten, die nach dem alten Endheizprozess ausgehärtet wurden. Das deutet darauf hin, dass bei dem optimierten Heizschema sowohl mehr Sauerstofffehlstellen und damit eine höhere Ladungsträgerdichte als auch Funktionsschichten mit einem höheren Kristallisationsgrad und damit einhergehend einer höheren Beweglichkeit ausgebildet werden. Ein Großteil der vorliegenden Arbeit behandelt die Optimierung und Charakterisierung von ITO-Nanopartikel-Solen bzw. -Funktionsschichten. Neben den verwendeten Nanopartikeln, dem Dispergierungsprozess, der Beschichtungsart sowie der jeweiligen Beschichtungsparameter und der Nachbehandlung der Funktionsschichten, wurde erstmals in einer ausführlichen Parameterstudie die Sol-Zusammensetzung im Hinblick auf die Optimierung der infrarot-optischen und elektrischen Eigenschaften der applizierten Funktionsschichten untersucht. Dabei wurde insbesondere der Einfluss der verwendeten Stabilisatoren sowie der verwendeten Lösungsmittel auf die Schichteigenschaften charakterisiert. Im Rahmen dieser Arbeit wird dargelegt, dass die exakte Zusammensetzung der Nanopartikel-Sole einen große Rolle spielt und die Wahl des verwendeten Lösungsmittels im Sol einen größeren Einfluss auf den Gesamtemissionsgrad und die elektrischen Flächenwiderstände der applizierten Schichten hat als die Wahl des verwendeten Stabilisators. Allerdings wird auch gezeigt, dass keine pauschalen Aussagen darüber getroffen werden können, welcher Stabilisator oder welches Lösungsmittel in den Nanopartikel-Solen zu Funktionsschichten mit kleinen Gesamtemissionsgraden und elektrischen Flächenwiderständen führt. Stattdessen muss jede einzelne Kombination von verwendetem Stabilisator und Lösungsmittel empirisch getestet werden, da jede Kombination zu Funktionsschichten mit anderen Eigenschaften führt. Zudem konnte im Rahmen dieser Arbeit erstmals stabile AZO-Nanopartikel-Sole über verschiedene Rezepte hergestellt werden. Neben der Optimierung und Charakterisierung von ITO- und AZO- klassischen Sol-Gel- sowie Nanopartikel-Solen und -Funktionsschichten wurden auch die infrarot-optischen Eigenschaften dieser Schichten modelliert, um die optischen Konstanten sowie die Schichtdicken zu bestimmen. Darüber hinaus wurden auch kommerziell erhältliche, gesputterte ITO- und AZO-Funktionsschichten modelliert. Die Reflexionsgrade dieser drei Funktionsschicht-Typen wurden einerseits ausschließlich mit dem Drude-Modell anhand eines selbstgeschriebenen Programmes in Sage modelliert, und andererseits mit einem komplexeren Fit-Modell, welches in der kommerziellen Software SCOUT aus dem erweiterten Drude-Modell, einem Kim-Oszillator sowie dem OJL-Modell aufgebaut wurde. In diesem Fit-Modell werden auch die Einflüsse der Glas-Substrate auf die Reflexionsgrade der applizierten Funktionsschichten berücksichtigt und es können die optischen Konstanten sowie die Dicken der Schichten ermittelt werden. Darüber hinaus wurde im Rahmen dieser Arbeit ein Ellipsometer installiert und geeignete Fit-Modelle entwickelt, anhand derer die Ellipsometer-Messungen ausgewertet und die optischen Konstanten sowie Schichtdicken der präparierten Schichten bestimmt werden können. N2 - The aim of this thesis is on the one hand the synthesis of sol-gel functional layers on the basis of transparent conducting oxides (TCOs) and on the other hand a comprehensive infrared-optical and electrical characterization as well as modeling of these layers. Spectrally selective coatings have been prepared with the classical sol-gel route as well as with redispersed nanoparticle sols on glass and polycarbonate substrates and these coatings should have a reflectance in the infrared spectral range which is as high as possible and therefore a total emittance and an electrical sheet resistance which are as small as possible. For this purpose tin doped indium oxide (ITO) and aluminum doped zinc oxide (AZO) have been used as doped metal oxides. Within this thesis several parameters have been investigated in-depth which play a decisive role in the preparation of ITO and AZO low emissivity coatings, in order to prepare such coatings with optimized infrared-optical and electrical properties as well as visual transmittances. Besides the composition of the classical sol-gel ITO coating solutions, also the parameters of the coating as well as the heating processes have been characterized and optimized in the manufacture of classical sol-gel ITO and AZO functional layers. As a significant result the total emittance of classical sol-gel ITO functional layers could be reduced by 0.18 to 0.17 while the visual transmittance and electrical sheet resistances stay approximately the same, if just one-layered coatings are applied with a higher withdrawal speed with the dip coating technique instead of (optimized) multi-layered coatings. With a classical sol-gel ITO single coating, which has been produced with a withdrawal speed of 600 mm/min, the smallest total emittance of this work could be realized with 0.17. The total emittances and electrical sheet resistances of classical sol-gel AZO functional layers were reduced drastically in this work by using the optimized final heating process. The total emittance could be reduced by 0.34 to 0.50 and the electrical sheet resistance by 89 % to 65Ω/sq with a coating which consists of nine single layers. On the basis of Hall measurements it has been shown that coatings which were treated with the optimized heating process (which exhibits a higher temperature during the reducing treatment of the coatings) show a higher charge carrier density as well as a higher mobility than those coatings treated with the old heating process. With the optimized heating process the ninelayered coatings exhibit a charge carrier density of N = 4.3·1019 cm-3 which is approximately twice as high and a mobility of µ = 18.7 cm2/Vs which is about three times higher than the values of coatings which have been heated with the old process. This indicates that with the optimized heating process more oxygen vacancies and, associated therewith a higher charge carrier density as well as a higher crystallinity of the layer and thus a higher mobility are generated. One focus of the presented work lies on the optimization and characterization of ITO redispersed nanoparticle sols and functional layers respectively. In addition to the used nanoparticles, the dispersion process, the coating type with the respective coating parameters and post-treatments of the functional layers also a detailed parameter study has been done. This parameter study examined the composition of the nanoparticle sols with a view to the optimization of the infrared-optical and electrical properties of the applied coatings. The coating properties have been studied in particularly with regard to the influence of the used stabilizers and solvents respectively. In this work it will be shown, that the accurate composition of the nanoparticle sols plays a decisive role and the choice of the used solvents has a bigger impact on the coating properties than the choice of the used stabilizers. However, it will also be shown, that no general statements can be made which stabilizers or which solvents within the sols lead to coatings which have small total emittances and small electrical sheet resistances. Instead each combination of used stabilizer and used solvent has to be empirically tested since each combination leads to coatings with different properties. Furthermore stable AZO nanoparticle sols based on several formulas have been developed for the first time. Besides the optimization and characterization of ITO and AZO classical sol-gel as well as nanoparticle sols and functional layers, also the infrared-optical properties of these coatings have been modeled in order to determine the optical constants as well as the coating thicknesses. Furthermore also commercially available sputtered ITO and AZO coatings have been modeled. The reflectances of these three types of coatings have been modeled on the one hand by using only the Drude model within a self-written program in the software Sage. On the other hand these coatings have been modeled with more complex fitting models within the commercially available software called SCOUT. These more complex fitting models consist of the extended Drude model, a Kim oscillator and an OJL model and they also take the influence of the glass substrates on the reflectances of the applied coatings into account. By using these fitting models, the optical constants of the applied coatings and the coating thicknesses can be obtained. In addition an Ellipsometer has been installed as part of this work and suitable fitting models have been developed. These models can be used for analyzing the Ellipsometer measurements in order to determine the optical constants and the coating thicknesses of the coatings applied. KW - Transparent-leitendes Oxid KW - Sol-Gel-Verfahren KW - Beschichtung KW - Funktionswerkstoff KW - Sol-Gel-Synthese KW - ITO KW - AZO KW - redispergierte Nanopartikel-Sole KW - Drude-Modell KW - sol gel KW - redispersed nanoparticle sol KW - Drude model KW - Charakterisierung KW - Modellierung KW - Physikalische Schicht KW - Nanopartikel Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-112416 ER - TY - THES A1 - Mischnik, Marcel T1 - Systembiologische Analyse der ADP- und Prostaglandin-vermittelten Signaltransduktion humaner Thrombozyten T1 - Systems biological analysis of ADP and prostaglandin mediated signal transduction in human thrombocytes N2 - Thrombozyten (Blutplättchen) sind die Vermittler der zellulären Hämostase. Ihre Fähigkeit zu Aggregieren und sich an das umgebende Gewebe verletzter Blutgefässe anzulagern, wird durch ein komplexes intrazelluläres Signaltransduktionsnetzwerk bestimmt, das sowohl aktivierende, als auch inhibierende Subnetzwerke beinhaltet. Das Verständnis dieser Prozesse ist von hoher medizinischer Bedeutung. Im Rahmen dieser Arbeit wurde die thrombozytäre Signaltransduktion sowohl mittels eines Boole'schen, als auch verschiedener dynamischer Modelle analysiert. Die Boole'sche Modellierung führte zu interessanten Erkenntnissen über das Zusammenwirken einzelner Subnetzwerke bei der Vermittlung irreversibler Plättchenaktivierung und zeigte Mechanismen der Interaktion mit dem hemmenden Prostaglandinsystem auf. Das Modell beinhaltet unter Anderem wichtige Systemkomponenten wie Calciumsignalgebung, Aktivierung von Schlüsselkinasen wie Src und PKC, Integrin-vermitteltes outside-in sowie inside-out Signalgebung und autokrine ADP- und Thromboxan-Produktion. Unter Verwendung dieses Boole'schen Ansatzes wurde weiterhin das System-eigene Schwellenwertverhalten analysiert. Dabei stellte sich eine umgekehrt proportionale Abhängigkeit des relativen aktivierenden Reizes, der notwendig ist um den Schwellenwert zu überschreiten, vom absoluten hemmenden Input heraus. Das System adaptiert demnach an höhere Prostaglandinkonzentrationen durch eine Erhöhung der Sensitivität für Aktivatoren wie dem van-Willebrandt-Faktor und Kollagen, und ermöglicht somit auch unter lokal hemmenden Bedingungen eine Plättchen-vermittelte Hämostase. Der nächste Schritt bestand in der Implementierung eines Differentialgleichungs-basierten Modells der thrombozytären Prostaglandin-Signaltransduktion, um einen detaillierten Überblick über die Dynamik des inhibierenden Netzwerkteils zu erhalten. Die kinetischen Parameter dieses Modells wurden teilweise der Literatur entnommen. Der andere Teil wurde anhand einer umfassenden Kombination dosis- und zeitabhängiger cAMP und phospho-VASP Messdaten geschätzt. Der Prozess beinhaltete mehrere Iterationen aus Modellvorhersagen einerseits und experimentellem Design andererseits. Das Modell liefert die quantitativen Effekte der Prostaglandinrezeptoren IP, DP1, EP3 und EP4 und des ADP-Rezeptors P2Y12 auf die zugrunde liegende Signalkaskade. EP4 zeigt den stärksten Effekt in der aktivierenden Fraktion, wohingegen EP3 einen stärkeren inhibitorischen Effekt ausübt, als der durch Clopidogrel hemmbare ADP-Rezeptor P2Y12. Weiterhin wurden die Eigenschaften des negativen feedback-loops der PKA auf den cAMP-Spiegel untersucht, und eine direkte Beeinflussung der Adenylatzyklase durch die PKA festgestellt, in Form einer Reduzierung der maximalen katalytischen Geschwindigkeit. Die Identifizierbarkeit der geschätzten Parameter wurde mittels profile-Likelihood-Schätzung untersucht. In einem dritten Schritt wurde ein sowohl die aktivierenden, als auch die hemmenden Netzwerkteile umfassendes dynamisches Modell implementiert. Die Topologie dieses Modells wurde in Anlehnung an die des Boole'schen Modells auf der Basis von a priori Wissen festgelegt. Die Modellparameter wurden anhand von Western-Blot, Calcium- und Aggregationsmessungen geschätzt. Auch hier wurde die Identifizierbarkeit der Modellparameter durch profile-likelihood-Schätzung überprüft. Die bei niedrigen Ligandenkonzentrationen auftretende Reversibilität der Plättchen-Aggregation konnte mittels dieses Modells reproduziert werden. Jedoch zeigte sich bei mittleren ADP-Konzentrationen ein Fließgleichgewicht in einem teilweise aktivierten Zustand, und damit kein bistabiles Schwellenwertverhalten. Inwiefern dieses Verhalten durch einen Umgebungs-basierteren Mechanismus des Alles-Oder-Nichts-Verhaltens begründet wird, bei dem der Übergang von reversibler zu irreversibler Aggregation mehr durch parakrine Effekte des gesammten Thrombus bestimmt wird, als durch spezifische Signaltransduktionseigenschaften der einzelnen Zelle, müssen zukünftige Experimente zeigen. Insgesamt geben die erstellten Modelle interessante Einblicke in die Funktionsweise der Thrombozyten und ermöglichen die Simulation von pharmakologischen und genetischen Einflüssen, wie Rezeptormodulationen und knock-outs. Sie geben damit Implikationen zur Entstehung und Behandlung pathophysiologischer Zustände, und wertvolle Denkanstöße für die weitere Forschung. N2 - Platelets represent the key-players in mammalian wound-healing. Their ability to aggregate and attach to the surrounding tissue of damaged blood vessels is thereby mediated by a complex signal -transduction network that comprises both activatory and inhibitory components. Due to its medical relevance and the lack of profound understanding, the network constitutes a convenient target for modeling. In a first step, a Boolean implementation of platelet signal transduction, comprising both activating and inhibiting networks components was established. This led to important information, on how the function of different subnetworks coalesce to fully activate the platelet and to promote irreversible aggregation. These include calcium signalling, activation of key-kinases like Akt, Src and PKC, Integrin outside-in as well as inside-out signalling and autocrin ADP and thromboxane production. In addition, using this data-free approach, the systems inherent threshold behaviour was analysed. The model revealed, that the relative activating strength, that transgresses the threshold, decreases with elevating PGI inputs and is also dependent on auto- and parakrin effects. Thus, the system adapts for higher prostaglandin-concentrations by increasing its sensitivity for activators like vWF and collagen, and thereby commits thrombocyte-dependent active processes such as wound healing even if subsequently blood prostaglandin-levels are higher in later time points. Secondly, an ordinary-differential-equation based model of platelet prostaglandin signalling was established, to get a detailed view of the dynamics governing the inhibiting network part. The kinetic parameters of the model were partly taken from literature and in part estimated along a comprehensive combination of time-course and dose-response measurements of cAMP and phosphorylated VASP. The process involved an iterative cycle between model predictions and experimental design. The model delivered the quantitative effects of the prostaglandin receptors IP, DP1, EP3, EP4 and the ADP receptor P2Y12 on the underlying signalling cascade. EP4 showed the strongest effect in the activating fraction, whereas EP3 turned out to exert a greater inhibiting impact than the commonly established pharmacological target P2Y12. Furthermore, the nature of the double-negative feedback loop constituted by PKA was examined, which disclosed a direct influence of PKA on adenylate cyclase, reducing its maximum catalytic speed. The identifiablility of all kinetic parameters was analysed via profile likelihood estimation. Finally, a dynamical model comprising both activating ADP-signalling through P2Y1 and P2Y12 receptors, and the inhibiting prostaglandin-pathway was implemented. The topology of this larger model was established on the basis of a priori knowledge. Model parameters were fitted along time-resolved Western-Blot, calcium and aggregation measurements. The identifiability of the model parameters was again check by means of profile likelihood estimation. Reversibility of platelet activation at low ADP concentrations could be reproduced by this model. However, at medium concentrations the system appears to assume a steady-state in a partly activated condition, thus not providing for a bistable threshold behaviour. If this behaviour is based on a more enviroment-based character of the observed point-of-no-return behaviour, in which the transition from reversible to irreversible aggregation is rather due to parakrin effects evoked by the entire cell array, than due to specific network properties present in the single cell, has to be investigated by further experiments. All in all, the models show interesting properties of platelet signal transduction, and give valuable implications for medical treatment and future research. KW - Thrombozyt KW - Modellierung KW - ADP KW - Prostaglandine KW - Signaltransduktion KW - Thrombozyten KW - Modellierung KW - ADP KW - Prostaglandine KW - platelets KW - ADP KW - prostaglandin KW - modeling KW - boolean KW - ODE Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-78807 ER - TY - THES A1 - Pollinger, Felix T1 - Bewertung und Auswirkungen der Simulationsgüte führender Klimamoden in einem Multi-Modell Ensemble T1 - Evaluation and effects of the simulation quality of leading climate modes in a multi-model ensemble N2 - Der rezente und zukünftige Anstieg der atmosphärischen Treibhausgaskonzentration bedeutet für das terrestrische Klimasystem einen grundlegenden Wandel, der für die globale Gesellschaft schwer zu bewältigende Aufgaben und Herausforderungen bereit hält. Eine effektive, rühzeitige Anpassung an diesen Klimawandel profitiert dabei enorm von möglichst genauen Abschätzungen künftiger Klimaänderungen. Das geeignete Werkzeug hierfür sind Gekoppelte Atmosphäre Ozean Modelle (AOGCMs). Für solche Fragestellungen müssen allerdings weitreichende Annahmen über die zukünftigen klimarelevanten Randbedingungen getroffen werden. Individuelle Fehler dieser Klimamodelle, die aus der nicht perfekten Abbildung der realen Verhältnisse und Prozesse resultieren, erhöhen die Unsicherheit langfristiger Klimaprojektionen. So unterscheiden sich die Aussagen verschiedener AOGCMs im Hinblick auf den zukünftigen Klimawandel insbesondere bei regionaler Betrachtung, deutlich. Als Absicherung gegen Modellfehler werden üblicherweise die Ergebnisse mehrerer AOGCMs, eines Ensembles an Modellen, kombiniert. Um die Abschätzung des Klimawandels zu präzisieren, wird in der vorliegenden Arbeit der Versuch unternommen, eine Bewertung der Modellperformance der 24 AOGCMs, die an der dritten Phase des Vergleichsprojekts für gekoppelte Modelle (CMIP3) teilgenommen haben, zu erstellen. Auf dieser Basis wird dann eine nummerische Gewichtung für die Kombination des Ensembles erstellt. Zunächst werden die von den AOGCMs simulierten Klimatologien für einige grundlegende Klimaelemente mit den betreffenden klimatologien verschiedener Beobachtungsdatensätze quantitativ abgeglichen. Ein wichtiger methodischer Aspekt hierbei ist, dass auch die Unsicherheit der Beobachtungen, konkret Unterschiede zwischen verschiedenen Datensätzen, berücksichtigt werden. So zeigt sich, dass die Aussagen, die aus solchen Ansätzen resultieren, von zu vielen Unsicherheiten in den Referenzdaten beeinträchtigt werden, um generelle Aussagen zur Qualität von AOGCMs zu treffen. Die Nutzung der Köppen-Geiger Klassifikation offenbart jedoch, dass die prinzipielle Verteilung der bekannten Klimatypen im kompletten CMIP3 in vergleichbar guter Qualität reproduziert wird. Als Bewertungskriterium wird daher hier die Fähigkeit der AOGCMs die großskalige natürliche Klimavariabilität, konkret die hochkomplexe gekoppelte El Niño-Southern Oscillation (ENSO), realistisch abzubilden herangezogen. Es kann anhand verschiedener Aspekte des ENSO-Phänomens gezeigt werden, dass nicht alle AOGCMs hierzu mit gleicher Realitätsnähe in der Lage sind. Dies steht im Gegensatz zu den dominierenden Klimamoden der Außertropen, die modellübergreifend überzeugend repräsentiert werden. Die wichtigsten Moden werden, in globaler Betrachtung, in verschiedenen Beobachtungsdaten über einen neuen Ansatz identifiziert. So können für einige bekannte Zirkulationsmuster neue Indexdefinitionen gewonnen werden, die sich sowohl als äquivalent zu den Standardverfahren erweisen und im Vergleich zu diesen zudem eine deutliche Reduzierung des Rechenaufwandes bedeuten. Andere bekannte Moden werden dagegen als weniger bedeutsame, regionale Zirkulationsmuster eingestuft. Die hier vorgestellte Methode zur Beurteilung der Simulation von ENSO ist in guter Übereinstimmung mit anderen Ansätzen, ebenso die daraus folgende Bewertung der gesamten Performance der AOGCMs. Das Spektrum des Southern Oscillation-Index (SOI) stellt somit eine aussagekräftige Kenngröße der Modellqualität dar. Die Unterschiede in der Fähigkeit, das ENSO-System abzubilden, erweisen sich als signifikante Unsicherheitsquelle im Hinblick auf die zukünftige Entwicklung einiger fundamentaler und bedeutsamer Klimagrößen, konkret der globalen Mitteltemperatur, des SOIs selbst, sowie des indischen Monsuns. Ebenso zeigen sich signifikante Unterschiede für regionale Klimaänderungen zwischen zwei Teilensembles des CMIP3, die auf Grundlage der entwickelten Bewertungsfunktion eingeteilt werden. Jedoch sind diese Effekte im Allgemeinen nicht mit den Auswirkungen der anthropogenen Klimaänderungssignale im Multi-Modell Ensemble vergleichbar, die für die meisten Klimagrößen in einem robusten multivariaten Ansatz detektiert und quantifiziert werden können. Entsprechend sind die effektiven Klimaänderungen, die sich bei der Kombination aller Simulationen als grundlegende Aussage des CMIP3 unter den speziellen Randbedingungen ergeben nahezu unabhängig davon, ob alle Läufe mit dem gleichen Einfluss berücksichtigt werden, oder ob die erstellte nummerische Gewichtung verwendet wird. Als eine wesentliche Begründung hierfür kann die Spannbreite der Entwicklung des ENSO-Systems identifiziert werden. Dies bedeutet größere Schwankungen in den Ergebnissen der Modelle mit funktionierendem ENSO, was den Stellenwert der natürlichen Variabilität als Unsicherheitsquelle in Fragen des Klimawandels unterstreicht. Sowohl bei Betrachtung der Teilensembles als auch der Gewichtung wirken sich dadurch gegenläufige Trends im SOI ausgleichend auf die Entwicklung anderer Klimagrößen aus, was insbesondere bei letzterem Vorgehen signifikante mittlere Effekte des Ansatzes, verglichen mit der Verwendung des üblichen arithmetischen Multi-Modell Mittelwert, verhindert. N2 - The recent and future increase in atmospheric greenhouse gases will cause fundamental change in the terrestrial climate system, which will lead to enormous tasks and challenges for the global society. Effective and early adaptation to this climate change will benefit hugley from optimal possible estimates of future climate change. Coupled atmosphere-ocean models (AOGCMs) are the appropriate tool for this. However, to tackle these questions, it is necessary to make far reaching assumptions about the future climate-relevant boundary conditions. Furthermore there are individual errors in each climate model. These originate from flaws in reproducing the real climate system and result in a further increase of uncertainty with regards to long-range climate projections. Hence, concering future climate change, there are pronounced differences between the results of different AOGCMs, especially under a regional point of view. It is the usual approach to use a number of AOGCMs and combine their results as a safety measure against the influence of such model errors. In this thesis, an attempt is made to develop a valuation scheme and based on that a weighting scheme, for AOGCMs in order to narrow the range of climate change projections. The 24 models that were included in the third phase of the coupled model intercomparsion project (CMIP3) are used for this purpose. First some fundamental climatologies simulated by the AOGCMs are quantitatively compared to a number of observational data. An important methodological aspect of this approach is to explicitly address the uncertainty associated with the observational data. It is revealed that statements concerning the quality of climate models based on such hindcastig approaches might be flawed due to uncertainties about observational data. However, the application of the Köppen-Geiger classification reveales that all considered AOGCMs are capable of reproducing the fundamental distribution of observed types of climate. Thus, to evaluate the models, their ability to reproduce large-scale climate variability is chosen as the criterion. The focus is on one highly complex feature, the coupled El Niño-Southern Oscillation. Addressing several aspects of this climate mode, it is demonstrated that there are AOGCMs that are less successful in doing so than others. In contrast, all models reproduce the most dominant extratropical climate modes in a satisfying manner. The decision which modes are the most important is made using a distinct approach considering several global sets of observational data. This way, it is possible to add new definitions for the time series of some well-known climate patterns, which proof to be equivalent to the standard definitions. Along with this, other popular modes are identified as less important regional patterns. The presented approach to assess the simulation of ENSO is in good agreement with other approaches, as well as the resulting rating of the overall model performance. The spectrum of the timeseries of the Southern Oscillation Index (SOI) can thus be regarded as a sound parameter of the quality of AOGCMs. Differences in the ability to simulate a realistic ENSO-system prove to be a significant source of uncertainty with respect to the future development of some fundamental and important climate parameters, namely the global near-surface air mean temperature, the SOI itself and the Indian monsoon. In addition, there are significant differences in the patterns of regional climate change as simulated by two ensembles, which are constituted according to the evaluation function previously developed. However, these effects are overall not comparable to the multi-model ensembles’ anthropogenic induced climate change signals which can be detected and quantified using a robust multi-variate approach. If all individual simulations following a specific emission scenario are combined, the resulting climate change signals can be thought of as the fundamental message of CMIP3. It appears to be quite a stable one, more or less unaffected by the use of the derived weighting scheme instead of the common approach to use equal weights for all simulations. It is reasoned that this originates mainly from the range of trends in the SOI. Apparently, the group of models that seems to have a realistic ENSO-system also shows greater variations in terms of effective climate change. This underlines the importance of natural climate variability as a major source of uncertainty concerning climate change. For the SOI there are negative Trends in the multi-model ensemble as well as positive ones. Overall, these trends tend to stabilize the development of other climate parameters when various AOGCMs are combined, whether the two distinguished parts of CMIP3 are analyzed or the weighting scheme is applied. Especially in case of the latter method, this prevents significant effects on the mean change compared to the arithmetic multi-model mean. KW - Modell KW - Klima KW - Statistik KW - Anthropogene Klimaänderung KW - El-Niño-Phänomen KW - multi-model ensemble KW - großskalige Klimavariabilität KW - Gewichtung von Klimamodellen KW - large scale climate variability KW - weighting of climate models KW - Allgemeine atmosphärische Zirkulation KW - Klimatologie KW - Klimaänderung KW - Modellierung KW - Mathematisches Modell Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-97982 ER - TY - THES A1 - Philippi, Nicole T1 - Modellierung von Signalwegen in verschiedenen biologischen Systemen T1 - Modeling of signaling pathways in different biological systems N2 - Die Apoptose der Leberzellen ist abhängig von externen Signalen wie beispielsweise Komponenten der Extrazellulären Matrix sowie anderen Zell-Zell-Kontakten, welche von einer Vielfalt und Vielzahl an Knoten verarbeitet werden. Einige von ihnen wurden im Rahmen dieser Arbeit auf ihre Systemeffekte hin unter- sucht. Trotz verschiedener äußerer Einflüsse und natürlicher Selektion ist das System daraufhin optimiert, eine kleine Anzahl verschiedener und klar voneinander unterscheidbarer Systemzustände anzunehmen. Die verschiedenartigen Einflüsse und Crosstalk-Mechanismen dienen der Optimierung der vorhandenen Systemzustände. Das in dieser Arbeit vorgestellte Modell zeigt zwei apoptotische sowie zwei nicht-apoptotische stabile Systemzustände, wobei der Grad der Aktivierung eines Knotens bis zu dem Moment stark variieren kann, in welchem der absolute Systemzustand selbst verändert wird (Philippi et al., BMC Systems Biology,2009) [1]. Dieses Modell stellt zwar eine Vereinfachung des gesamten zellulären Netzwerkes und seiner verschiedenen Zustände dar, ist aber trotz allem in der Lage, unabhängig von detaillierten kinetischen Daten und Parametern der einzelnen Knoten zu agieren. Gleichwohl erlaubt das Modell mit guter qualitativer Übereinstimmung die Apoptose als Folge einer Stimulation mit FasL zu modellieren. Weiterhin umfasst das Modell sowohl Crosstalk-Möglichkeiten des Collagen-Integrin-Signalwegs, ebenso berücksichtigt es die Auswirkungen der genetischen Deletion von Bid sowie die Konsequenzen einer viralen Infektion. In einem zweiten Teil werden andere Anwendungsmöglichkeiten dargestellt. Hormonale Signale in Pflanzen, Virusinfektionen und intrazelluläre Kommunikation werden semi-quantitativ modelliert. Auch hier zeigte sich eine gute Ubereinstimmung der Modelle mit den experimentellen Daten. N2 - Apoptosis of liver cells is dependent on external signals such as components of the extracellular matrix and cell-cell-contacts, which are processed by a variety of numerous nodes of which several are examined here for their system effects. Despite different input interferences and presumably also due to natural selecti- on, the system nevertheless appears to be optimized to adopt a small number of clear and distinguishable states, and the various inputs and crosstalk mechanisms only optimize the best choice between them. For the model described within this work, two nonapoptotic and two apoptotic states are found, although the degree of activation at a node can differ widely until the absolute system state is altered (Philippi et al., BMC Systems Biology, 2009) [1]. The model is still a simplification of the complete cellular network and its different states, and operates independently of detailed kinetic data and parameters for individual nodes. Nevertheless, it allows modeling the readout of apoptosis after FasL stimulation with qualitative agreement and includes crosstalks from collagen/integrin signa- ling, the effect of genetic deletion of Bid and the consequences of viral infection. The second part of this work deals with other applications using this method. Semi-quantitative models are used for hormonal signaling in plants, viral infec- tions and intra-cellular communication. The simulated results fit to the experi- mental data provided. KW - Systembiologie KW - Modellierung KW - Bioinformatik KW - Apoptose KW - Systems Biology KW - Modeling KW - Bioinformatics KW - Apoptosis Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-57690 ER - TY - THES A1 - Schwarz, Roland T1 - Modellierung von Metabolismus, Transkriptom und Zellentwicklung bei Arabidopsis, Listerien und anderen Organismen T1 - Modeling of metabolism, transcriptome and cell development in Arabidopsis, Listeria and other organisms N2 - Im gleichen Maße wie informatisches Wissen mehr und mehr in den wissenschaftlichen Alltag aller Lebenswissenschaften Einzug gehalten hat, hat sich der Schwerpunkt bioinformatischer Forschung in stärker mathematisch und informatisch-orientierte Themengebiete verschoben. Bioinformatik heute ist mehr als die computergestützte Verarbeitung großer Mengen an biologischen Daten, sondern hat einen entscheidenden Fokus auf der Modellierung komplexer biologischer Systeme. Zur Anwendung kommen hierbei insbesondere Theorien aus dem Bereich der Stochastik und Statistik, des maschinellen Lernens und der theoretischen Informatik. In der vorliegenden Dissertation beschreibe ich in Fallstudien die systematische Modellierung biologischer Systeme aus einem informatisch - mathematischen Standpunkt unter Anwendung von Verfahren aus den genannten Teilbereichen und auf unterschiedlichen Ebenen biologischer Abstraktion. Ausgehend von der Sequenzinformation über Transkriptom, Metabolom und deren regulatorischer Interaktion hin zur Modellierung von Populationseffekten werden hierbei aktuelle biologische Fragestellungen mit mathematisch - informatischen Modellen und einer Vielzahl experimenteller Daten kombiniert. Ein besonderer Augenmerk liegt dabei auf dem Vorgang der Modellierung und des Modellbegriffs als solchem im Rahmen moderner bioinformatischer Forschung. Im Detail umfassen die Projekte (mehrere Publikationen) die Entwicklung eines neuen Ansatzes zur Einbettung und Visualisierung von Multiplen Sequenz- und Sequenz-Strukturalignments, illustriert am Beispiel eines Hemagglutininalignments unterschiedlicher H5N1 Varianten, sowie die Modellierung des Transkriptoms von A. thaliana, bei welchem mit Hilfe einer kernelisierten nicht-parametrischen Metaanalyse neue, an der Infektionsabwehr beteiligten, Gene ausfindig gemacht werden konnten. Desweiteren ist uns mit Hilfe unserer Software YANAsquare eine detaillierte Untersuchung des Metabolismus von L. monocytogenes unter Aktivierung des Transkriptionsfaktors prfA gelungen, dessen Vorhersagen durch experimentelle 13C Isotopologstudien belegt werden konnten. In einem Anschlußprojekt war der Zusammenhang zwischen Regulation des Metabolismus durch Regulation der Genexpression und der Fluxverteilung des metabolischen Steady- State-Netzwerks das Ziel. Die Modellierung eines komplexen organismischen Phänotyps, der Zellgrößenentwicklung der Diatomee Pseudo-nitzschia delicatissima, schließt die Untersuchungen ab. N2 - In the same way that informatical knowledge has made its way into almost all areas of research in the Life Sciences, the focus of bioinformatical research has shifted towards topics originating more in the fields of mathematics and theoretical computer science. Bioinformatics today is more than the computer-driven processing of huge amounts of biological data, but it has a special focus on the emphmodelling of complex biological systems. Of special importance hereby are theories from stochastics and statistics, from the field of machine learning and theoretical computer science. In the following dissertation, I describe the systematic modelling of biological systems from an informatical-mathematical point of view in a case studies approach, applying methods from the aforementioned areas of research and on different levels of biological abstraction. Beginning with the sequence information itself, followed by the transcriptome, metabolome and the interaction of both and finally population effects I show how current biological questions can be tackled with mathematical models and combined with a variety of different experimental datasets. A special focus lies hereby on the procedure of modelling and the concept and notion of a model as such in the framework of bioinformatical research. In more detail, the projects contained the development of a new approach for embedding and visualizing Multiple Sequence and Structure Alignments, which was illustrated using a hemagglutinin alignment from different H5N1 variants as an example. Furthermore we investigated the A. thaliana transcriptome by means of a kernelized non-parametric meta-analysis, thus being able to annotate several new genes as pathogen-defense related. Another major part of this work was the modelling of the metabolic network of L. monocytogenes under activation of the transcription factor prfA, establishing predictions which were later verified by experimental 13C isotopologue studies. Following this project we investigated the relationship between the regulation of metabolism by changes in the cellular genexpression patterns and the flux distributions of the metabolic steady-state network. Modelling of a complex organismal property, the cell size development of the planktonic diatom Pseudo-nitzschia delicatissima concludes this work. KW - Bioinformatik KW - Würzburg / Universität / Lehrstuhl für Bioinformatik KW - Modellierung KW - Metabolismus KW - Stoffwechsel KW - Transkriptom KW - Transkriptomanalyse KW - bioinformatics KW - metabolome KW - transcriptome KW - modeling KW - steady-state Y1 - 2008 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-27622 ER - TY - THES A1 - Kirschke, Stefanie T1 - Bilanzierung des Methanaustauschs zwischen Biosphäre und Atmosphäre in Periglazialräumen mit Hilfe von Fernerkundung und Modellen am Beispiel des Lena Deltas T1 - Balancing Methane Exchange between Biosphere and Atmosphere in Periglacial Regions Using Remote Sensing and Modeling: A Case Study for the Lena River Delta N2 - Verbleibende Unsicherheiten im Kohlenstoffhaushalt in Ökosystemen der hohen nördlichen Breiten können teilweise auf die Schwierigkeiten bei der Erfassung der räumlich und zeitlich hoch variablen Methanemissionsraten von Permafrostböden zurückgeführt werden. Methan ist ein global abundantes atmosphärisches Spurengas, welches signifikant zur Erwärmung der Atmosphäre beiträgt. Aufgrund der hohen Sensibilität des arktischen Bodenkohlenstoffreservoirs sowie der großen von Permafrost unterlagerten Landflächen sind arktische Gebiete am kritischsten von einem globalen Klimawandel betroffen. Diese Dissertation adressiert den Bedarf an Modellierungsansätzen für die Bestimmung der Quellstärke nordsibirischer permafrostbeeinflusster Ökosysteme der nassen polygonalen Tundra mit Hinblick auf die Methanemissionen auf regionalem Maßstab. Die Arbeit präsentiert eine methodische Struktur in welcher zwei prozessbasierte Modelle herangezogen werden, um die komplexen Wechselwirkungen zwischen den Kompartimenten Pedosphäre, Biosphäre und Atmosphäre, welche zu Methanemissionen aus Permafrostböden führen, zu erfassen. Es wird ein Upscaling der Gesamtmethanflüsse auf ein größeres, von Permafrost unterlagertes Untersuchungsgebiet auf Basis eines prozessbasierten Modells durchgeführt. Das prozessbasierte Vegetationsmodell Biosphere Energy Hydrology Transfer Model (BETHY/DLR) wird für die Berechnung der Nettoprimärproduktion (NPP) arktischer Tundravegetation herangezogen. Die NPP ist ein Maß für die Substratverfügbarkeit der Methanproduktion und daher ein wichtiger Eingangsparameter für das zweite Modell: Das prozessbasierte Methanemissionsmodell wird anschließend verwendet, um die Methanflüsse einer gegebenen Bodensäule explizit zu berechnen. Dabei werden die Prozesse der Methanogenese, Methanotrophie sowie drei verschiedene Transportmechanismen – molekulare Diffusion, Gasblasenbildung und pflanzengebundener Transport durch vaskuläre Pflanzen – berücksichtigt. Das Methanemissionsmodell ist für Permafrostbedingungen modifiziert, indem das tägliche Auftauen des Permafrostbodens in der kurzen arktischen Vegetationsperiode berücksichtigt wird. Der Modellantrieb besteht aus meteorologischen Datensätzen des European Center for Medium-Range Weather Forecasts (ECMWF). Die Eingangsdatensätze werden mit Hilfe von in situ Messdaten validiert. Zusätzliche Eingangsdaten für beide Modelle werden aus Fernerkundungsdaten abgeleitet, welche mit Feldspektralmessungen validiert werden. Eine modifizierte Landklassifikation auf der Basis von Landsat-7 Enhanced Thematic Mapper Plus (ETM+) Daten wird für die Ableitung von Informationen zu Feuchtgebietsverteilung und Vegetationsbedeckung herangezogen. Zeitserien der Auftautiefe werden zur Beschreibung des Auftauens bzw. Rückfrierens des Bodens verwendet. Diese Faktoren sind die Haupteinflussgrößen für die Modellierung von Methanemissionen aus permafrostbeeinflussten Tundraökosystemen. Die vorgestellten Modellergebnisse werden mittels Eddy-Kovarianz-Messungen der Methanflüsse validiert, welche während der Vegetationsperioden der Jahre 2003-2006 im südlichen Teil des Lena Deltas (72°N, 126°E) vom Alfred Wegener Institut für Polar- und Meeresforschung (AWI) durchgeführt wurden. Das Untersuchungsgebiet Lena Delta liegt an der Laptewsee in Nordostsibirien und ist durch Ökosysteme der arktischen nassen polygonalen Tundra sowie kalten kontinuierlichen Permafrost charakterisiert. Zeitlich integrierte Werte der modellierten Methanflüsse sowie der in situ Messungen zeigen gute Übereinstimmungen und weisen auf eine leichte Modellunterschätzung von etwa 10%. N2 - Remaining uncertainties in the carbon budget of high latitude ecosystems are partly due to difficulties in assessing methane emission rates from permafrost soils the source strengths of which are highly variable in space and time. Methane is a globally abundant atmospheric trace gas that contributes significantly to the warming of the atmosphere. Due to the high sensitivity of the arctic soil carbon reservoir and the large surface area underlain by permafrost, arctic regions are most critically influenced by a changing climate. This dissertation addresses the need for modelling approaches to determine the source strength of northern Siberian permafrost affected wet polygonal tundra ecosystems with regard to methane emission on the regional scale. It presents a methodical structure wherein two process-based models are used to capture the complex interrelated processes between pedosphere, biosphere and atmosphere that lead to methane emission from permafrost soils on the regional scale. Upscaling of methane fluxes for a larger permafrost site is performed using results of a process-based model. The process-based vegetation model Biosphere Energy Transfer Hydrology Model (BETHY/DLR) is applied to estimate net primary productivity (NPP) of arctic tundra vegetation. NPP is parameterized as a measure for substrate availability for methane production and thus an important input parameter for the second model: the process-based wetland methane emission model is subsequently used to explicitly model methane fluxes for a given soil column, taking into account methanogenesis, methane oxidation and three different transport mechanisms, namely molecular diffusion, ebullition and plant-mediated transport through vascular plants. The methane emission model is modified for permafrost conditions by explicitly considering daily thawing of permafrost during the short arctic growing season. Model forcing consists of meteorological data sets obtained from the European Center for Medium-Range Weather Forecasts (ECMWF). Input data sets are validated against field measurements. Auxiliary input data for both models are derived from satellite imagery and validated by field spectral measurements. A modified land use/land classification (LULC) scheme based on Landsat-7 Enhanced Thematic Mapper Plus (ETM+) data is used to derive information on wetland distribution and vegetation cover. Time series of active layer thickness are used to describe thawing/freezing of soils. These parameters are key factors in modelling methane emissions from permafrost influenced tundra ecosystems. Validation of presented model results is performed using eddy covariance measurements of methane flux on the landscape scale carried out during the growing seasons 2003-2006 in the southern part of the Lena Delta (72°N, 126°E) by Alfred Wegener Institute for Polar and Marine Research (AWI). The Lena Delta study site is located at the Laptev Sea in northeast Siberia and is characterized by arctic wet polygonal tundra ecosystems and cold continuous permafrost. Timeintegrated values for modelled methane fluxes and in situ measurements compare reasonably well and indicate a moderate model underestimation of about 10%. KW - Methanemission KW - Satellitenfernerkundung KW - Modellierung KW - Lenadelta KW - Treibhausgas KW - Tundra KW - Kohlenstoffkreislauf KW - methane emission KW - satellite remote sensing KW - modeling KW - Lena River Delta KW - carbon cycle Y1 - 2008 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-29024 ER - TY - THES A1 - Herrler, Rainer T1 - Agentenbasierte Simulation zur Ablaufoptimierung in Krankenhäusern und anderen verteilten, dynamischen Umgebungen T1 - Agent based simulation of processes in hospitals and other distributed, dynamic environments. N2 - Verteilte dynamische Systeme unter lokalen und globalen Gesichtspunkten zu optimieren ist eine schwierige Aufgabe. Zwar sind grundsätzliche Auswirkungen einzelner Maßnahmen häufig bekannt, durch widerstrebende Ziele, Wechselwirkungen zwischen Prozessen und Nebenwirkungen von Maßnahmen ist ein analytisches Vorgehen bei der Optimierung nicht möglich. Besonders schwierig wird es, wenn lokale Einheiten einerseits ihre Ziele und Autonomie behalten sollen, aber durch zentrale Vorgaben bzw. Anreize so gesteuert werden sollen, dass ein übergeordnetes Ziel erreicht wird. Ein praktisches Beispiel dieses allgemeinen Optimierungsproblems findet sich im Gesundheitswesen. Das Management von modernen Kliniken ist stets mit dem Problem konfrontiert, die Qualität der Pflege zu gewährleisten und gleichzeitig kosteneffizient zu arbeiten. Hier gilt es unter gegeben Rahmenbedingungen und bei Respektierung der Autonomie der Funktionseinheiten, Optimierungsmaßnahmen zu finden und durchzuführen. Vorhandene Werkzeuge zur Simulation und Modellierung bieten für diese Aufgabe keine ausreichend guten Vorgehensmodelle und Modellierungsmechanismen. Die agentenbasierte Simulation ermöglicht die Abbildung solcher Systeme und die Durchführung von Simulationsexperimenten zur Bewertung einzelner Maßnahmen. Es werden Lösungswege und Werkzeuge vorgestellt und evaluiert, die den Benutzer bei der Formalisierung des Wissens und der Modellierung solch komplexer Szenarien unterstützen und ein systematisches Vorgehen zur Optimierung ermöglichen. N2 - To optimize distributed dynamic systems or organizations under local and global constraints is a difficult task. Although basic effects of single improvement steps are often known, it is difficult to examine a complex system with conflicting goals, interdependent processes and sideeffects. A special situation occurs, when local entities are supposed to keep autonomy but should be directed by a central instance, to reach a global goal. A concrete example of this optimization problem can be found in health care. The management of modern hospitals has to ensure the quality of service and at the same time work cost efficient. They want to find improvement steps, which on the one hand respect the typical local autonomy of functional units and on the other hand reduce cost factors like the avarage stay duration of patients. Existing tools for modelling and simulation don't provide adequate methodologies and techniques for this problem. Agent based simulation allowes to realize suitable models and finding improvement steps in simulation studies. New approaches and tools are presented and evaluated, that support users in knowledge formalization and model building. KW - Simulation KW - Prozessoptimierung KW - Modellierung KW - Mehragentensystem KW - Krankenhaus KW - Simulation KW - Process Optimization KW - Agentbased System KW - Hospital Y1 - 2007 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-24483 ER - TY - THES A1 - Wilhelm, Thomas T1 - Konzeption und Evaluation eines Kinematik/Dynamik-Lehrgangs zur Veränderung von Schülervorstellungen mit Hilfe dynamisch ikonischer Repräsentationen und graphischer Modellbildung T1 - Conception and evaluation of a kinematics/dynamics course to change students' conceptions with the aid of dynamic-iconic representations and graphic modelling N2 - Auch nach dem herkömmlichen Mechanikunterricht in der Oberstufe verfügen viele Schüler nicht über angemessene physikalische Vorstellungen über die verwendeten physikalischen Begriffe und deren Zusammenhänge. Einführend wurden in dieser Arbeit allgemeine Aspekte zu Schülervorstellungen (Kapitel 2.1) sowie konkrete Schülervorstellungen zur Mechanik (Kapitel 2.2) und relevante Lehrervorstellungen (Kapitel 2.3) dargelegt. Ein Ziel dieser Arbeit war, ein Gesamtkonzept für einen veränderten Kinematik- und Dynamikunterricht ein- und zweidimensionaler Bewegungen in der Jahrgangsstufe 11 des Gymnasiums zu entwickeln, das möglichst vielen Schülern hilft, möglichst viele Fehlvorstellungen zur Mechanik aufzuarbeiten. Dazu wurden u.a. computergestützte Experimente und die Visualisierung der physikalischen Größen mit dynamisch ikonischen Repräsentationen (siehe Kapitel 3.2) eingesetzt, was neue Elementarisierungen und neue Unterrichtsstrategien ermöglichte (siehe Kapitel 8.2 oder Kapitel 5). Um gute Chancen zu haben, dass dieses Konzept den Schulalltag erreicht, wurde es lehrplankonform zum bayerischen Lehrplan konzipiert. Eine erste Zielsetzung der summativen Evaluation war festzustellen, inwieweit das gesamte Unterrichtskonzept von verschiedenen Lehrern durchführbar ist und wie diese es einschätzen (siehe Kapitel 8.4 oder Kapitel 6.3). Ein wichtiges Ziel war dann, mit Hilfe von Tests festzustellen, inwieweit es Veränderungen in den Schülervorstellungen gab (Vor-/Nachtest-Design) und diese Veränderungen mit konventionell unterrichteten Klassen zu vergleichen (Trainings-/Kontrollgruppen-Design) (konventionelle Klassen: Kapitel 8.1; Vergleich: Kapitel 8.5; Kapitel 6.4 + 6.5). Dazu wurden hauptsächlich bereits vorliegende paper-pencil-Tests verwendet, da eine Testneuentwicklung im Rahmen der Arbeit nicht möglich gewesen wäre. Da diese Tests verschiedene Schwächen haben, wurden mehrere verschiedene Tests gleichzeitig eingesetzt, die sich gegenseitig ergänzen. Die graphische Modellbildung in Verbindung mit Animationen ist ein fakultativer Teil dieses Unterrichtskonzeptes. Hierzu wurde zusätzlich eine eigene Interventionsstudie durchgeführt (siehe Kapitel 8.3 und Kapitel 4). Ergebnisse: Dynamisch ikonische Repräsentationen können dem Lehrer neue unterrichtliche Möglichkeiten geben und somit dem Schüler helfen, physikalische Konzepte angemessener zu verstehen. Die Einführung kinematischer Größen anhand zweidimensionaler Bewegungen, die nur mit ikonischen Repräsentationen in Form von Vektorpfeilen sinnvoll ist (geeignete Elementarisierung), führt zu einem physikalischeren Verständnis des Beschleunigungsbegriffes und vermeidet Fehlvorstellungen durch eine ungeeignete Reduktion auf den Spezialfall eindimensionaler Bewegungen. Mehr Schüler konzeptualisieren Beschleunigung wie in der Physik als gerichtete Größe anstelle einer Größe, die die Änderung des Geschwindigkeitsbetrages angibt und allenfalls tangentiale Richtung haben kann. Auch in der Dynamik sind dadurch hilfreiche Darstellungen und so sinnvolle Veränderungen des Unterrichts möglich. Um wesentliche Strukturen aufzuzeigen, werden komplexere Versuche mit mehreren Kräften und Reibung eingesetzt, was erst durch eine rechnerunterstützte Aufbereitung mit dynamisch ikonischen Repräsentationen ermöglicht wird. Diese Darstellungen ermöglichen auch eine aktive Auseinandersetzung der Schüler mit den Themen, indem von ihnen häufig Vorhersagen gefordert werden (geeignete Unterrichtsstrategie). Graphische Modellbildung als weiterer Einsatz bildlicher Darstellungen kann ebenso eine weitere Verständnishilfe sein. Schüler, die nach dem vorgelegten Unterrichtskonzept unterrichtet wurden, zeigten mehr Verständnis für den newtonschen Kraftbegriff. Da die entwickelten Ideen tatsächlich im Unterricht ankamen und dort Veränderungen bewirkten, kann von einer effektiven Lehrerfortbildung mit Transferwirkung gesprochen werden. N2 - Even after the traditional mechanics instruction in the senior classes, many students do not have any adequate physical conceptions of the physical terms and definitions used, as well as of their coherencies. This study therefore commences with a presentation of general aspects of students’ conceptions (chapter 2.1) as well as precise students' conceptions on mechanics (chapter 2.2) and relevant teachers’ conceptions (chapter 2.3). An objective of this study was to develop an overall concept for modified kinematics and dynamics instruction of motions in one and two dimensions in grade 11 of grammar school, aiming at helping as many students as possible to clear as many misconceptions on mechanics as possible. In order to achieve this goal, computer-aided experiments and the visualisation of physical quantities with dynamic-iconic representations (see chapter 3.2) were used, among other things, thus enabling new elementarizations as well as new teaching strategies (see chapter 9.2 or chapter 5). In order to have good chances that this concept reaches the school everyday life, it was conceived curriculum-conformal to the Bavarian curriculum. The first goal of the summative evaluation was to determine to what extent the entire teaching concept can be implemented by different teachers, and how they assess said concept (see chapter 9.4 or chapter 6.3). Subsequently, an important objective was to ascertain, by means of tests, to which extent the students’ conceptions had changed (pre-/post-testing design), and to compare these changes with conventionally taught classes (treatment-/control-group design) (conventional classes: chapter 9.1; comparison: chapter 9.5; chapters 6.4 + 6.5). For that purpose, already existing paper-pencil-tests were mainly used, as a new development of tests would not have been possible in the course of the study. These tests have various shortcomings, so several tests were used at the same time, complementing each other. Graphic modelling in combination with animations is part of this teaching concept. Additionally, an own intervention study was carried out in this context (see chapter 9.3 and chapter 4). Results: Dynamic-iconic representations can provide teachers with new teaching possibilities and thus help students to adequately understand physical concepts. An introduction of kinematic quantities with the aid of two-dimensional motions, which makes only sense with iconic representations in the form of vector arrows (suitable elementarization), leads to a more physical understanding of the acceleration concept and avoids misconceptions due to an inept reduction to the special case of motions in one dimension. More students conceptualize acceleration – like in physics – as a directed quantity instead of a quantity indicating the change of the magnitude of velocity and having at best tangential direction. This renders possible helpful representations for and thus reasonable changes of dynamics instruction as well: In order to illustrate essential structures, more complex experiments with several forces and friction are used, which is only feasible because of a computer-aided preparation with dynamic-iconic representations. These representations also allow for the students to actively deal with the subject by often asking them to make predictions (suitable teaching strategy). Graphic modelling as another application of iconic representations can also further understanding. Students who were instructed pursuant to the teaching concept on hand showed a greater understanding of Newton's concept of force. As the developed ideas were in fact well received in class and caused changes there, it can be called an effective further teacher training with a transfer effect. KW - Physikunterricht KW - Modellierung KW - Physikdidaktik KW - Kinematik KW - Dynamik KW - Modellbildung KW - Schülervorstellungen KW - physics education KW - kinematics KW - dynamics KW - modelling KW - students' conceptions Y1 - 2005 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-39554 N1 - Das Buch mit CD-ROM kann unter der ISBN 978-3-8325-1046-6 auch online oder über den Buchhandel beim Logos-Verlag Berlin bestellt werden. Siehe auch http://www.logos-verlag.de/cgi-bin/buch?isbn=1046 ER -