TY - THES A1 - Gorelashvili, Maximilian Georg T1 - Investigation of megakaryopoiesis and the acute phase of ischemic stroke by advanced fluorescence microscopy T1 - Untersuchungen der Megakaryopoese und der akuten Phase des ischämischen Schlaganfalls mit Hilfe von hochentwickelter Fluoreszenzmikroskopie N2 - In mammals, anucleate platelets circulate in the blood flow and are primarily responsible for maintaining functional hemostasis. Platelets are generated in the bone marrow (BM) by megakaryocytes (MKs), which mainly reside directly next to the BM sinusoids to release proplatelets into the blood. MKs originate from hematopoietic stem cells and are thought to migrate from the endosteal to the vascular niche during their maturation, a process, which is, despite being intensively investigated, still not fully understood. Long-term intravital two photon microscopy (2PM) of MKs and vasculature in murine bone marrow was performed and mean squared displacement analysis of cell migration was performed. The MKs exhibited no migration, but wobbling-like movement on time scales of 3 h. Directed cell migration always results in non-random spatial distribution. Thus, a computational modelling algorithm simulating random MK distribution using real 3D light-sheet fluorescence microscopy data sets was developed. Direct comparison of real and simulated random MK distributions showed, that MKs exhibit a strong bias to vessel-contact. However, this bias is not caused by cell migration, as non-vessel-associated MKs were randomly distributed in the intervascular space. Furthermore, simulation studies revealed that MKs strongly impair migration of other cells in the bone marrow by acting as large-sized obstacles. MKs are thought to migrate from the regions close to the endosteum towards the vasculature during their maturation process. MK distribution as a function of their localization relative to the endosteal regions of the bones was investigated by light sheet fluorescence microscopy (LSFM). The results show no bone-region dependent distribution of MKs. Taken together, the newly established methods and obtained results refute the model of MK migration during their maturation. Ischemia reperfusion (I/R) injury is a frequent complication of cerebral ischemic stroke, where brain tissue damage occurs despite successful recanalization. Platelets, endothelial cells and immune cells have been demonstrated to affect the progression of I/R injury in experimental mouse models 24 h after recanalization. However, the underlying Pathomechanisms, especially in the first hours after recanalization, are poorly understood. Here, LSFM, 2PM and complemental advanced image analysis workflows were established for investigation of platelets, the vasculature and neutrophils in ischemic brains. Quantitative analysis of thrombus formation in the ipsilateral and contralateral hemispheres at different time points revealed that platelet aggregate formation is minimal during the first 8 h after recanalization and occurs in both hemispheres. Considering that maximal tissue damage already is present at this time point, it can be concluded that infarct progression and neurological damage do not result from platelet aggregated formation. Furthermore, LSFM allowed to confirm neutrophil infiltration into the infarcted hemisphere and, here, the levels of endothelial cell marker PECAM1 were strongly reduced. However, further investigations must be carried out to clearly identify the role of neutrophils and the endothelial cells in I/R injury. N2 - In Säugetieren zirkulieren kernlose Thrombozyten im Blutstrom und sind primär für die Aufrechterhaltung der funktionellen Hämostase verantwortlich. Thrombozyten werden im Knochenmark durch Megakaryozyten gebildet, die sich hauptsächlich in direkter Nähe zu Knochenmarkssinusoiden befinden, um Proplättchen in das Blut freizusetzen. Megakaryo-zyten stammen von hämatopoetischen Stammzellen ab und man glaubt, dass sie während ihres Reifungspro¬zesses von der endostalen in die vaskuläre Nische wandern – ein Prozess, der trotz intensiver Forschung noch nicht vollständig verstanden ist. Langzeit-Zwei-Photonen-Mikroskopie von Megakaryozyten und des Gefäßbaums wurde in murinem Knochenmark von lebenden Tieren in Kombination mit der Analyse der mittleren quadratischen Verschiebung der Zellmigration durchgeführt. Die Megakaryozyten zeigten keine Migration, sondern eine wackelartige Bewegung auf Zeitskalen von 3 Stunden. Die gerichtete Zellmigration führt stets zu einer nicht zufälligen räumlichen Verteilung der Zellen. Daher wurde ein Computermodellierungsalgorithmus entwickelt, der eine zufällige Megakaryo¬zytenverteilung unter Verwendung von realen 3D-Lichtblatt-Fluoreszenzmikroskopie-Datensätzen simuliert. Der direkte Vergleich realer und simuliert zufälliger Megakaryozyten¬verteilungen zeigte, dass MKs stark mit Knochenmarksgefäßen assoziiert sind. Dieses wird jedoch nicht durch Zellmigration verursacht, da nicht-Gefäß-assoziierte MKs zufällig im intervaskulären Raum verteilt waren. Darüber hinaus zeigten Simulationsstudien, dass Megakaryozyten die Migration anderer Zellen im Knochenmark stark beeinträchtigen, da sie als sterische Hindernisse wirken. Es wird angenommen, dass MKs während ihres Reife¬prozesses von den Regionen in der Nähe des Endosteums in Richtung des Gefäßsystems wandern. Die Megakaryozytenverteilung als Funktion ihrer Lokalisierung relativ zu den endo¬stalen Regionen des Knochens wurde durch Lichtblattmikroskopie untersucht. Die Ergebnisse zeigen keine knochenregionabhängige Verteilung von Megakaryozyten. Zusammenge¬nommen widerlegen die neu etablierten Methoden und erzielten Ergebnisse das Modell der Megakaryozyten¬migration während ihrer Reifung. Ischämie-Reperfusionsschaden (I/R) ist eine häufige Komplikation des zerebralen ischämischen Schlaganfalls, bei dem trotz erfolgreicher Rekanalisierung eine Schädigung des Hirngewebes auftritt. Es wurde gezeigt, dass Thrombozyten, Endothelzellen und Immunzellen das Fortschreiten der I/R-Verletzung in experimentellen Mausmodellen 24 Stunden nach der Rekanalisierung beeinflussen. Die zugrundeliegenden Pathomechanismen, insbesondere in den ersten Stunden nach der Rekanalisierung, sind jedoch kaum verstanden. Hier wurden Lichtblattmikroskopie, Zwei-Photonen-Mikroskopie und ergänzende hochkom-plexe Bildanalyse-Workflows zur Untersuchung von Thrombozyten, der Gefäße und Neutro-philen in ischämischen Gehirnen etabliert. Die quantitative Analyse der Thrombusbildung in der ipsilateralen und kontralateralen Hemisphäre zu verschiedenen Zeitpunkten zeigte, dass die Thrombozytenaggregationsbildung während der ersten 8 Stunden nach der Rekanalisierung minimal ist und in beiden Hemisphären auftritt. In Anbetracht dessen, dass zu diesem Zeitpunkt bereits eine maximale Gewebeschädigung vorliegt, kann geschlossen werden, dass die Infarkt¬progression und der neurologische Schaden nicht aus der Bildung von Thrombozytenaggre¬gaten resultieren. Darüber hinaus erlaubte Lichtblattmikroskopie die Neutrophileninfiltration in die infarzierte Hemisphäre zu bestätigen und hier waren die Spiegel des Endothelzellmarkers PECAM1 stark reduziert. Es müssen jedoch weitere Untersuchungen durchgeführt werden, um die Rolle von Neutrophilen und Endothelzellen bei I/R-Verletzungen klar zu identifizieren. KW - Fluoreszenzmikroskopie KW - Schlaganfall KW - Megakaryozyt KW - Computersimulation KW - Light sheet microscopy KW - ischemic stroke KW - megakaryopoiesis KW - multi-photon microscopy Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-186002 ER - TY - THES A1 - Baier, Pablo A. T1 - Simulator for Minimally Invasive Vascular Interventions: Hardware and Software T1 - VR-Simulation für das Training von Herzkathetereingriffen: Hard- und Softwarelösung N2 - A complete simulation system is proposed that can be used as an educational tool by physicians in training basic skills of Minimally Invasive Vascular Interventions. In the first part, a surface model is developed to assemble arteries having a planar segmentation. It is based on Sweep Surfaces and can be extended to T- and Y-like bifurcations. A continuous force vector field is described, representing the interaction between the catheter and the surface. The computation time of the force field is almost unaffected when the resolution of the artery is increased. The mechanical properties of arteries play an essential role in the study of the circulatory system dynamics, which has been becoming increasingly important in the treatment of cardiovascular diseases. In Virtual Reality Simulators, it is crucial to have a tissue model that responds in real time. In this work, the arteries are discretized by a two dimensional mesh and the nodes are connected by three kinds of linear springs. Three tissue layers (Intima, Media, Adventitia) are considered and, starting from the stretch-energy density, some of the elasticity tensor components are calculated. The physical model linearizes and homogenizes the material response, but it still contemplates the geometric nonlinearity. In general, if the arterial stretch varies by 1% or less, then the agreement between the linear and nonlinear models is trustworthy. In the last part, the physical model of the wire proposed by Konings is improved. As a result, a simpler and more stable method is obtained to calculate the equilibrium configuration of the wire. In addition, a geometrical method is developed to perform relaxations. It is particularly useful when the wire is hindered in the physical method because of the boundary conditions. The physical and the geometrical methods are merged, resulting in efficient relaxations. Tests show that the shape of the virtual wire agrees with the experiment. The proposed algorithm allows real-time executions and the hardware to assemble the simulator has a low cost. N2 - Es wird ein vollständiges Simulationssystem entwickelt, das von Ärzten als Lehrmittel zur Ausbildung grundlegender Fertigkeiten bei Herzkathetereingriffen eingesetzt werden kann. Im ersten Teil wird ein Oberflächenmodell zur Erstellung von Arterien mit planarer Segmentierung entwickelt. Im zweiten Teil werden die Arterien durch ein zweidimensionales Netz diskretisiert, die Knoten werden durch drei Arten linearer Federn verbunden und ausgehend von einer Dehnungsenergie-Dichte-Funktion werden einige Komponenten des Elastizitätstensors berechnet. Im letzten Teil wird das von anderen Autoren vorgeschlagene physikalische Modell des Drahtes verbessert und eine neue geometrische Methode entwickelt. Der vorgeschlagene Algorithmus ermöglicht Echtzeit-Ausführungen. Die Hardware des Simulators hat geringe Herstellungskosten. T3 - Forschungsberichte in der Robotik = Research Notes in Robotics - 15 KW - Computersimulation KW - Simulator KW - Arterie KW - Elastizitätstensor KW - Herzkatheter KW - Minimally invasive vascular intervention KW - Wire relaxation KW - Artery KW - Elasticity tensor KW - Stiffness KW - educational tool KW - Elastizitätstensor KW - Herzkathetereingriff KW - Software KW - Hardware Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-161190 SN - 978-3-945459-22-5 ER - TY - THES A1 - Weber, Stefan T1 - Simulation Studies on the New Small Wheel Shielding of the ATLAS Experiment and Design and Construction of a Test Facility for Gaseous Detectors T1 - Simulationsstudien zur New Small Wheel Abschirmung des ATLAS Experiments und Entwurf und Konstruktion eines Teststandes für Gasdetektoren N2 - In this thesis two main projects are presented, both aiming at the overall goal of particle detector development. In the first part of the thesis detailed shielding studies are discussed, focused on the shielding section of the planned New Small Wheel as part of the ATLAS detector upgrade. Those studies supported the discussions within the upgrade community and decisions made on the final design of the New Small Wheel. The second part of the thesis covers the design, construction and functional demonstration of a test facility for gaseous detectors at the University of Würzburg. Additional studies on the trigger system of the facility are presented. Especially the precision and reliability of reference timing signals were investigated. N2 - In dieser Arbeit werden zwei Projekte vorgestellt, welche beide das gemeinsame Ziel der Entwicklung von Teilchendetektoren verfolgen. Im ersten Teil der Arbeit werden ausführliche Simulationsstudien zur Abschirmung behandelt, die sich auf die Abschirmungsbereiche des geplanten New Small Wheels als Teil der ATLAS-Detektor Verbesserungen konzentrieren. Diese Studien unterstützten die Diskussionen innerhalb der Upgrade-Gemeinschaft und Entscheidungen, welche für die endgültige Kostruktionsplanung des New Small Wheels getroffen wurden. Der zweite Teil der Arbeit umfasst die Konstruktion, den Aufbau sowie den Funktionsnachweis eines Teststandes für Gasdetektoren an der Universität Würzburg. Ebenfalls werden Studien über das Triggersystems des Teststandes dargestellt. Insbesondere wurden die Präzision und Verlässlichkeit von Referenzzeitsignalen untersucht. KW - Teilchendetektor KW - Abschirmung KW - Simulation KW - test facility KW - New Small Wheel KW - Teststand KW - Gasionisationsdetektor KW - European Organization for Nuclear Research. ATLAS Collaboration KW - Computersimulation Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-133084 ER - TY - INPR A1 - Reiss, Harald T1 - Physical time and existence of time holes in non-transparent media N2 - The analysis presented in this paper applies to experimental situations where observers or objects to be studied (both stationary, with respect to each other) are located in environments the optical thickness of which is strongly different. By their large optical thickness, non-transparent media are clearly distinguished from their transparent counterparts. Non-transparent media comprise thin metallic films, packed or fluidised beds, the Earth’s crust, and even dark clouds and other cosmological objects. As a representative example, a non-transparent slab is subjected to transient disturbances, and a rigorous analysis is presented whether physical time reasonably could be constructed under such condition. The analysis incorporates mapping functions that correlate physical events, e, in non-transparent media, with their images, f(e), tentatively located on a standard physical time scale. The analysis demonstrates, however, that physical time, in its rigorous sense, does not exist under non-transparency conditions. A proof of this conclusion is attempted in three steps: i) the theorem “there is no time without space and events” is accepted, (ii) images f[e(s,t)] do not constitute a dense, uncountably infinite set, and (iii) sets of images that are not uncountably infinite do not create physical time but only time-like sequences. As a consequence, mapping f[e(s,t)] in non-transparent space does not create physical analogues to the mathematical structure of the ordered, dense half-set R+ of real numbers, and reverse mapping, f-1f[e(s,t)] would not allow unique identification and reconstruction of original events from their images. In these cases, causality and determinism, as well as invariance of physical processes under time reversal, might be violated. Existence of time holes could be possible, as follows from the sequence of images, f[e(s,t)], that is not uncountably infinite, in contrast to R+. Practical impacts are expected for understanding physical diffusion-like, radiative transfer processes, stability models to protect superconductors against quenchs or for description of their transient local pair density and critical currents. Impacts would be expected also in mathematical formulations (differential equations) of classical physics, in relativity and perhaps in quantum mechanics, all as far as transient processes in non-transparent space would be concerned. An interesting problem is whether temporal cloaking (a time hole) in a transparent medium, as very recently reported in the literature, can be explained by the present analysis. The analysis is not restricted to objects of laboratory dimensions: Because of obviously existing radiation transfer analogues, it is tempting to discuss consequences also for much larger structures in particular if an origin of time is postulated. KW - Strahlungstransport KW - Zeitrichtung KW - Supraleiter KW - Computersimulation KW - Non-transparency KW - disturbance KW - physical time KW - time hole Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-67268 N1 - Von diesem Artikel gibt es eine überarbeitete Version unter urn:nbn:de:bvb:20-opus-73554. ER - TY - JOUR A1 - Gros, Andreas A1 - Hovestadt, Thomas A1 - Poethke, Hans Joachim T1 - Evolution of local adaptions in dispersal strategies N2 - The optimal probability and distance of dispersal largely depend on the risk to end up in unsuitable habitat. This risk is highest close to the habitat’s edge and consequently, optimal dispersal probability and distance should decline towards the habitat’s border. This selection should lead to the emergence of spatial gradients in dispersal strategies. However, gene flow caused by dispersal itself is counteracting local adaptation. Using an individual based model we investigate the evolution of local adaptations of dispersal probability and distance within a single, circular, habitat patch. We compare evolved dispersal probabilities and distances for six different dispersal kernels (two negative exponential kernels, two skewed kernels, nearest neighbour dispersal and global dispersal) in patches of different size. For all kernels a positive correlation between patch size and dispersal probability emerges. However, a minimum patch size is necessary to allow for local adaptation of dispersal strategies within patches. Beyond this minimum patch area the difference in mean dispersal distance between center and edge increases linearly with patch radius, but the intensity of local adaptation depends on the dispersal kernel. Except for global and nearest neighbour dispersal, the evolved spatial pattern are qualitatively similar for both, mean dispersal probability and distance. We conclude, that inspite of the gene-flow originating from dispersal local adaptation of dispersal strategies is possible if a habitat is of sufficient size. This presumably holds for any realistic type of dispersal kernel. KW - Ausbreitung KW - Evolution KW - Computersimulation KW - Ökologie KW - nearest-neighbour dispersal KW - global dispersal KW - evolution KW - individual based simulation Y1 - 2006 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-45406 ER - TY - JOUR A1 - Poethke, Hans-Joachim A1 - Hovestadt, Thomas A1 - Mitesser, Oliver T1 - Local extinction and the evolution of dispersal rates: Causes and correlations N2 - We present the results of individual-based simulation experiments on the evolution of dispersal rates of organisms living in metapopulations. We find conflicting results regarding the relationship between local extinction rate and evolutionarily stable (ES) dispersal rate depending on which principal mechanism causes extinction: if extinction is caused by environmental catastrophes eradicating local populations, we observe a positive correlation between extinction and ES dispersal rate; if extinction is a consequence of stochastic local dynamics and environmental fluctuations, the correlation becomes ambiguous; and in cases where extinction is caused by dispersal mortality, a negative correlation between local extinction rate and ES dispersal rate emerges. We conclude that extinction rate, which both affects and is affected by dispersal rates, is not an ideal predictor for optimal dispersal rates. KW - Ausbreitung KW - Evolution KW - Computersimulation KW - Metapopulation KW - dispersal KW - evolution KW - ESS KW - metapopulation KW - extinction KW - individual-based model Y1 - 2003 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-47718 ER - TY - THES A1 - Schumm, Irene T1 - Lessons Learned From Germany’s 2001-2006 Labor Market Reforms T1 - Lehren aus den Deutschen Arbeitsmarktreformen zwischen 2001 und 2006 N2 - In der Dissertation werden die Gesetze zur Reform des Arbeitsmarktes in Deutschland, besser bekannt als Hartz-Reformen, untersucht. Zunächst wird ein Überblick über die wichtigsten Änderungen aus den vier Reform-Paketen gegeben sowie die Effekte, welche man sich davon versprach. Des Weiteren werden zwei grundlegende Reformmaßnahmen, nämlich die Zusammenlegung der Arbeitslosen- und Sozialhilfe (Hartz IV) sowie die Verkürzung der Bezugsdauer der Arbeitslosenversicherungsleistung, analysiert, um deren Auswirkungen auf das individuelle Verhalten und die aggregierte Ökonomie zu evaluieren. Diese Untersuchung geschieht im Rahmen eines Matching-Modells mit optimaler verweildauerabhängiger Suchleistung. Mit Hilfe von Semi-Markov-Methoden, deren Anwendung in der Arbeitsmarkttheorie beschrieben wird, findet schließlich eine Aggregierung statt. Auf diese Weise können die Auswirkungen der Hartz-IV-Reformen auf die Verweildauer in Arbeitslosigkeit, die optimale Suchleistung und die Arbeitslosigkeit quantifiziert werden. N2 - This thesis analyzes the 2001-2006 labor market reforms in Germany. The aim of this work is twofold. First, an overview of the most important reform measures and the intended effects is given. Second, two specific and very fundamental amendments, namely the merging of unemployment assistance and social benefits, as well as changes in the duration of unemployment insurance benefits, are analyzed in detail to evaluate their effects on individuals and the entire economy. Using a matching model with optimal search intensity and Semi-Markov methods, the effects of these two amendments on the duration of unemployment, optimal search intensity and unemployment are analyzed. KW - Hartz-Reform KW - Arbeitsmarkttheorie KW - Deutschland / Gesetz zu Reformen am Arbeitsmarkt KW - Evaluation KW - Simulation KW - Computersimulation KW - Semi-Markov-Prozess KW - Deutschland / Gesetz für moderne Dienstleistungen am Arbeitsmarkt 4 KW - Matching-Modell KW - optimale Suchleistung KW - matching model KW - evaluation KW - Germany KW - labor market reform Y1 - 2009 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-43705 ER - TY - THES A1 - Oeffner, Marc T1 - AGENT–BASED KEYNESIAN MACROECONOMICS - An Evolutionary Model Embedded in an Agent–Based Computer Simulation T1 - AGENTEN-BASIERTE KEYNESIANISCHE MAKROÖKONOMIK - Ein Evolutorisches Modell Eingebettet in eine Agenten-Basierte Computersimualtion N2 - Subject of the present study is the agent-based computer simulation of Agent Island. Agent Island is a macroeconomic model, which belongs to the field of monetary theory. Agent-based modeling is an innovative tool that made much progress in other scientific fields like medicine or logistics. In economics this tool is quite new, and in monetary theory to this date virtual no agent-based simulation model has been developed. It is therefore the topic of this study to close this gap to some extend. Hence, the model integrates in a straightforward way next to the common private sectors (i.e. households, consumer goods firms and capital goods firms) and as an innovation a banking system, a central bank and a monetary circuit. Thereby, the central bank controls the business cycle via an interest rate policy; the according mechanism builds on the seminal idea of Knut Wicksell (natural rate of interest vs. money rate of interest). In addition, the model contains also many Keynesian features and a flow-of-funds accounting system in the tradition of Wolfgang Stützel. Importantly, one objective of the study is the validation of Agent Island, which means that the individual agents (i.e. their rules, variables and parameters) are adjusted in such a way that on the aggregate level certain phenomena emerge. The crucial aspect of the modeling and the validation is therefore the relation between the micro and macro level: Every phenomenon on the aggregate level (e.g. some stylized facts of the business cycle, the monetary transmission mechanism, the Phillips curve relationship, the Keynesian paradox of thrift or the course of the business cycle) emerges out of individual actions and interactions of the many thousand agents on Agent Island. In contrast to models comprising a representative agent, we do not apply a modeling on the aggregate level; and in contrast to orthodox GE models, true interaction between heterogeneous agents takes place (e.g. by face-to-face-trading). N2 - Gegenstand der vorliegenden makroökonomischen Untersuchung ist Agent Island. Agent Island ist eine agentenbasierte Computersimulation, welche im Gebiet der Geldtheorie anzusiedeln ist. Agentenbasierte Computersimulationen sind innovative Werkzeuge, die bereits in vielen anderen Forschungsfeldern, wie der Medizinforschung oder der Erforschung komplexer Logistiksysteme, Verwendung finden. Im Fach Volkswirtschaftslehre ist der Einsatz dieser Technik allerdings noch recht neu, und im Gebiet der monetären Makroökonomik ist bis heute praktisch noch kein agentenbasiertes Simulationsmodell entwickelt worden. Diese Lücke soll durch die vorliegende Arbeit zumindest ein Stück weit geschlossen werden. Angestrebt wird deshalb die Ausarbeitung eines validierten Simulationsmodells für geldpolitische Anwendungen. Zu diesem Zweck wird als Innovation in einem agentenbasierten Makro-Modell – neben den Sektoren der privaten Haushalte, der Konsum- und Kapitalgüterunternehmen – ein Bankensystem, die Notenbank und ein Geldkreislauf (auf einfache Weise) integriert. Die Notenbank kontrolliert dabei die Konjunktur durch Zinspolitik; der entsprechende Transmissionsmechanismus knüpft an die Arbeiten Knut Wicksells im Bereich der Geldtheorie an. Darüber hinaus beinhaltet das Modell viele Keynesianische Elemente sowie eine Geldvermögensrechnung in der Tradition von Wolfgang Stützel. Im Rahmen der Validierung spielt insbesondere der Zusammenhang zwischen Mikro- und Makroebene eine besondere Rolle, wobei wir einen Bottom-Up-Ansatz wählen. Die Idee der Validierung, wie wir sie anwenden, besteht demnach darin, die individuellen Regeln der Agenten so einzustellen, dass auf der aggregierten Ebene Ergebnisse entstehen, die für ein monetäres Makro-Modell sinnvoll erscheinen. Im Ergebnis des validierten Modells sind alle Phänomene auf der aggregierten Ebene (z. B. einige stilisierte Fakten, die Wirkung des Transmissionsmechanismus, der Phillips-Kurven-Zusammenhang, das Spar-Paradoxon oder der Konjunkturverlauf von Agent Island) alleine durch die Handlungen und Interaktionen der vielen tausend Agenten auf der Mikroebene erzeugt. Es erfolgt – im Gegensatz zu Modellen mit einem repräsentativen Agenten – keine Modellierung auf der aggregierten Ebene. Im Rahmen der Mikrostruktur von Agent Island gilt es, die drei vorkommenden Typen von Agenten, d.h. die private Haushalte, Unternehmen sowie die Notenbank, mit einem geeigneten Regelwerk auszustatten. Dementsprechend ist die Arbeit so aufgebaut, dass im ersten Kapitel der methodischen Rahmen für die Entwicklung des Modells (d.h. der Regeln) sowie für die Validierung des Modells (d.h. die Einstellung der Regeln) dargestellt wird. Außerdem erfolgt eine Ausarbeitung der Vorteile des agentenbasierten Ansatzes gegenüber den Allgemeinen Gleichgewichts-Modellen. Im darauffolgenden zweiten Kapitel erfolgt die Darstellung des Modells, welche die Beschreibung aller Regeln und Variablen umfasst. Da es bis heute keine vergleichbare Arbeit auf dem Gebiet der Geldtheorie gibt, musste sich das Modell von Agent Island an verwandte, bereits existierende agentenbasierte Modelle orientieren, sowie in vielen Bereichen an nicht-agentenbasierten Ansätze. Im zweiten Kapitel erfolgt ebenfalls die Verknüpfung des Modells mit der relevanten Literatur. Es liegt in der Natur der Sache, dass die Darstellung von Agent Island zunächst auf der Mikroebene erfolgt. Somit befasst sich der größte Teil von Kapitel 2 mit der Ausarbeitung der Regeln auf der Mikroebene. Erst am Ende des Kapitels wechselt die Darstellung auf die Makroebene – und legt hierbei auch die Grundlagen für den späteren Validierungsprozess. Dort werden makroökonomische Zusammenhänge erläutert, die für Agent Island relevant sein sollten und die im darauffolgenden dritten Kapitel dann auch untersucht bzw. angewandt werden. In Kapitel 3 erfolgt die Validierung des Modells. Hier erfolgen Sensitivitäts-Analysen, Kalibrierungen sowie weitere (z.T. statistische) Untersuchungen des Modells bzw. der Modellergebnisse. Ziel ist es dabei, sinnvolle Ergebnisse auf der Makroebene für verschiedene Zeitreihen zu generieren. Am Ende von Kapitel 3 liegt ein vernünftig validiertes Modell vor. Dies könnte beispielsweise als Ausgangsbasis für die Fortentwicklung eines weiter verfeinerten Modells dienen. KW - Mehragentensystem KW - Computersimulation KW - Mehrebenensimulation KW - Makrosimulation KW - Agent KW - Makroökonomie KW - Geldtheorie KW - Keynessche Theorie KW - Monetäre Wachstumstheorie KW - Geldkreislauf KW - Wirtschaftskreislauf KW - Wicksell-Effekt KW - Agenten-basierte Computersimulation KW - Geschlossenes Kreislaufsystem KW - konsistente Verknüpfung von Strom- und Bestandsgrößen KW - Multi-agent system KW - agent-based macroeconomic computer simulation KW - stock-flow consistent KW - monetary theory KW - Keynesian model KW - Wicksellian model Y1 - 2008 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-39277 ER - TY - THES A1 - Wenisch, Jan T1 - Ferromagnetic (Ga,Mn)As Layers and Nanostructures: Control of Magnetic Anisotropy by Strain Engineering T1 - Ferromagnetische (Ga,Mn)As Schichten und Nanostrukturen: Kontrolle der magnetischen Anisotropie durch Manipulation der Kristallverspannung N2 - This work studies the fundamental connection between lattice strain and magnetic anisotropy in the ferromagnetic semiconductor (Ga,Mn)As. The first chapters provide a general introduction into the material system and a detailed description of the growth process by molecular beam epitaxy. A finite element simulation formalism is developed to model the strain distribution in (Ga,Mn)As nanostructures is introduced and its predictions verified by high-resolution x-ray diffraction methods. The influence of lattice strain on the magnetic anisotropy is explained by an magnetostatic model. A possible device application is described in the closing chapter. N2 - Die vorliegende Arbeit untersucht den fundamentalen Zusammenhang zwischen Gitterverspannung und magnetischer Anisotropie in dem ferromagnetischen Halbleiter (Ga,Mn)As. Die ersten Kapitel bieten eine allgemeine Einleitung in das Materialsystem und eine detaillierte Beschreibung des Wachstumsprozesses mittels Molekularstrahlepitaxie. Eine Finite-Elemente Simulation wird entwickelt, um die Verteilung der Gitterverspannung in (Ga,Mn)As Nanostrukturen zu modellieren. Die daraus abgeleiteten Vorhersagen werden mittels hochauflösender Röntgenbeugung bestätigt. Der Einfluss der Gitterverspannung auf die magnetische Anisotropie wird anhand eines magnetostatischen Modells erklärt. Das abschließende Kapitel gibt einen Ausblick auf eine mögliche praktische Anwendung der beschriebenen Phänomene. KW - Magnetischer Halbleiter KW - Drei-Fünf-Halbleiter KW - Ferromagnetismus KW - Magnetoelektronik KW - Bandstrukturberechnung KW - Molekularstrahlepitaxie KW - Elastische Spannung KW - Computersimulation KW - Röntgenbeugung KW - GaMnAs KW - Ferromagnetic Semiconductors KW - Magnetic Anisotropy KW - Molecular Beam Epitaxy KW - Strain Y1 - 2008 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-34552 ER - TY - THES A1 - Hupp, Markus T1 - Simulating Star Formation and Turbulence in Models of Isolated Disk Galaxies T1 - Simulation von Sternentstehung und Turbulenz in Modellen von isolierten Scheibengalaxien N2 - We model Milky Way like isolated disk galaxies in high resolution three-dimensional hydrodynamical simulations with the adaptive mesh refinement code Enzo. The model galaxies include a dark matter halo and a disk of gas and stars. We use a simple implementation of sink particles to measure and follow collapsing gas, and simulate star formation as well as stellar feedback in some cases. We investigate two largely different realizations of star formation. Firstly, we follow the classical approach to transform cold, dense gas into stars with an fixed efficiency. These kind of simulations are known to suffer from an overestimation of star formation and we observe this behavior as well. Secondly, we use our newly developed FEARLESS approach to combine hydrodynamical simulations with a semi-analytic modeling of unresolved turbulence and use this technique to dynamically determine the star formation rate. The subgrid-scale turbulence regulated star formation simulations point towards largely smaller star formation efficiencies and henceforth more realistic overall star formation rates. More work is necessary to extend this method to account for the observed highly supersonic turbulence in molecular clouds and ultimately use the turbulence regulated algorithm to simulate observed star formation relations. N2 - In dieser Arbeit beschäftigen wir uns mit der Modellierung und Durchführung von hoch aufgelösten dreidimensionalen Simulationen von isolierten Scheibengalaxien, vergleichbar unserer Milchstraße. Wir verwenden dazu den Simulations-Code Enzo, der die Methode der adaptiven Gitterverfeinerung benutzt um die örtliche und zeitliche Auflösung der Simulationen anzupassen. Unsere Galaxienmodelle beinhalten einen Dunkle Materie Halo sowie eine galaktische Scheibe aus Gas und Sternen. Regionen besonders hoher Gasdichte werden durch Teilchen ersetzt, die fortan die Eigenschaften des Gases beziehungsweise der darin entstehenden Sterne beschreiben. Wir untersuchen zwei grundlegend verschiedene Darstellungen von Sternentstehung. Die erste Methode beschreibt die Umwandlung dichten Gases einer Molekülwolke in Sterne mit konstanter Effektivität und führt wie in früheren Simulationen zu einer Überschätzung der Sternentstehungsrate. Die zweite Methode nutzt das von unserer Gruppe neu entwickelte FEARLESS Konzept, um hydrodynamische Simulationen mit analytischen-empirischen Modellen zu verbinden und bessere Aussagen über die in einer Simulation nicht explizit aufgelösten Bereiche treffen zu können. Besonderes Augenmerk gilt in dieser Arbeit dabei der in Molekülwolken beobachteten Turbulenz. Durch die Einbeziehung dieser nicht aufgelösten Effekte sind wir in der Lage eine realistischere Aussage über die Sternentstehungsrate zu treffen. Eine zukünftige Weiterentwicklung dieser von uns entwickelten und umgesetzten Technik kann in Zukunft dafür verwendet werden, die Qualität des durch Turbulenz regulierten Sternentstehungsmodells noch weiter zu steigern. KW - Astrophysik KW - Hydrodynamik KW - Turbulenz KW - Sternentstehung KW - Computersimulation KW - Interstellare Materie KW - Subgrid-Skalen Modell KW - Galaxienentstehung KW - Galaxienentwicklung KW - astrophysics KW - hydrodynamics KW - turbulence KW - star formation KW - subgrid-scale model Y1 - 2008 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-34510 ER -