Refine
Has Fulltext
- yes (20)
Is part of the Bibliography
- yes (20)
Year of publication
Document Type
- Doctoral Thesis (16)
- Journal article (2)
- Master Thesis (1)
- Preprint (1)
Keywords
- Computersimulation (20) (remove)
Institute
- Physikalisches Institut (6)
- Institut für Informatik (3)
- Institut für Theoretische Physik und Astrophysik (3)
- Theodor-Boveri-Institut für Biowissenschaften (2)
- Volkswirtschaftliches Institut (2)
- Graduate School of Life Sciences (1)
- Graduate School of Science and Technology (1)
- Institut für Psychologie (1)
- Institut für Psychologie (bis Sept. 2007) (1)
- Medizinische Klinik (bis 2004) (1)
Sonstige beteiligte Institutionen
Aktivitätsbasierte Verhaltensmodellierung und ihre Unterstützung bei Multiagentensimulationen
(2000)
Durch Zusammenführung traditioneller Methoden zur individuenbasierten Simulation und dem Konzept der Multiagentensysteme steht mit der Multiagentensimulation eine Methodik zur Verfügung, die es ermöglicht, sowohl technisch als auch konzeptionell eine neue Ebene an Detaillierung bei Modellbildung und Simulation zu erreichen. Ein Modell beruht dabei auf dem Konzept einer Gesellschaft: Es besteht aus einer Menge interagierender, aber in ihren Entscheidungen autonomen Einheiten, den Agenten. Diese ändern durch ihre Aktionen ihre Umwelt und reagieren ebenso auf die für sie wahrnehmbaren Änderungen in der Umwelt. Durch die Simulation jedes Agenten zusammen mit der Umwelt, in der er "lebt", wird die Dynamik im Gesamtsystem beobachtbar. In der vorliegenden Dissertation wurde ein Repräsentationsschema für Multiagentensimulationen entwickelt werden, das es Fachexperten, wie zum Beispiel Biologen, ermöglicht, selbständig ohne traditionelles Programmieren Multiagentenmodelle zu implementieren und mit diesen Experimente durchzuführen. Dieses deklarative Schema beruht auf zwei Basiskonzepten: Der Körper eines Agenten besteht aus Zustandsvariablen. Das Verhalten des Agenten kann mit Regeln beschrieben werden. Ausgehend davon werden verschiedene Strukturierungsansätze behandelt. Das wichtigste Konzept ist das der "Aktivität", einer Art "Verhaltenszustand": Während der Agent in einer Aktivität A verweilt, führt er die zugehörigen Aktionen aus und dies solange, bis eine Regel feuert, die diese Aktivität beendet und eine neue Aktivität auswählt. Durch Indizierung dieser Regeln bei den zugehörigen Aktivitäten und Einführung von abstrakten Aktivitäten entsteht ein Schema für eine vielfältig strukturierbare Verhaltensbeschreibung. Zu diesem Schema wurde ein Interpreter entwickelt, der ein derartig repräsentiertes Modell ausführt und so Simulationsexperimente mit dem Multiagentenmodell erlaubt. Auf dieser Basis wurde die Modellierungs- und Experimentierumgebung SeSAm ("Shell für Simulierte Agentensysteme") entwickelt. Sie verwendet vorhandene Konzepte aus dem visuellen Programmieren. Mit dieser Umgebung wurden Anwendungsmodelle aus verschiedenen Domänen realisiert: Neben abstrakten Spielbeispielen waren dies vor allem Fragestellungen zu sozialen Insekten, z.B. zum Verhalten von Ameisen, Bienen oder der Interaktion zwischen Bienenvölkern und Milbenpopulationen.
Die vorliegende Arbeit ist in zwei Teile gegliedert, von denen der erste Teil den theoretischen Hintergrund und empirische Befunde zum Thema „Komplexes Problemlösen“ behandelt. Der zweite Teil beinhaltet Methodik und Ergebnisse der durchgeführten Untersuchung. Nach der Einleitung in Kapitel 1 werden in Kapitel 2 die „Grundkonzepte des Komplexen Problemlösens“ vorgestellt, wobei mit der Abgrenzung des Bereichs „Komplexes Problemlösen“ begonnen wird. Anschließend werden die Eigenschaften von komplexen Systemen und deren Anforderungen an Problemlöser beschrieben, wobei die Taxonomie1 von Dörner et al. (1994) zugrunde gelegt wird. In Kapitel 3 werden Modelle der Wissensrepräsentation und des Problemlösens vorgestellt. Dabei wird der Begriff der „Strategie“ diskutiert und im Zusammenhang mit verschiedenen allgemeinen Modellen des Problemlösens erläutert. Kapitel 4 behandelt das Konzept „Delegation“. Delegation wird in dieser Arbeit als Methode verwendet, um Versuchspersonen zur Formalisierung ihrer Strategien zu bewegen, wobei sie die Ausführung der Strategien gleichzeitig beobachten können. Es werden vor allem Befunde aus der Organisationspsychologie und Unternehmensführung berichtet und die Anwendung von Delegation in der Interaktion zwischen Mensch und künstlichem Agent erörtert. In Kapitel 5 werden Waldbrandsimulationen behandelt. Diese zählen zu den klassischen Simulationen, die zur Untersuchung von Komplexem Problemlösen verwendet werden. Zuerst wird auf computergestützte Simulation im Allgemeinen eingegangen, wobei Unterschiede zu traditionellen Untersuchungsmethoden angesprochen werden. Dabei wird auch die Bedeutung der Multiagentensimulation für die Komplexe Problemlöseforschung hervorgehoben. Anschließend wird Feuerverhalten und Feuerbekämpfung als Vorbild für Waldbrandsimulationen erläutert. Dadurch können sowohl Anhaltspunkte zur Beurteilung der Plausibilität als auch für die Implementierung einer Waldbrandsimulation gewonnen werden. Im Anschluss daran werden drei bekannte Beispiele für Waldbrandsimulationen vorgestellt, wobei auch auf domänen- bzw. simulationsspezifische Strategien eingegangen wird. In Kapitel 6 wird ein Überblick über verschiedene empirische Befunde aus dem Bereich des Komplexen Problemlösens gegeben. Diese betreffen sowohl Eigenschaften von komplexen Systemen als auch Merkmale des Problemlösers. In Kapitel 7 werden die wichtigsten Kritikpunkte und Probleme, mit denen die Komplexe Problemlöseforschung zu kämpfen hat, zusammengefasst. Die konkreten Fragestellungen der Untersuchung werden in Kapitel 8 vorgestellt, wobei Kapitel 9 und 10 erläutern, mit welcher Methodik diese Fragen untersucht werden. In diesem Zusammenhang wird auch die Simulationsumgebung SeSAm vorgestellt. Im folgenden Kapitel 11 wird auf die Eigenschaften der implementierten Waldbrandsimulation eingegangen. Kapitel 12 beschreibt den Aufbau und Ablauf der Untersuchung, mit der die Daten gewonnen werden, die in Kapitel 13 berichtet werden. Eine Diskussion der Befunde im Hinblick auf die Fragestellungen und ihre Bedeutung für die zukünftige Forschung erfolgt in Kapitel 14.
We present the results of individual-based simulation experiments on the evolution of dispersal rates of organisms living in metapopulations. We find conflicting results regarding the relationship between local extinction rate and evolutionarily stable (ES) dispersal rate depending on which principal mechanism causes extinction: if extinction is caused by environmental catastrophes eradicating local populations, we observe a positive correlation between extinction and ES dispersal rate; if extinction is a consequence of stochastic local dynamics and environmental fluctuations, the correlation becomes ambiguous; and in cases where extinction is caused by dispersal mortality, a negative correlation between local extinction rate and ES dispersal rate emerges. We conclude that extinction rate, which both affects and is affected by dispersal rates, is not an ideal predictor for optimal dispersal rates.
The optimal probability and distance of dispersal largely depend on the risk to end up in unsuitable habitat. This risk is highest close to the habitat’s edge and consequently, optimal dispersal probability and distance should decline towards the habitat’s border. This selection should lead to the emergence of spatial gradients in dispersal strategies. However, gene flow caused by dispersal itself is counteracting local adaptation. Using an individual based model we investigate the evolution of local adaptations of dispersal probability and distance within a single, circular, habitat patch. We compare evolved dispersal probabilities and distances for six different dispersal kernels (two negative exponential kernels, two skewed kernels, nearest neighbour dispersal and global dispersal) in patches of different size. For all kernels a positive correlation between patch size and dispersal probability emerges. However, a minimum patch size is necessary to allow for local adaptation of dispersal strategies within patches. Beyond this minimum patch area the difference in mean dispersal distance between center and edge increases linearly with patch radius, but the intensity of local adaptation depends on the dispersal kernel. Except for global and nearest neighbour dispersal, the evolved spatial pattern are qualitatively similar for both, mean dispersal probability and distance. We conclude, that inspite of the gene-flow originating from dispersal local adaptation of dispersal strategies is possible if a habitat is of sufficient size. This presumably holds for any realistic type of dispersal kernel.
Die elektrophysiologischen Vorgänge während der Depolarisation und Repolarisation des Myokards können mittels der Signale des 12-Kanal EKGs selbst bei Vorliegen großen Expertenwissens nur unzureichend beobachtet bzw. interpretiert werden. Grund hierfür sind vor allen Dingen Inhomogenitäten in der kardialen und thorakalen elektrischen Leitfähigkeit sowie die starke Signalabschwächung in den durchlaufenen Geweben. Intrakardiale Verfahren der Signalableitung sind ein Ansatz zu Lösung dieses Problems; sie sind jedoch aufwändig und risikobehaftet. In dem in dieser Arbeit eingesetzten Verfahren hingegen konnte, durch patientenindividuelle Modellierung der Herz- und Thoraxanatomie sowie der Leitfähigkeitsverhältnisse, mittels numerischer Verfahren aus einer Vielzahl von Oberflächen-EKG Ableitungen auf die elektrophysiologischen Vorgänge im Myokard in ihrem zeitlichen und örtlichen Verlauf geschlossen werden (Inverses Problem der Elektrokardiographie). Es konnten bei gesunden Probanden sowie bei Patienten mit verschiedenen kardialen Pathologien zeitlich und örtlich hochaufgelöste Rekonstruktionen von epikardialen- und Transmembranpotentialverteilungen angefertigt werden. Es zeigte sich, dass insbesondere im Bereich großer Infarktnarben der Herzvorder- sowie der Herzhinterwand elektrophysiologische Auffälligkeiten nachweisbar waren. So zeigten sich während der Depolarisationsphase Myokardareale mit einer verminderten Aktivität und Polarisationsumkehr, Bezirke mit verzögerter Depolarisationsaktivität sowie Areale mit atypisch verlaufender Repolarisationsaktivität. Anhand der vorliegenden Ergebnisse konnte gezeigt werden, dass eine Rekonstruktion der physiologischen Abläufe im Myokard während der Depolarisation und der Repolarisation mit dem hierzu implementierten Verfahren möglich ist. Anhand von elektroanatomischen Modellen konnten darüber hinaus die physiologische sowie die pathologisch veränderte Erregungsausbreitung im Myokard simuliert werden. Durch Verbesserung der Rekonstruktionsalgorithmen, der Methoden der Signalverarbeitung und der Regularisierung der Lösungsverfahren ist zukünftig eine weitere Verbesserung der Rekonstruktionsergebnisse zu erwarten. Vor dem klinischen Einsatz der Methode muss eine eingehende Validation erfolgen.
Im Physikunterricht wurde lange Zeit die Bedeutung quantitativer Zusammenhänge für das Physiklernen überbewertet, qualitative Zusammenhänge spielten dagegen eine eher untergeordnete Rolle. Dies führte dazu, dass das Wissen der Schüler zumeist oberflächlich blieb und nicht auf neue Situationen angewendet werden konnte. TIMSS und Pisa offenbarten diese Schwierigkeiten. In den Abschlussberichten wurde kritisiert, dass die Schüler kaum in der Lage seien, Lernstoff zu transferieren oder problemlösend zu denken. Um physikalische Abläufe deuten und entsprechende Probleme lösen zu können, ist qualitativ-konzeptuelles Wissen nötig. Dieses kann, wie Forschungsergebnisse belegen, am besten durch die konstruktivistisch motivierte Gestaltung von Lernsituationen sowie durch die Integration externer Repräsentationen von Versuchsaussagen in den Schulunterricht erreicht werden. Eine konkrete Umsetzung dieser Bedingungen stellt der Einsatz rechnergestützter Experimente dar, der heutzutage ohne allzu großen technischen Aufwand realisiert werden kann. Diese Experimente erleichtern es dem Lernenden, durch den direkten Umgang mit realen Abläufen, physikalische Konzepte zu erschließen und somit qualitative Zusammenhänge zu verstehen. Während man lange Zeit von einer grundsätzlichen Lernwirksamkeit animierter Lernumgebungen ausging, zeigen dagegen neuere Untersuchungen eher Gegenteiliges auf. Schüler müssen offensichtlich erst lernen, wie mit multicodierten Repräsentationen zu arbeiten ist. Die vorliegende Arbeit will einen Beitrag dazu leisten, herauszufinden, wie lernwirksam sogenannte dynamisch-ikonische Repräsentationen (DIR) sind, die physikalische Größen vor dem Hintergrund konkreter Versuchsabläufe visualisieren. Dazu bearbeiteten im Rahmen einer DFG-Studie insgesamt 110 Schüler jeweils 16 Projekte, in denen mechanische Konzepte (Ort, Geschwindigkeit, Beschleunigung und Kraft) aufgegriffen wurden. Es zeigte sich, dass die Probanden mit den eingesetzten DIR nicht erfolgreicher lernen konnten als vergleichbare Schüler, die die gleichen Lerninhalte ohne die Unterstützung der DIR erarbeiteten. Im Gegenteil: Schüler mit einem geringen visuellen Vorstellungsvermögen schnitten aufgrund der Darbietung einer zusätzlichen Codierung schlechter ab als ihre Mitschüler. Andererseits belegen Untersuchungen von Blaschke, dass solche Repräsentationen in der Erarbeitungsphase einer neu entwickelten Unterrichtskonzeption auch und gerade von schwächeren Schülern konstruktiv zum Wissenserwerb genutzt werden konnten. Es scheint also, dass die Lerner zunächst Hilfe beim Umgang mit neuartigen Repräsentationsformen benötigen, bevor sie diese für den weiteren Aufbau adäquater physikalischer Modelle nutzen können. Eine experimentelle Untersuchung mit Schülern der 10. Jahrgangsstufe bestätigte diese Vermutung. Hier lernten 24 Probanden in zwei Gruppen die mechanischen Konzepte zu Ort, Geschwindigkeit und Beschleunigung kennen, bevor sie im Unterricht behandelt wurden. Während die Teilnehmer der ersten Gruppe nur die Simulationen von Bewegungsabläufen und die zugehörigen Liniendiagramme sahen, wurden für die zweite Gruppe unterstützend DIR eingesetzt, die den Zusammenhang von Bewegungsablauf und Liniendiagramm veranschaulichen sollten. In beiden Gruppen war es den Probanden möglich, Fragen zu stellen und Hilfe von einem Tutor zu erhalten. Die Ergebnisse zeigten auf, dass es den Schülern durch diese Maßnahme ermöglicht wurde, die DIR erfolgreich zum Wissenserwerb einzusetzen und signifikant besser abzuschneiden als die Teilnehmer in der Kontrollgruppe. In einer weiteren Untersuchung wurde abschließend der Frage nachgegangen, ob DIR unter Anleitung eines Tutors eventuell bereits in der Unterstufe sinnvoll eingesetzt werden können. Ausgangspunkt dieser Überlegung war die Tatsache, dass mit der Einführung des neuen bayerischen G8-Lehrplans wesentliche Inhalte, die Bestandteil der vorherigen Untersuchungen waren, aus dem Physikunterricht der 11. Jgst. in die 7. Jahrgangsstufe verlegt wurden. So bot es sich an, mit den Inhalten auch die DIR in der Unterstufe einzusetzen. Die Untersuchungen einer quasiexperimentellen Feldstudie in zwei siebten Klassen belegten, dass die betrachteten Repräsentationen beim Aufbau entsprechender Konzepte keinesfalls hinderlich, sondern sogar förderlich sein dürften. Denn die Schülergruppe, die mit Hilfe der DIR lernte, schnitt im direkten hypothesenprüfenden Vergleich mit der Kontrollklasse deutlich besser ab. Ein Kurztest, der die Nachhaltigkeit des Gelernten nach etwa einem Jahr überprüfen sollte, zeigte zudem auf, dass die Schüler der DIR-Gruppe die Konzepte, die unter Zuhilfenahme der DIR erarbeitet wurden, im Vergleich zu Schülern der Kontrollklasse und zu Schülern aus 11. Klassen insgesamt überraschend gut verstanden und behalten hatten.
Encoding Redundancy for Task-dependent Optimal Control : A Neural Network Model of Human Reaching
(2008)
The human motor system is adaptive in two senses. It adapts to the properties of the body to enable effective control. It also adapts to different situational requirements and constraints. This thesis proposes a new neural network model of both kinds of adaptivity for the motor cortical control of human reaching movements, called SURE_REACH (sensorimotor unsupervised learning redundancy resolving control architecture). In this neural network approach, the kinematic and sensorimotor redundancy of a three-joint planar arm is encoded in task-independent internal models by an unsupervised learning scheme. Before a movement is executed, the neural networks prepare a movement plan from the task-independent internal models, which flexibly incorporates external, task-specific constraints. The movement plan is then implemented by proprioceptive or visual closed-loop control. This structure enables SURE_REACH to reach hand targets while incorporating task-specific contraints, for example adhering to kinematic constraints, anticipating the demands of subsequent movements, avoiding obstacles, or reducing the motion of impaired joints. Besides this functionality, the model accounts for temporal aspects of human reaching movements or for data from priming experiments. Additionally, the neural network structure reflects properties of motor cortical networks like interdependent population encoded body space representations, recurrent connectivity, or associative learning schemes. This thesis introduces and describes the new model, relates it to current computational models, evaluates its functionality, relates it to human behavior and neurophysiology, and finally discusses potential extensions as well as the validity of the model. In conclusion, the proposed model grounds highly flexible task-dependent behavior in a neural network framework and unsupervised sensorimotor learning.
It is aim of this work to develop, implement, and apply a new numerical scheme for modeling turbulent, multiphase astrophysical flows such as galaxy cluster cores and star forming regions. The method combines the capabilities of adaptive mesh refinement (AMR) and large-eddy simulations (LES) to capture localized features and to represent unresolved turbulence, respectively; it will be referred to as Fluid mEchanics with Adaptively Refined Large-Eddy SimulationS or FEARLESS.
We model Milky Way like isolated disk galaxies in high resolution three-dimensional hydrodynamical simulations with the adaptive mesh refinement code Enzo. The model galaxies include a dark matter halo and a disk of gas and stars. We use a simple implementation of sink particles to measure and follow collapsing gas, and simulate star formation as well as stellar feedback in some cases. We investigate two largely different realizations of star formation. Firstly, we follow the classical approach to transform cold, dense gas into stars with an fixed efficiency. These kind of simulations are known to suffer from an overestimation of star formation and we observe this behavior as well. Secondly, we use our newly developed FEARLESS approach to combine hydrodynamical simulations with a semi-analytic modeling of unresolved turbulence and use this technique to dynamically determine the star formation rate. The subgrid-scale turbulence regulated star formation simulations point towards largely smaller star formation efficiencies and henceforth more realistic overall star formation rates. More work is necessary to extend this method to account for the observed highly supersonic turbulence in molecular clouds and ultimately use the turbulence regulated algorithm to simulate observed star formation relations.
This work studies the fundamental connection between lattice strain and magnetic anisotropy in the ferromagnetic semiconductor (Ga,Mn)As. The first chapters provide a general introduction into the material system and a detailed description of the growth process by molecular beam epitaxy. A finite element simulation formalism is developed to model the strain distribution in (Ga,Mn)As nanostructures is introduced and its predictions verified by high-resolution x-ray diffraction methods. The influence of lattice strain on the magnetic anisotropy is explained by an magnetostatic model. A possible device application is described in the closing chapter.
Subject of the present study is the agent-based computer simulation of Agent Island. Agent Island is a macroeconomic model, which belongs to the field of monetary theory. Agent-based modeling is an innovative tool that made much progress in other scientific fields like medicine or logistics. In economics this tool is quite new, and in monetary theory to this date virtual no agent-based simulation model has been developed. It is therefore the topic of this study to close this gap to some extend. Hence, the model integrates in a straightforward way next to the common private sectors (i.e. households, consumer goods firms and capital goods firms) and as an innovation a banking system, a central bank and a monetary circuit. Thereby, the central bank controls the business cycle via an interest rate policy; the according mechanism builds on the seminal idea of Knut Wicksell (natural rate of interest vs. money rate of interest). In addition, the model contains also many Keynesian features and a flow-of-funds accounting system in the tradition of Wolfgang Stützel. Importantly, one objective of the study is the validation of Agent Island, which means that the individual agents (i.e. their rules, variables and parameters) are adjusted in such a way that on the aggregate level certain phenomena emerge. The crucial aspect of the modeling and the validation is therefore the relation between the micro and macro level: Every phenomenon on the aggregate level (e.g. some stylized facts of the business cycle, the monetary transmission mechanism, the Phillips curve relationship, the Keynesian paradox of thrift or the course of the business cycle) emerges out of individual actions and interactions of the many thousand agents on Agent Island. In contrast to models comprising a representative agent, we do not apply a modeling on the aggregate level; and in contrast to orthodox GE models, true interaction between heterogeneous agents takes place (e.g. by face-to-face-trading).
This thesis analyzes the 2001-2006 labor market reforms in Germany. The aim of this work is twofold. First, an overview of the most important reform measures and the intended effects is given. Second, two specific and very fundamental amendments, namely the merging of unemployment assistance and social benefits, as well as changes in the duration of unemployment insurance benefits, are analyzed in detail to evaluate their effects on individuals and the entire economy. Using a matching model with optimal search intensity and Semi-Markov methods, the effects of these two amendments on the duration of unemployment, optimal search intensity and unemployment are analyzed.
In der vorliegenden Arbeit wird das Problem der Kalibrierung Agenten-basierter Simulationen (ABS) behandelt, also das Problem, die Parameterwerte eines Agenten-basierten Simulationsmodells so einzustellen, dass valides Simulationsverhalten erreicht wird. Das Kalibrierungsproblem für Simulationen an sich ist nicht neu und ist im Rahmen klassischer Simulationsparadigmen, wie z.B. der Makro-Simulation, fester Bestandteil der Forschung. Im Vergleich zu den dort betrachteten Kalibrierungsproblemen zeichnet sich das Kalibrierungsproblem für ABS jedoch durch eine Reihe zusätzlicher Herausforderungen aus, welche die direkte Anwendung existierender Kalibrierungsverfahren in begrenzter Zeit erschweren, bzw. nicht mehr sinnvoll zulassen. Die Lösung dieser Probleme steht im Zentrum dieser Dissertation: Das Ziel besteht darin, den Nutzer bei der Kalibrierung von ABS auf der Basis von unzureichenden, potentiell fehlerhaften Daten und Wissen zu unterstützen. Dabei sollen drei Hauptprobleme gelöst werden: 1)Vereinfachung der Kalibrierung großer Agenten-Parametermengen auf der Mikro- Ebene in Agenten-basierten Simulationen durch Ausnutzung der spezifischen Struktur von ABS (nämlich dem Aufbau aus einer Menge von Agentenmodellen). 2)Kalibrierung Agenten-basierter Simulationen, so dass auf allen relevanten Beobachtungsebenen valides Simulationsverhalten erzeugt wird (mindestens Mikro und Makro-Ebene). Als erschwerende Randbedingung muss die Kalibrierung unter der Voraussetzung einer Makro-Mikro-Wissenslücke durchgeführt werden. 3)Kalibrierung Agenten-basierter Simulationen auf der Mikro-Ebene unter der Voraussetzung, dass zur Kalibrierung einzelner Agentenmodelle nicht ausreichend und potentiell verfälschte Daten zur Verhaltensvalidierung zur Verfügung stehen. Hierzu wird in dieser Arbeit das sogenannte Makro-Mikro-Verfahren zur Kalibrierung von Agenten-basierten Simulationen entwickelt. Das Verfahren besteht aus einem Basisverfahren, das im Verlauf der Arbeit um verschiedene Zusatzverfahren erweitert wird. Das Makro-Mikro-Verfahren und seine Erweiterungen sollen dazu dienen, die Modellkalibrierung trotz stark verrauschter Daten und eingeschränktem Wissen über die Wirkungszusammenhänge im Originalsystem geeignet zu ermöglichen und dabei den Kalibrierungsprozess zu beschleunigen: 1) Makro-Mikro-Kalibrierungsverfahren: Das in dieser Arbeit entwickelte Makro- Mikro-Verfahren unterstützt den Nutzer durch eine kombinierte Kalibrierung auf der Mikro- und der Makro-Beobachtungsebene, die gegebenenfalls durch Zwischenebenen erweitert werden kann. Der Grundgedanke des Verfahrens besteht darin, das Kalibrierungsproblem in eines auf aggregierter Verhaltensebene und eines auf der Ebene des Mikro-Agentenverhaltens aufzuteilen. Auf der Makro-Ebene wird nach validen idealen aggregierten Verhaltensmodellen (IVM) der Agenten gesucht. Auf der Mikro-Ebene wird versucht die individuellen Modelle der Agenten auf Basis des erwünschten Gesamtverhaltens und der ermittelten IVM so zu kalibrieren, das insgesamt Simulationsverhalten entsteht, das sowohl auf Mikro- als auch auf Makro-Ebene valide ist. 2) Erweiterung 1: Robuste Kalibrierung: Um den Umgang mit potentiell verrauschten Validierungskriterien (d.h. mit verrauschten Daten über ein Originalsystem, auf denen die Validierungskriterien der Simulation beruhen) und Modellteilen während der Kalibrierung von ABS zu ermöglichen, wird eine robuste Kalibrierungstechnik zur Anwendung im Makro-Mikro-Verfahren entwickelt. 3) Erweiterung 2: Kalibrierung mit Heterogenitätssuche: Als zweite Erweiterung des Makro-Mikro-Verfahrens wird ein Verfahren entwickelt, das das Problem des unklaren Detaillierungsgrades von ABS auf der Ebene der Parameterwerte adressiert. Prinzipiell kann zwar jeder Agent unterschiedliche Parameterwerte verwenden, obwohl eine geringere Heterogenität zur Erzeugung validen Verhaltens ausreichend wäre. Die entwickelte Erweiterung versucht, während der Kalibrierung, eine geeignete Heterogenitätsausprägung für die Parameterwerte der Agenten zu ermitteln. Unter einer Heterogenitätsausprägung wird dabei eine Einteilung der simulierten Agenten in Gruppen mit jeweils gleichen Parameterwerten verstanden. Die Heterogenitätssuche dient dazu, einen Kompromiss zu finden zwischen der Notwendigkeit, sehr große Parametersuchräume durchsuchen zu müssen und gleichzeitig den Suchraum so klein wie möglich halten zu wollen.
The analysis presented in this paper applies to experimental situations where observers or objects to be studied (both stationary, with respect to each other) are located in environments the optical thickness of which is strongly different. By their large optical thickness, non-transparent media are clearly distinguished from their transparent counterparts. Non-transparent media comprise thin metallic films, packed or fluidised beds, the Earth’s crust, and even dark clouds and other cosmological objects. As a representative example, a non-transparent slab is subjected to transient disturbances, and a rigorous analysis is presented whether physical time reasonably could be constructed under such condition. The analysis incorporates mapping functions that correlate physical events, e, in non-transparent media, with their images, f(e), tentatively located on a standard physical time scale. The analysis demonstrates, however, that physical time, in its rigorous sense, does not exist under non-transparency conditions. A proof of this conclusion is attempted in three steps: i) the theorem “there is no time without space and events” is accepted, (ii) images f[e(s,t)] do not constitute a dense, uncountably infinite set, and (iii) sets of images that are not uncountably infinite do not create physical time but only time-like sequences. As a consequence, mapping f[e(s,t)] in non-transparent space does not create physical analogues to the mathematical structure of the ordered, dense half-set R+ of real numbers, and reverse mapping, f-1f[e(s,t)] would not allow unique identification and reconstruction of original events from their images. In these cases, causality and determinism, as well as invariance of physical processes under time reversal, might be violated. Existence of time holes could be possible, as follows from the sequence of images, f[e(s,t)], that is not uncountably infinite, in contrast to R+. Practical impacts are expected for understanding physical diffusion-like, radiative transfer processes, stability models to protect superconductors against quenchs or for description of their transient local pair density and critical currents. Impacts would be expected also in mathematical formulations (differential equations) of classical physics, in relativity and perhaps in quantum mechanics, all as far as transient processes in non-transparent space would be concerned. An interesting problem is whether temporal cloaking (a time hole) in a transparent medium, as very recently reported in the literature, can be explained by the present analysis. The analysis is not restricted to objects of laboratory dimensions: Because of obviously existing radiation transfer analogues, it is tempting to discuss consequences also for much larger structures in particular if an origin of time is postulated.
Die Mikrostruktur von Zirkonoxid–Aluminiumoxid Keramiken wurde im Rasterelektronenmikroskop (REM) untersucht und mittels quantitativer Bildanalyse weiter charakterisiert. Die so erhaltenen spezifischen morphologischen Kennwerte wurden mit denen, die an dreidimensionalen Modellstrukturen äquivalent gewonnen wurden, verglichen. Es wurden modifizierte Voronoistrukturen benutzt, um die beteiligten Phasen in repräsentativen Volumenelementen (RVE) auf Voxelbasis zu erzeugen. Poren wurden an den Ecken und Kanten dieser Strukturen nachträglich hinzugefüg.
Nachdem alle relevanten Kennwerte der Modellstrukturen an die realen keramischen Mikrostrukturen angepasst wurden, musste das RVE für die Finite Element Simulationen (FES) geeignet vernetzt werden. Eine einfache Übernahme der Voxelstrukturen in hexaedrische Elemente führt zu sehr langen Rechenzeiten, und die erforderliche Genauigkeit der FES konnte nicht erreicht werden. Deshalb wurde zunächst eine adaptive Oberflächenvernetzung ausgehend von einem generally classed marching tetrahedra Algorithmus erzeugt. Dabei wurde besonderer Wert auf die Beibehaltung der zuvor angepassten Kennwerte gelegt. Um die Rechenzeiten zu verkürzen ohne die Genauigkeit der FES zu beeinträchtigen, wurden die Oberflächenvernetzungen dergestalt vereinfacht, dass eine hohe Auflösung an den Ecken und Kanten der Strukturen erhalten blieb, während sie an flachen Korngrenzen stark verringert wurde. Auf Basis dieser Oberflächenvernetzung wurden Volumenvernetzungen, inklusive der Abbildung der Korngrenzen durch Volumenelemente, erzeugt und für die FES benutzt. Dazu wurde ein FE-Modell zur Simulation der Impedanzspektren aufgestellt und validiert.
Um das makroskopische elektrische Verhalten der polykristallinen Keramiken zu simulieren, mussten zunächst die elektrischen Eigenschaften der beteiligten Einzelphasen gemessen werden. Dazu wurde eine Anlage zur Impedanzspektroskopie bis 1000 °C aufgebaut und verwendet. Durch weitere Auswertung der experimentellen Daten unter besonderer Berücksichtigung der Korngrenzeffekte wurden die individuellen Phaseneigenschaften erhalten.
Die Zusammensetzung der Mischkeramiken reichte von purem Zirkonoxid (3YSZ) bis zu purem Aluminiumoxid. Es wurde eine sehr gute Übereinstimmung zwischen den experimentellen und simulierten Werten bezüglich der betrachteten elektrischen, mechanischen und thermischen Eigenschaften erreicht. Die FES wurden verwendet, um die Einflüsse verschiedener mikrostruktureller Parameter, wie Porosität, Korngröße und Komposition, auf das makroskopische Materialverhalten näher zu untersuchen.
Das Magnetfeld der Sonne ist kein einfaches statisches Dipolfeld, sondern weist
wesentlich kompliziertere Strukturen auf. Wenn Rekonnexion die Topologie eines
Feldlinienbündels verändert, wird viel Energie frei, die zuvor im Magnetfeld
gespeichert war. Das abgetrennte Bündel wird mit dem damit verbundenen Plasma
mit großer Geschwindigkeit durch die Korona
von der Sonne weg bewegen. Dieser Vorgang wird als koronaler Massenauswurf
bezeichnet. Da diese Bewegung mit Geschwindigkeiten deutlich über der
Alfv\'en-Geschwindigkeit, der kritischen Geschwindigkeit im Sonnenwind,
erfolgen kann, bildet sich eine Schockfront, die durch den Sonnenwind
propagiert.
Satelliten, die die Bedingungen im Sonnenwind beobachten, detektieren beim
Auftreten solcher Schockfronten einen erhöhten Fluss von hochenergetischen
Teilchen. Mit Radioinstrumenten empfängt man zeitgleich elektromagnetische
Phänomene, die als Radiobursts bezeichnet werden, und ebenfalls für die
Anwesenheit energiereicher Teilchen sprechen. Daher, und aufgrund von
theoretischen Überlegungen liegt es nahe, anzunehmen, daß Teilchen an der
Schockfront beschleunigt werden können.
Die Untersuchung der Teilchenbeschleunigung an kollisionsfreien Schockfronten
ist aber noch aus einem zweiten Grund interessant. Die Erde wird kontinuierlich
von hochenergetischen Teilchen, die aus historischen Gründen als kosmische
Strahlung bezeichnet werden, erreicht. Die gängige Theorie für deren Herkunft
besagt, daß zumindest der galaktische Anteil durch die Beschleunigung an
Schockfronten, die durch Supernovae ausgelöst wurden, bis zu den beobachteten
hohen Energien gelangt sind. Das Problem bei der Untersuchung der Herkunft der
kosmischen Strahlung ist jedoch, daß die Schockfronten um Supernovaüberreste
aufgrund der großen Entfernung nicht direkt beobachtbar sind.
Es liegt dementsprechend nahe, die Schockbeschleunigung an den wesentlich
näheren und besser zu beobachtenden Schocks im Sonnensystem zu studieren, um so
Modelle und Simulationen entwickeln und testen zu können.
Die vorliegende Arbeit beschäftigt sich daher mit Simulationen von
Schockfronten mit Parametern, die etwa denen von CME getriebenen Schocks
entsprechen. Um die Entwicklung der Energieverteilung der Teilchen zu studieren,
ist ein kinetischer Ansatz nötig. Dementsprechend wurden die Simulationen mit
einem Particle-in-Cell Code durchgeführt. Die Herausforderung ist dabei die
große Spanne zwischen den mikrophysikalischen Zeit- und Längenskalen, die aus
Gründen der Genauigkeit und numerischen Stabilität aufgelöst werden müssen und
den wesentlich größeren Skalen, die die Schockfront umfasst und auf der
Teilchenbeschleunigung stattfindet.
Um die Stabilität und physikalische Aussagekraft der Simulationen
sicherzustellen, werden die numerischen Bausteine mittels Testfällen, deren
Verhalten bekannt ist, gründlich auf ihre Tauglichkeit und korrekte
Implementierung geprüft.
Bei den resultierenden Simulationen wird das Zutreffen von analytischen
Vorhersagen (etwa die Einhaltung der Sprungbedingungen) überprüft. Auch die
Vorhersagen einfacherer Plasmamodelle, etwa für das elektrostatischen
Potential an der Schockfront, das man auch aus einer Zwei-Fluid-Beschreibung
erhalten kann, folgen automatisch aus der selbstkonsistenten, kinetischen
Beschreibung. Zusätzlich erhält man Aussagen über das Spektrum und die Bahnen
der beschleunigten Teilchen.
In this thesis two main projects are presented, both aiming at the overall goal
of particle detector development. In the first part of the thesis detailed shielding
studies are discussed, focused on the shielding section of the planned New Small
Wheel as part of the ATLAS detector upgrade. Those studies supported the discussions
within the upgrade community and decisions made on the final design of
the New Small Wheel. The second part of the thesis covers the design, construction
and functional demonstration of a test facility for gaseous detectors at the
University of Würzburg. Additional studies on the trigger system of the facility are
presented. Especially the precision and reliability of reference timing signals were
investigated.
Röntgencomputertomographie (CT) hat in ihrer industriellen Anwendung ein sehr breites Spektrum möglicher Prüfobjekte. Ziel einer CT-Messung sind dreidimensionale Abbilder der Verteilung des Schwächungskoeffizienten der Objekte mit möglichst großer Genauigkeit. Die Parametrierung eines CT-Systems für ein optimales Messergebnis hängt stark vom zu untersuchenden Objekt ab. Eine Vorhersage der optimalen Parameter muss die physikalischen Wechselwirkungen mit Röntgenstrahlung des Objektes und des CT-Systems berücksichtigen. Die vorliegende Arbeit befasst sich damit, diese Wechselwirkungen zu modellieren und mit der Möglichkeit den Prozess zur Parametrierung anhand von Gütemaßen zu automatisieren. Ziel ist eine simulationsgetriebene, automatische Parameteroptimierungsmethode, welche die Objektabhängigkeit berücksichtigt. Hinsichtlich der Genauigkeit und der Effizienz wird die bestehende Röntgensimulationsmethodik erweitert. Es wird ein Ansatz verfolgt, der es ermöglicht, die Simulation eines CT-Systems auf reale Systeme zu kalibrieren. Darüber hinaus wird ein Modell vorgestellt, welches zur Berechnung der zweiten Ordnung der Streustrahlung im Objekt dient. Wegen des analytischen Ansatzes kann dabei auf eine Monte-Carlo Methode verzichtet werden. Es gibt in der Literatur bisher keine eindeutige Definition für die Güte eines CT-Messergebnisses. Eine solche Definition wird, basierend auf der Informationstheorie von Shannon, entwickelt. Die Verbesserungen der Simulationsmethodik sowie die Anwendung des Gütemaßes zur simulationsgetriebenen Parameteroptimierung werden in Beispielen erfolgreich angewendet beziehungsweise mittels Referenzmethoden validiert.
A complete simulation system is proposed that can be used as an educational tool by physicians in training basic skills of Minimally Invasive Vascular Interventions. In the first part, a surface model is developed to assemble arteries having a planar segmentation. It is based on Sweep Surfaces and can be extended to T- and Y-like bifurcations. A continuous force vector field is described, representing the interaction between the catheter and the surface. The computation time of the force field is almost unaffected when the resolution of the artery is increased.
The mechanical properties of arteries play an essential role in the study of the circulatory system dynamics, which has been becoming increasingly important in the treatment of cardiovascular diseases. In Virtual Reality Simulators, it is crucial to have a tissue model that responds in real time. In this work, the arteries are discretized by a two dimensional mesh and the nodes are connected by three kinds of linear springs. Three tissue layers (Intima, Media, Adventitia) are considered and, starting from the stretch-energy density, some of the elasticity tensor components are calculated. The physical model linearizes and homogenizes the material response, but it still contemplates the geometric nonlinearity. In general, if the arterial stretch varies by 1% or less, then the agreement between the linear and nonlinear models is trustworthy.
In the last part, the physical model of the wire proposed by Konings is improved. As a result, a simpler and more stable method is obtained to calculate the equilibrium configuration of the wire. In addition, a geometrical method is developed to perform relaxations. It is particularly useful when the wire is hindered in the physical method because of the boundary conditions. The physical and the geometrical methods are merged, resulting in efficient relaxations. Tests show that the shape of the virtual wire agrees with the experiment. The proposed algorithm allows real-time executions and the hardware to assemble the simulator has a low cost.
In mammals, anucleate platelets circulate in the blood flow and are primarily responsible for maintaining functional hemostasis. Platelets are generated in the bone marrow (BM) by megakaryocytes (MKs), which mainly reside directly next to the BM sinusoids to release proplatelets into the blood. MKs originate from hematopoietic stem cells and are thought to migrate from the endosteal to the vascular niche during their maturation, a process, which is, despite being intensively investigated, still not fully understood.
Long-term intravital two photon microscopy (2PM) of MKs and vasculature in murine bone marrow was performed and mean squared displacement analysis of cell migration was performed. The MKs exhibited no migration, but wobbling-like movement on time scales of 3 h. Directed cell migration always results in non-random spatial distribution. Thus, a computational modelling algorithm simulating random MK distribution using real 3D light-sheet fluorescence microscopy data sets was developed. Direct comparison of real and simulated random MK distributions showed, that MKs exhibit a strong bias to vessel-contact. However, this bias is not caused by cell migration, as non-vessel-associated MKs were randomly distributed in the intervascular space. Furthermore, simulation studies revealed that MKs strongly impair migration of other cells in the bone marrow by acting as large-sized obstacles. MKs are thought to migrate from the regions close to the endosteum towards the vasculature during their maturation process. MK distribution as a function of their localization relative to the endosteal regions of the bones was investigated by light sheet fluorescence microscopy (LSFM). The results show no bone-region dependent distribution of MKs. Taken together, the newly established methods and obtained results refute the model of MK migration during their maturation.
Ischemia reperfusion (I/R) injury is a frequent complication of cerebral ischemic stroke, where brain tissue damage occurs despite successful recanalization. Platelets, endothelial cells and immune cells have been demonstrated to affect the progression of I/R injury in experimental mouse models 24 h after recanalization. However, the underlying Pathomechanisms, especially in the first hours after recanalization, are poorly understood.
Here, LSFM, 2PM and complemental advanced image analysis workflows were established for investigation of platelets, the vasculature and neutrophils in ischemic brains. Quantitative analysis of thrombus formation in the ipsilateral and contralateral hemispheres at different time points revealed that platelet aggregate formation is minimal during the first 8 h after recanalization and occurs in both hemispheres. Considering that maximal tissue damage already is present at this time point, it can be concluded that infarct progression and neurological damage do not result from platelet aggregated formation. Furthermore, LSFM allowed to confirm neutrophil infiltration into the infarcted hemisphere and, here, the levels of endothelial cell marker PECAM1 were strongly reduced. However, further investigations must be carried out to clearly identify the role of neutrophils and the endothelial cells in I/R injury.