Refine
Has Fulltext
- yes (20)
Is part of the Bibliography
- yes (20)
Year of publication
Document Type
- Doctoral Thesis (16)
- Journal article (2)
- Master Thesis (1)
- Preprint (1)
Keywords
- Computersimulation (20) (remove)
Institute
- Physikalisches Institut (6)
- Institut für Informatik (3)
- Institut für Theoretische Physik und Astrophysik (3)
- Theodor-Boveri-Institut für Biowissenschaften (2)
- Volkswirtschaftliches Institut (2)
- Graduate School of Life Sciences (1)
- Graduate School of Science and Technology (1)
- Institut für Psychologie (1)
- Institut für Psychologie (bis Sept. 2007) (1)
- Medizinische Klinik (bis 2004) (1)
Sonstige beteiligte Institutionen
A complete simulation system is proposed that can be used as an educational tool by physicians in training basic skills of Minimally Invasive Vascular Interventions. In the first part, a surface model is developed to assemble arteries having a planar segmentation. It is based on Sweep Surfaces and can be extended to T- and Y-like bifurcations. A continuous force vector field is described, representing the interaction between the catheter and the surface. The computation time of the force field is almost unaffected when the resolution of the artery is increased.
The mechanical properties of arteries play an essential role in the study of the circulatory system dynamics, which has been becoming increasingly important in the treatment of cardiovascular diseases. In Virtual Reality Simulators, it is crucial to have a tissue model that responds in real time. In this work, the arteries are discretized by a two dimensional mesh and the nodes are connected by three kinds of linear springs. Three tissue layers (Intima, Media, Adventitia) are considered and, starting from the stretch-energy density, some of the elasticity tensor components are calculated. The physical model linearizes and homogenizes the material response, but it still contemplates the geometric nonlinearity. In general, if the arterial stretch varies by 1% or less, then the agreement between the linear and nonlinear models is trustworthy.
In the last part, the physical model of the wire proposed by Konings is improved. As a result, a simpler and more stable method is obtained to calculate the equilibrium configuration of the wire. In addition, a geometrical method is developed to perform relaxations. It is particularly useful when the wire is hindered in the physical method because of the boundary conditions. The physical and the geometrical methods are merged, resulting in efficient relaxations. Tests show that the shape of the virtual wire agrees with the experiment. The proposed algorithm allows real-time executions and the hardware to assemble the simulator has a low cost.
In der vorliegenden Arbeit wird das Problem der Kalibrierung Agenten-basierter Simulationen (ABS) behandelt, also das Problem, die Parameterwerte eines Agenten-basierten Simulationsmodells so einzustellen, dass valides Simulationsverhalten erreicht wird. Das Kalibrierungsproblem für Simulationen an sich ist nicht neu und ist im Rahmen klassischer Simulationsparadigmen, wie z.B. der Makro-Simulation, fester Bestandteil der Forschung. Im Vergleich zu den dort betrachteten Kalibrierungsproblemen zeichnet sich das Kalibrierungsproblem für ABS jedoch durch eine Reihe zusätzlicher Herausforderungen aus, welche die direkte Anwendung existierender Kalibrierungsverfahren in begrenzter Zeit erschweren, bzw. nicht mehr sinnvoll zulassen. Die Lösung dieser Probleme steht im Zentrum dieser Dissertation: Das Ziel besteht darin, den Nutzer bei der Kalibrierung von ABS auf der Basis von unzureichenden, potentiell fehlerhaften Daten und Wissen zu unterstützen. Dabei sollen drei Hauptprobleme gelöst werden: 1)Vereinfachung der Kalibrierung großer Agenten-Parametermengen auf der Mikro- Ebene in Agenten-basierten Simulationen durch Ausnutzung der spezifischen Struktur von ABS (nämlich dem Aufbau aus einer Menge von Agentenmodellen). 2)Kalibrierung Agenten-basierter Simulationen, so dass auf allen relevanten Beobachtungsebenen valides Simulationsverhalten erzeugt wird (mindestens Mikro und Makro-Ebene). Als erschwerende Randbedingung muss die Kalibrierung unter der Voraussetzung einer Makro-Mikro-Wissenslücke durchgeführt werden. 3)Kalibrierung Agenten-basierter Simulationen auf der Mikro-Ebene unter der Voraussetzung, dass zur Kalibrierung einzelner Agentenmodelle nicht ausreichend und potentiell verfälschte Daten zur Verhaltensvalidierung zur Verfügung stehen. Hierzu wird in dieser Arbeit das sogenannte Makro-Mikro-Verfahren zur Kalibrierung von Agenten-basierten Simulationen entwickelt. Das Verfahren besteht aus einem Basisverfahren, das im Verlauf der Arbeit um verschiedene Zusatzverfahren erweitert wird. Das Makro-Mikro-Verfahren und seine Erweiterungen sollen dazu dienen, die Modellkalibrierung trotz stark verrauschter Daten und eingeschränktem Wissen über die Wirkungszusammenhänge im Originalsystem geeignet zu ermöglichen und dabei den Kalibrierungsprozess zu beschleunigen: 1) Makro-Mikro-Kalibrierungsverfahren: Das in dieser Arbeit entwickelte Makro- Mikro-Verfahren unterstützt den Nutzer durch eine kombinierte Kalibrierung auf der Mikro- und der Makro-Beobachtungsebene, die gegebenenfalls durch Zwischenebenen erweitert werden kann. Der Grundgedanke des Verfahrens besteht darin, das Kalibrierungsproblem in eines auf aggregierter Verhaltensebene und eines auf der Ebene des Mikro-Agentenverhaltens aufzuteilen. Auf der Makro-Ebene wird nach validen idealen aggregierten Verhaltensmodellen (IVM) der Agenten gesucht. Auf der Mikro-Ebene wird versucht die individuellen Modelle der Agenten auf Basis des erwünschten Gesamtverhaltens und der ermittelten IVM so zu kalibrieren, das insgesamt Simulationsverhalten entsteht, das sowohl auf Mikro- als auch auf Makro-Ebene valide ist. 2) Erweiterung 1: Robuste Kalibrierung: Um den Umgang mit potentiell verrauschten Validierungskriterien (d.h. mit verrauschten Daten über ein Originalsystem, auf denen die Validierungskriterien der Simulation beruhen) und Modellteilen während der Kalibrierung von ABS zu ermöglichen, wird eine robuste Kalibrierungstechnik zur Anwendung im Makro-Mikro-Verfahren entwickelt. 3) Erweiterung 2: Kalibrierung mit Heterogenitätssuche: Als zweite Erweiterung des Makro-Mikro-Verfahrens wird ein Verfahren entwickelt, das das Problem des unklaren Detaillierungsgrades von ABS auf der Ebene der Parameterwerte adressiert. Prinzipiell kann zwar jeder Agent unterschiedliche Parameterwerte verwenden, obwohl eine geringere Heterogenität zur Erzeugung validen Verhaltens ausreichend wäre. Die entwickelte Erweiterung versucht, während der Kalibrierung, eine geeignete Heterogenitätsausprägung für die Parameterwerte der Agenten zu ermitteln. Unter einer Heterogenitätsausprägung wird dabei eine Einteilung der simulierten Agenten in Gruppen mit jeweils gleichen Parameterwerten verstanden. Die Heterogenitätssuche dient dazu, einen Kompromiss zu finden zwischen der Notwendigkeit, sehr große Parametersuchräume durchsuchen zu müssen und gleichzeitig den Suchraum so klein wie möglich halten zu wollen.
Im Physikunterricht wurde lange Zeit die Bedeutung quantitativer Zusammenhänge für das Physiklernen überbewertet, qualitative Zusammenhänge spielten dagegen eine eher untergeordnete Rolle. Dies führte dazu, dass das Wissen der Schüler zumeist oberflächlich blieb und nicht auf neue Situationen angewendet werden konnte. TIMSS und Pisa offenbarten diese Schwierigkeiten. In den Abschlussberichten wurde kritisiert, dass die Schüler kaum in der Lage seien, Lernstoff zu transferieren oder problemlösend zu denken. Um physikalische Abläufe deuten und entsprechende Probleme lösen zu können, ist qualitativ-konzeptuelles Wissen nötig. Dieses kann, wie Forschungsergebnisse belegen, am besten durch die konstruktivistisch motivierte Gestaltung von Lernsituationen sowie durch die Integration externer Repräsentationen von Versuchsaussagen in den Schulunterricht erreicht werden. Eine konkrete Umsetzung dieser Bedingungen stellt der Einsatz rechnergestützter Experimente dar, der heutzutage ohne allzu großen technischen Aufwand realisiert werden kann. Diese Experimente erleichtern es dem Lernenden, durch den direkten Umgang mit realen Abläufen, physikalische Konzepte zu erschließen und somit qualitative Zusammenhänge zu verstehen. Während man lange Zeit von einer grundsätzlichen Lernwirksamkeit animierter Lernumgebungen ausging, zeigen dagegen neuere Untersuchungen eher Gegenteiliges auf. Schüler müssen offensichtlich erst lernen, wie mit multicodierten Repräsentationen zu arbeiten ist. Die vorliegende Arbeit will einen Beitrag dazu leisten, herauszufinden, wie lernwirksam sogenannte dynamisch-ikonische Repräsentationen (DIR) sind, die physikalische Größen vor dem Hintergrund konkreter Versuchsabläufe visualisieren. Dazu bearbeiteten im Rahmen einer DFG-Studie insgesamt 110 Schüler jeweils 16 Projekte, in denen mechanische Konzepte (Ort, Geschwindigkeit, Beschleunigung und Kraft) aufgegriffen wurden. Es zeigte sich, dass die Probanden mit den eingesetzten DIR nicht erfolgreicher lernen konnten als vergleichbare Schüler, die die gleichen Lerninhalte ohne die Unterstützung der DIR erarbeiteten. Im Gegenteil: Schüler mit einem geringen visuellen Vorstellungsvermögen schnitten aufgrund der Darbietung einer zusätzlichen Codierung schlechter ab als ihre Mitschüler. Andererseits belegen Untersuchungen von Blaschke, dass solche Repräsentationen in der Erarbeitungsphase einer neu entwickelten Unterrichtskonzeption auch und gerade von schwächeren Schülern konstruktiv zum Wissenserwerb genutzt werden konnten. Es scheint also, dass die Lerner zunächst Hilfe beim Umgang mit neuartigen Repräsentationsformen benötigen, bevor sie diese für den weiteren Aufbau adäquater physikalischer Modelle nutzen können. Eine experimentelle Untersuchung mit Schülern der 10. Jahrgangsstufe bestätigte diese Vermutung. Hier lernten 24 Probanden in zwei Gruppen die mechanischen Konzepte zu Ort, Geschwindigkeit und Beschleunigung kennen, bevor sie im Unterricht behandelt wurden. Während die Teilnehmer der ersten Gruppe nur die Simulationen von Bewegungsabläufen und die zugehörigen Liniendiagramme sahen, wurden für die zweite Gruppe unterstützend DIR eingesetzt, die den Zusammenhang von Bewegungsablauf und Liniendiagramm veranschaulichen sollten. In beiden Gruppen war es den Probanden möglich, Fragen zu stellen und Hilfe von einem Tutor zu erhalten. Die Ergebnisse zeigten auf, dass es den Schülern durch diese Maßnahme ermöglicht wurde, die DIR erfolgreich zum Wissenserwerb einzusetzen und signifikant besser abzuschneiden als die Teilnehmer in der Kontrollgruppe. In einer weiteren Untersuchung wurde abschließend der Frage nachgegangen, ob DIR unter Anleitung eines Tutors eventuell bereits in der Unterstufe sinnvoll eingesetzt werden können. Ausgangspunkt dieser Überlegung war die Tatsache, dass mit der Einführung des neuen bayerischen G8-Lehrplans wesentliche Inhalte, die Bestandteil der vorherigen Untersuchungen waren, aus dem Physikunterricht der 11. Jgst. in die 7. Jahrgangsstufe verlegt wurden. So bot es sich an, mit den Inhalten auch die DIR in der Unterstufe einzusetzen. Die Untersuchungen einer quasiexperimentellen Feldstudie in zwei siebten Klassen belegten, dass die betrachteten Repräsentationen beim Aufbau entsprechender Konzepte keinesfalls hinderlich, sondern sogar förderlich sein dürften. Denn die Schülergruppe, die mit Hilfe der DIR lernte, schnitt im direkten hypothesenprüfenden Vergleich mit der Kontrollklasse deutlich besser ab. Ein Kurztest, der die Nachhaltigkeit des Gelernten nach etwa einem Jahr überprüfen sollte, zeigte zudem auf, dass die Schüler der DIR-Gruppe die Konzepte, die unter Zuhilfenahme der DIR erarbeitet wurden, im Vergleich zu Schülern der Kontrollklasse und zu Schülern aus 11. Klassen insgesamt überraschend gut verstanden und behalten hatten.
In mammals, anucleate platelets circulate in the blood flow and are primarily responsible for maintaining functional hemostasis. Platelets are generated in the bone marrow (BM) by megakaryocytes (MKs), which mainly reside directly next to the BM sinusoids to release proplatelets into the blood. MKs originate from hematopoietic stem cells and are thought to migrate from the endosteal to the vascular niche during their maturation, a process, which is, despite being intensively investigated, still not fully understood.
Long-term intravital two photon microscopy (2PM) of MKs and vasculature in murine bone marrow was performed and mean squared displacement analysis of cell migration was performed. The MKs exhibited no migration, but wobbling-like movement on time scales of 3 h. Directed cell migration always results in non-random spatial distribution. Thus, a computational modelling algorithm simulating random MK distribution using real 3D light-sheet fluorescence microscopy data sets was developed. Direct comparison of real and simulated random MK distributions showed, that MKs exhibit a strong bias to vessel-contact. However, this bias is not caused by cell migration, as non-vessel-associated MKs were randomly distributed in the intervascular space. Furthermore, simulation studies revealed that MKs strongly impair migration of other cells in the bone marrow by acting as large-sized obstacles. MKs are thought to migrate from the regions close to the endosteum towards the vasculature during their maturation process. MK distribution as a function of their localization relative to the endosteal regions of the bones was investigated by light sheet fluorescence microscopy (LSFM). The results show no bone-region dependent distribution of MKs. Taken together, the newly established methods and obtained results refute the model of MK migration during their maturation.
Ischemia reperfusion (I/R) injury is a frequent complication of cerebral ischemic stroke, where brain tissue damage occurs despite successful recanalization. Platelets, endothelial cells and immune cells have been demonstrated to affect the progression of I/R injury in experimental mouse models 24 h after recanalization. However, the underlying Pathomechanisms, especially in the first hours after recanalization, are poorly understood.
Here, LSFM, 2PM and complemental advanced image analysis workflows were established for investigation of platelets, the vasculature and neutrophils in ischemic brains. Quantitative analysis of thrombus formation in the ipsilateral and contralateral hemispheres at different time points revealed that platelet aggregate formation is minimal during the first 8 h after recanalization and occurs in both hemispheres. Considering that maximal tissue damage already is present at this time point, it can be concluded that infarct progression and neurological damage do not result from platelet aggregated formation. Furthermore, LSFM allowed to confirm neutrophil infiltration into the infarcted hemisphere and, here, the levels of endothelial cell marker PECAM1 were strongly reduced. However, further investigations must be carried out to clearly identify the role of neutrophils and the endothelial cells in I/R injury.
The optimal probability and distance of dispersal largely depend on the risk to end up in unsuitable habitat. This risk is highest close to the habitat’s edge and consequently, optimal dispersal probability and distance should decline towards the habitat’s border. This selection should lead to the emergence of spatial gradients in dispersal strategies. However, gene flow caused by dispersal itself is counteracting local adaptation. Using an individual based model we investigate the evolution of local adaptations of dispersal probability and distance within a single, circular, habitat patch. We compare evolved dispersal probabilities and distances for six different dispersal kernels (two negative exponential kernels, two skewed kernels, nearest neighbour dispersal and global dispersal) in patches of different size. For all kernels a positive correlation between patch size and dispersal probability emerges. However, a minimum patch size is necessary to allow for local adaptation of dispersal strategies within patches. Beyond this minimum patch area the difference in mean dispersal distance between center and edge increases linearly with patch radius, but the intensity of local adaptation depends on the dispersal kernel. Except for global and nearest neighbour dispersal, the evolved spatial pattern are qualitatively similar for both, mean dispersal probability and distance. We conclude, that inspite of the gene-flow originating from dispersal local adaptation of dispersal strategies is possible if a habitat is of sufficient size. This presumably holds for any realistic type of dispersal kernel.
Encoding Redundancy for Task-dependent Optimal Control : A Neural Network Model of Human Reaching
(2008)
The human motor system is adaptive in two senses. It adapts to the properties of the body to enable effective control. It also adapts to different situational requirements and constraints. This thesis proposes a new neural network model of both kinds of adaptivity for the motor cortical control of human reaching movements, called SURE_REACH (sensorimotor unsupervised learning redundancy resolving control architecture). In this neural network approach, the kinematic and sensorimotor redundancy of a three-joint planar arm is encoded in task-independent internal models by an unsupervised learning scheme. Before a movement is executed, the neural networks prepare a movement plan from the task-independent internal models, which flexibly incorporates external, task-specific constraints. The movement plan is then implemented by proprioceptive or visual closed-loop control. This structure enables SURE_REACH to reach hand targets while incorporating task-specific contraints, for example adhering to kinematic constraints, anticipating the demands of subsequent movements, avoiding obstacles, or reducing the motion of impaired joints. Besides this functionality, the model accounts for temporal aspects of human reaching movements or for data from priming experiments. Additionally, the neural network structure reflects properties of motor cortical networks like interdependent population encoded body space representations, recurrent connectivity, or associative learning schemes. This thesis introduces and describes the new model, relates it to current computational models, evaluates its functionality, relates it to human behavior and neurophysiology, and finally discusses potential extensions as well as the validity of the model. In conclusion, the proposed model grounds highly flexible task-dependent behavior in a neural network framework and unsupervised sensorimotor learning.
We model Milky Way like isolated disk galaxies in high resolution three-dimensional hydrodynamical simulations with the adaptive mesh refinement code Enzo. The model galaxies include a dark matter halo and a disk of gas and stars. We use a simple implementation of sink particles to measure and follow collapsing gas, and simulate star formation as well as stellar feedback in some cases. We investigate two largely different realizations of star formation. Firstly, we follow the classical approach to transform cold, dense gas into stars with an fixed efficiency. These kind of simulations are known to suffer from an overestimation of star formation and we observe this behavior as well. Secondly, we use our newly developed FEARLESS approach to combine hydrodynamical simulations with a semi-analytic modeling of unresolved turbulence and use this technique to dynamically determine the star formation rate. The subgrid-scale turbulence regulated star formation simulations point towards largely smaller star formation efficiencies and henceforth more realistic overall star formation rates. More work is necessary to extend this method to account for the observed highly supersonic turbulence in molecular clouds and ultimately use the turbulence regulated algorithm to simulate observed star formation relations.
Die vorliegende Arbeit ist in zwei Teile gegliedert, von denen der erste Teil den theoretischen Hintergrund und empirische Befunde zum Thema „Komplexes Problemlösen“ behandelt. Der zweite Teil beinhaltet Methodik und Ergebnisse der durchgeführten Untersuchung. Nach der Einleitung in Kapitel 1 werden in Kapitel 2 die „Grundkonzepte des Komplexen Problemlösens“ vorgestellt, wobei mit der Abgrenzung des Bereichs „Komplexes Problemlösen“ begonnen wird. Anschließend werden die Eigenschaften von komplexen Systemen und deren Anforderungen an Problemlöser beschrieben, wobei die Taxonomie1 von Dörner et al. (1994) zugrunde gelegt wird. In Kapitel 3 werden Modelle der Wissensrepräsentation und des Problemlösens vorgestellt. Dabei wird der Begriff der „Strategie“ diskutiert und im Zusammenhang mit verschiedenen allgemeinen Modellen des Problemlösens erläutert. Kapitel 4 behandelt das Konzept „Delegation“. Delegation wird in dieser Arbeit als Methode verwendet, um Versuchspersonen zur Formalisierung ihrer Strategien zu bewegen, wobei sie die Ausführung der Strategien gleichzeitig beobachten können. Es werden vor allem Befunde aus der Organisationspsychologie und Unternehmensführung berichtet und die Anwendung von Delegation in der Interaktion zwischen Mensch und künstlichem Agent erörtert. In Kapitel 5 werden Waldbrandsimulationen behandelt. Diese zählen zu den klassischen Simulationen, die zur Untersuchung von Komplexem Problemlösen verwendet werden. Zuerst wird auf computergestützte Simulation im Allgemeinen eingegangen, wobei Unterschiede zu traditionellen Untersuchungsmethoden angesprochen werden. Dabei wird auch die Bedeutung der Multiagentensimulation für die Komplexe Problemlöseforschung hervorgehoben. Anschließend wird Feuerverhalten und Feuerbekämpfung als Vorbild für Waldbrandsimulationen erläutert. Dadurch können sowohl Anhaltspunkte zur Beurteilung der Plausibilität als auch für die Implementierung einer Waldbrandsimulation gewonnen werden. Im Anschluss daran werden drei bekannte Beispiele für Waldbrandsimulationen vorgestellt, wobei auch auf domänen- bzw. simulationsspezifische Strategien eingegangen wird. In Kapitel 6 wird ein Überblick über verschiedene empirische Befunde aus dem Bereich des Komplexen Problemlösens gegeben. Diese betreffen sowohl Eigenschaften von komplexen Systemen als auch Merkmale des Problemlösers. In Kapitel 7 werden die wichtigsten Kritikpunkte und Probleme, mit denen die Komplexe Problemlöseforschung zu kämpfen hat, zusammengefasst. Die konkreten Fragestellungen der Untersuchung werden in Kapitel 8 vorgestellt, wobei Kapitel 9 und 10 erläutern, mit welcher Methodik diese Fragen untersucht werden. In diesem Zusammenhang wird auch die Simulationsumgebung SeSAm vorgestellt. Im folgenden Kapitel 11 wird auf die Eigenschaften der implementierten Waldbrandsimulation eingegangen. Kapitel 12 beschreibt den Aufbau und Ablauf der Untersuchung, mit der die Daten gewonnen werden, die in Kapitel 13 berichtet werden. Eine Diskussion der Befunde im Hinblick auf die Fragestellungen und ihre Bedeutung für die zukünftige Forschung erfolgt in Kapitel 14.
Die elektrophysiologischen Vorgänge während der Depolarisation und Repolarisation des Myokards können mittels der Signale des 12-Kanal EKGs selbst bei Vorliegen großen Expertenwissens nur unzureichend beobachtet bzw. interpretiert werden. Grund hierfür sind vor allen Dingen Inhomogenitäten in der kardialen und thorakalen elektrischen Leitfähigkeit sowie die starke Signalabschwächung in den durchlaufenen Geweben. Intrakardiale Verfahren der Signalableitung sind ein Ansatz zu Lösung dieses Problems; sie sind jedoch aufwändig und risikobehaftet. In dem in dieser Arbeit eingesetzten Verfahren hingegen konnte, durch patientenindividuelle Modellierung der Herz- und Thoraxanatomie sowie der Leitfähigkeitsverhältnisse, mittels numerischer Verfahren aus einer Vielzahl von Oberflächen-EKG Ableitungen auf die elektrophysiologischen Vorgänge im Myokard in ihrem zeitlichen und örtlichen Verlauf geschlossen werden (Inverses Problem der Elektrokardiographie). Es konnten bei gesunden Probanden sowie bei Patienten mit verschiedenen kardialen Pathologien zeitlich und örtlich hochaufgelöste Rekonstruktionen von epikardialen- und Transmembranpotentialverteilungen angefertigt werden. Es zeigte sich, dass insbesondere im Bereich großer Infarktnarben der Herzvorder- sowie der Herzhinterwand elektrophysiologische Auffälligkeiten nachweisbar waren. So zeigten sich während der Depolarisationsphase Myokardareale mit einer verminderten Aktivität und Polarisationsumkehr, Bezirke mit verzögerter Depolarisationsaktivität sowie Areale mit atypisch verlaufender Repolarisationsaktivität. Anhand der vorliegenden Ergebnisse konnte gezeigt werden, dass eine Rekonstruktion der physiologischen Abläufe im Myokard während der Depolarisation und der Repolarisation mit dem hierzu implementierten Verfahren möglich ist. Anhand von elektroanatomischen Modellen konnten darüber hinaus die physiologische sowie die pathologisch veränderte Erregungsausbreitung im Myokard simuliert werden. Durch Verbesserung der Rekonstruktionsalgorithmen, der Methoden der Signalverarbeitung und der Regularisierung der Lösungsverfahren ist zukünftig eine weitere Verbesserung der Rekonstruktionsergebnisse zu erwarten. Vor dem klinischen Einsatz der Methode muss eine eingehende Validation erfolgen.
Das Magnetfeld der Sonne ist kein einfaches statisches Dipolfeld, sondern weist
wesentlich kompliziertere Strukturen auf. Wenn Rekonnexion die Topologie eines
Feldlinienbündels verändert, wird viel Energie frei, die zuvor im Magnetfeld
gespeichert war. Das abgetrennte Bündel wird mit dem damit verbundenen Plasma
mit großer Geschwindigkeit durch die Korona
von der Sonne weg bewegen. Dieser Vorgang wird als koronaler Massenauswurf
bezeichnet. Da diese Bewegung mit Geschwindigkeiten deutlich über der
Alfv\'en-Geschwindigkeit, der kritischen Geschwindigkeit im Sonnenwind,
erfolgen kann, bildet sich eine Schockfront, die durch den Sonnenwind
propagiert.
Satelliten, die die Bedingungen im Sonnenwind beobachten, detektieren beim
Auftreten solcher Schockfronten einen erhöhten Fluss von hochenergetischen
Teilchen. Mit Radioinstrumenten empfängt man zeitgleich elektromagnetische
Phänomene, die als Radiobursts bezeichnet werden, und ebenfalls für die
Anwesenheit energiereicher Teilchen sprechen. Daher, und aufgrund von
theoretischen Überlegungen liegt es nahe, anzunehmen, daß Teilchen an der
Schockfront beschleunigt werden können.
Die Untersuchung der Teilchenbeschleunigung an kollisionsfreien Schockfronten
ist aber noch aus einem zweiten Grund interessant. Die Erde wird kontinuierlich
von hochenergetischen Teilchen, die aus historischen Gründen als kosmische
Strahlung bezeichnet werden, erreicht. Die gängige Theorie für deren Herkunft
besagt, daß zumindest der galaktische Anteil durch die Beschleunigung an
Schockfronten, die durch Supernovae ausgelöst wurden, bis zu den beobachteten
hohen Energien gelangt sind. Das Problem bei der Untersuchung der Herkunft der
kosmischen Strahlung ist jedoch, daß die Schockfronten um Supernovaüberreste
aufgrund der großen Entfernung nicht direkt beobachtbar sind.
Es liegt dementsprechend nahe, die Schockbeschleunigung an den wesentlich
näheren und besser zu beobachtenden Schocks im Sonnensystem zu studieren, um so
Modelle und Simulationen entwickeln und testen zu können.
Die vorliegende Arbeit beschäftigt sich daher mit Simulationen von
Schockfronten mit Parametern, die etwa denen von CME getriebenen Schocks
entsprechen. Um die Entwicklung der Energieverteilung der Teilchen zu studieren,
ist ein kinetischer Ansatz nötig. Dementsprechend wurden die Simulationen mit
einem Particle-in-Cell Code durchgeführt. Die Herausforderung ist dabei die
große Spanne zwischen den mikrophysikalischen Zeit- und Längenskalen, die aus
Gründen der Genauigkeit und numerischen Stabilität aufgelöst werden müssen und
den wesentlich größeren Skalen, die die Schockfront umfasst und auf der
Teilchenbeschleunigung stattfindet.
Um die Stabilität und physikalische Aussagekraft der Simulationen
sicherzustellen, werden die numerischen Bausteine mittels Testfällen, deren
Verhalten bekannt ist, gründlich auf ihre Tauglichkeit und korrekte
Implementierung geprüft.
Bei den resultierenden Simulationen wird das Zutreffen von analytischen
Vorhersagen (etwa die Einhaltung der Sprungbedingungen) überprüft. Auch die
Vorhersagen einfacherer Plasmamodelle, etwa für das elektrostatischen
Potential an der Schockfront, das man auch aus einer Zwei-Fluid-Beschreibung
erhalten kann, folgen automatisch aus der selbstkonsistenten, kinetischen
Beschreibung. Zusätzlich erhält man Aussagen über das Spektrum und die Bahnen
der beschleunigten Teilchen.