Refine
Has Fulltext
- yes (20)
Is part of the Bibliography
- yes (20)
Year of publication
Document Type
- Doctoral Thesis (16)
- Journal article (2)
- Master Thesis (1)
- Preprint (1)
Keywords
- Computersimulation (20) (remove)
Institute
- Physikalisches Institut (6)
- Institut für Informatik (3)
- Institut für Theoretische Physik und Astrophysik (3)
- Theodor-Boveri-Institut für Biowissenschaften (2)
- Volkswirtschaftliches Institut (2)
- Graduate School of Life Sciences (1)
- Graduate School of Science and Technology (1)
- Institut für Psychologie (1)
- Institut für Psychologie (bis Sept. 2007) (1)
- Medizinische Klinik (bis 2004) (1)
Sonstige beteiligte Institutionen
Aktivitätsbasierte Verhaltensmodellierung und ihre Unterstützung bei Multiagentensimulationen
(2000)
Durch Zusammenführung traditioneller Methoden zur individuenbasierten Simulation und dem Konzept der Multiagentensysteme steht mit der Multiagentensimulation eine Methodik zur Verfügung, die es ermöglicht, sowohl technisch als auch konzeptionell eine neue Ebene an Detaillierung bei Modellbildung und Simulation zu erreichen. Ein Modell beruht dabei auf dem Konzept einer Gesellschaft: Es besteht aus einer Menge interagierender, aber in ihren Entscheidungen autonomen Einheiten, den Agenten. Diese ändern durch ihre Aktionen ihre Umwelt und reagieren ebenso auf die für sie wahrnehmbaren Änderungen in der Umwelt. Durch die Simulation jedes Agenten zusammen mit der Umwelt, in der er "lebt", wird die Dynamik im Gesamtsystem beobachtbar. In der vorliegenden Dissertation wurde ein Repräsentationsschema für Multiagentensimulationen entwickelt werden, das es Fachexperten, wie zum Beispiel Biologen, ermöglicht, selbständig ohne traditionelles Programmieren Multiagentenmodelle zu implementieren und mit diesen Experimente durchzuführen. Dieses deklarative Schema beruht auf zwei Basiskonzepten: Der Körper eines Agenten besteht aus Zustandsvariablen. Das Verhalten des Agenten kann mit Regeln beschrieben werden. Ausgehend davon werden verschiedene Strukturierungsansätze behandelt. Das wichtigste Konzept ist das der "Aktivität", einer Art "Verhaltenszustand": Während der Agent in einer Aktivität A verweilt, führt er die zugehörigen Aktionen aus und dies solange, bis eine Regel feuert, die diese Aktivität beendet und eine neue Aktivität auswählt. Durch Indizierung dieser Regeln bei den zugehörigen Aktivitäten und Einführung von abstrakten Aktivitäten entsteht ein Schema für eine vielfältig strukturierbare Verhaltensbeschreibung. Zu diesem Schema wurde ein Interpreter entwickelt, der ein derartig repräsentiertes Modell ausführt und so Simulationsexperimente mit dem Multiagentenmodell erlaubt. Auf dieser Basis wurde die Modellierungs- und Experimentierumgebung SeSAm ("Shell für Simulierte Agentensysteme") entwickelt. Sie verwendet vorhandene Konzepte aus dem visuellen Programmieren. Mit dieser Umgebung wurden Anwendungsmodelle aus verschiedenen Domänen realisiert: Neben abstrakten Spielbeispielen waren dies vor allem Fragestellungen zu sozialen Insekten, z.B. zum Verhalten von Ameisen, Bienen oder der Interaktion zwischen Bienenvölkern und Milbenpopulationen.
Die vorliegende Arbeit ist in zwei Teile gegliedert, von denen der erste Teil den theoretischen Hintergrund und empirische Befunde zum Thema „Komplexes Problemlösen“ behandelt. Der zweite Teil beinhaltet Methodik und Ergebnisse der durchgeführten Untersuchung. Nach der Einleitung in Kapitel 1 werden in Kapitel 2 die „Grundkonzepte des Komplexen Problemlösens“ vorgestellt, wobei mit der Abgrenzung des Bereichs „Komplexes Problemlösen“ begonnen wird. Anschließend werden die Eigenschaften von komplexen Systemen und deren Anforderungen an Problemlöser beschrieben, wobei die Taxonomie1 von Dörner et al. (1994) zugrunde gelegt wird. In Kapitel 3 werden Modelle der Wissensrepräsentation und des Problemlösens vorgestellt. Dabei wird der Begriff der „Strategie“ diskutiert und im Zusammenhang mit verschiedenen allgemeinen Modellen des Problemlösens erläutert. Kapitel 4 behandelt das Konzept „Delegation“. Delegation wird in dieser Arbeit als Methode verwendet, um Versuchspersonen zur Formalisierung ihrer Strategien zu bewegen, wobei sie die Ausführung der Strategien gleichzeitig beobachten können. Es werden vor allem Befunde aus der Organisationspsychologie und Unternehmensführung berichtet und die Anwendung von Delegation in der Interaktion zwischen Mensch und künstlichem Agent erörtert. In Kapitel 5 werden Waldbrandsimulationen behandelt. Diese zählen zu den klassischen Simulationen, die zur Untersuchung von Komplexem Problemlösen verwendet werden. Zuerst wird auf computergestützte Simulation im Allgemeinen eingegangen, wobei Unterschiede zu traditionellen Untersuchungsmethoden angesprochen werden. Dabei wird auch die Bedeutung der Multiagentensimulation für die Komplexe Problemlöseforschung hervorgehoben. Anschließend wird Feuerverhalten und Feuerbekämpfung als Vorbild für Waldbrandsimulationen erläutert. Dadurch können sowohl Anhaltspunkte zur Beurteilung der Plausibilität als auch für die Implementierung einer Waldbrandsimulation gewonnen werden. Im Anschluss daran werden drei bekannte Beispiele für Waldbrandsimulationen vorgestellt, wobei auch auf domänen- bzw. simulationsspezifische Strategien eingegangen wird. In Kapitel 6 wird ein Überblick über verschiedene empirische Befunde aus dem Bereich des Komplexen Problemlösens gegeben. Diese betreffen sowohl Eigenschaften von komplexen Systemen als auch Merkmale des Problemlösers. In Kapitel 7 werden die wichtigsten Kritikpunkte und Probleme, mit denen die Komplexe Problemlöseforschung zu kämpfen hat, zusammengefasst. Die konkreten Fragestellungen der Untersuchung werden in Kapitel 8 vorgestellt, wobei Kapitel 9 und 10 erläutern, mit welcher Methodik diese Fragen untersucht werden. In diesem Zusammenhang wird auch die Simulationsumgebung SeSAm vorgestellt. Im folgenden Kapitel 11 wird auf die Eigenschaften der implementierten Waldbrandsimulation eingegangen. Kapitel 12 beschreibt den Aufbau und Ablauf der Untersuchung, mit der die Daten gewonnen werden, die in Kapitel 13 berichtet werden. Eine Diskussion der Befunde im Hinblick auf die Fragestellungen und ihre Bedeutung für die zukünftige Forschung erfolgt in Kapitel 14.
We present the results of individual-based simulation experiments on the evolution of dispersal rates of organisms living in metapopulations. We find conflicting results regarding the relationship between local extinction rate and evolutionarily stable (ES) dispersal rate depending on which principal mechanism causes extinction: if extinction is caused by environmental catastrophes eradicating local populations, we observe a positive correlation between extinction and ES dispersal rate; if extinction is a consequence of stochastic local dynamics and environmental fluctuations, the correlation becomes ambiguous; and in cases where extinction is caused by dispersal mortality, a negative correlation between local extinction rate and ES dispersal rate emerges. We conclude that extinction rate, which both affects and is affected by dispersal rates, is not an ideal predictor for optimal dispersal rates.
The optimal probability and distance of dispersal largely depend on the risk to end up in unsuitable habitat. This risk is highest close to the habitat’s edge and consequently, optimal dispersal probability and distance should decline towards the habitat’s border. This selection should lead to the emergence of spatial gradients in dispersal strategies. However, gene flow caused by dispersal itself is counteracting local adaptation. Using an individual based model we investigate the evolution of local adaptations of dispersal probability and distance within a single, circular, habitat patch. We compare evolved dispersal probabilities and distances for six different dispersal kernels (two negative exponential kernels, two skewed kernels, nearest neighbour dispersal and global dispersal) in patches of different size. For all kernels a positive correlation between patch size and dispersal probability emerges. However, a minimum patch size is necessary to allow for local adaptation of dispersal strategies within patches. Beyond this minimum patch area the difference in mean dispersal distance between center and edge increases linearly with patch radius, but the intensity of local adaptation depends on the dispersal kernel. Except for global and nearest neighbour dispersal, the evolved spatial pattern are qualitatively similar for both, mean dispersal probability and distance. We conclude, that inspite of the gene-flow originating from dispersal local adaptation of dispersal strategies is possible if a habitat is of sufficient size. This presumably holds for any realistic type of dispersal kernel.
Die elektrophysiologischen Vorgänge während der Depolarisation und Repolarisation des Myokards können mittels der Signale des 12-Kanal EKGs selbst bei Vorliegen großen Expertenwissens nur unzureichend beobachtet bzw. interpretiert werden. Grund hierfür sind vor allen Dingen Inhomogenitäten in der kardialen und thorakalen elektrischen Leitfähigkeit sowie die starke Signalabschwächung in den durchlaufenen Geweben. Intrakardiale Verfahren der Signalableitung sind ein Ansatz zu Lösung dieses Problems; sie sind jedoch aufwändig und risikobehaftet. In dem in dieser Arbeit eingesetzten Verfahren hingegen konnte, durch patientenindividuelle Modellierung der Herz- und Thoraxanatomie sowie der Leitfähigkeitsverhältnisse, mittels numerischer Verfahren aus einer Vielzahl von Oberflächen-EKG Ableitungen auf die elektrophysiologischen Vorgänge im Myokard in ihrem zeitlichen und örtlichen Verlauf geschlossen werden (Inverses Problem der Elektrokardiographie). Es konnten bei gesunden Probanden sowie bei Patienten mit verschiedenen kardialen Pathologien zeitlich und örtlich hochaufgelöste Rekonstruktionen von epikardialen- und Transmembranpotentialverteilungen angefertigt werden. Es zeigte sich, dass insbesondere im Bereich großer Infarktnarben der Herzvorder- sowie der Herzhinterwand elektrophysiologische Auffälligkeiten nachweisbar waren. So zeigten sich während der Depolarisationsphase Myokardareale mit einer verminderten Aktivität und Polarisationsumkehr, Bezirke mit verzögerter Depolarisationsaktivität sowie Areale mit atypisch verlaufender Repolarisationsaktivität. Anhand der vorliegenden Ergebnisse konnte gezeigt werden, dass eine Rekonstruktion der physiologischen Abläufe im Myokard während der Depolarisation und der Repolarisation mit dem hierzu implementierten Verfahren möglich ist. Anhand von elektroanatomischen Modellen konnten darüber hinaus die physiologische sowie die pathologisch veränderte Erregungsausbreitung im Myokard simuliert werden. Durch Verbesserung der Rekonstruktionsalgorithmen, der Methoden der Signalverarbeitung und der Regularisierung der Lösungsverfahren ist zukünftig eine weitere Verbesserung der Rekonstruktionsergebnisse zu erwarten. Vor dem klinischen Einsatz der Methode muss eine eingehende Validation erfolgen.
Im Physikunterricht wurde lange Zeit die Bedeutung quantitativer Zusammenhänge für das Physiklernen überbewertet, qualitative Zusammenhänge spielten dagegen eine eher untergeordnete Rolle. Dies führte dazu, dass das Wissen der Schüler zumeist oberflächlich blieb und nicht auf neue Situationen angewendet werden konnte. TIMSS und Pisa offenbarten diese Schwierigkeiten. In den Abschlussberichten wurde kritisiert, dass die Schüler kaum in der Lage seien, Lernstoff zu transferieren oder problemlösend zu denken. Um physikalische Abläufe deuten und entsprechende Probleme lösen zu können, ist qualitativ-konzeptuelles Wissen nötig. Dieses kann, wie Forschungsergebnisse belegen, am besten durch die konstruktivistisch motivierte Gestaltung von Lernsituationen sowie durch die Integration externer Repräsentationen von Versuchsaussagen in den Schulunterricht erreicht werden. Eine konkrete Umsetzung dieser Bedingungen stellt der Einsatz rechnergestützter Experimente dar, der heutzutage ohne allzu großen technischen Aufwand realisiert werden kann. Diese Experimente erleichtern es dem Lernenden, durch den direkten Umgang mit realen Abläufen, physikalische Konzepte zu erschließen und somit qualitative Zusammenhänge zu verstehen. Während man lange Zeit von einer grundsätzlichen Lernwirksamkeit animierter Lernumgebungen ausging, zeigen dagegen neuere Untersuchungen eher Gegenteiliges auf. Schüler müssen offensichtlich erst lernen, wie mit multicodierten Repräsentationen zu arbeiten ist. Die vorliegende Arbeit will einen Beitrag dazu leisten, herauszufinden, wie lernwirksam sogenannte dynamisch-ikonische Repräsentationen (DIR) sind, die physikalische Größen vor dem Hintergrund konkreter Versuchsabläufe visualisieren. Dazu bearbeiteten im Rahmen einer DFG-Studie insgesamt 110 Schüler jeweils 16 Projekte, in denen mechanische Konzepte (Ort, Geschwindigkeit, Beschleunigung und Kraft) aufgegriffen wurden. Es zeigte sich, dass die Probanden mit den eingesetzten DIR nicht erfolgreicher lernen konnten als vergleichbare Schüler, die die gleichen Lerninhalte ohne die Unterstützung der DIR erarbeiteten. Im Gegenteil: Schüler mit einem geringen visuellen Vorstellungsvermögen schnitten aufgrund der Darbietung einer zusätzlichen Codierung schlechter ab als ihre Mitschüler. Andererseits belegen Untersuchungen von Blaschke, dass solche Repräsentationen in der Erarbeitungsphase einer neu entwickelten Unterrichtskonzeption auch und gerade von schwächeren Schülern konstruktiv zum Wissenserwerb genutzt werden konnten. Es scheint also, dass die Lerner zunächst Hilfe beim Umgang mit neuartigen Repräsentationsformen benötigen, bevor sie diese für den weiteren Aufbau adäquater physikalischer Modelle nutzen können. Eine experimentelle Untersuchung mit Schülern der 10. Jahrgangsstufe bestätigte diese Vermutung. Hier lernten 24 Probanden in zwei Gruppen die mechanischen Konzepte zu Ort, Geschwindigkeit und Beschleunigung kennen, bevor sie im Unterricht behandelt wurden. Während die Teilnehmer der ersten Gruppe nur die Simulationen von Bewegungsabläufen und die zugehörigen Liniendiagramme sahen, wurden für die zweite Gruppe unterstützend DIR eingesetzt, die den Zusammenhang von Bewegungsablauf und Liniendiagramm veranschaulichen sollten. In beiden Gruppen war es den Probanden möglich, Fragen zu stellen und Hilfe von einem Tutor zu erhalten. Die Ergebnisse zeigten auf, dass es den Schülern durch diese Maßnahme ermöglicht wurde, die DIR erfolgreich zum Wissenserwerb einzusetzen und signifikant besser abzuschneiden als die Teilnehmer in der Kontrollgruppe. In einer weiteren Untersuchung wurde abschließend der Frage nachgegangen, ob DIR unter Anleitung eines Tutors eventuell bereits in der Unterstufe sinnvoll eingesetzt werden können. Ausgangspunkt dieser Überlegung war die Tatsache, dass mit der Einführung des neuen bayerischen G8-Lehrplans wesentliche Inhalte, die Bestandteil der vorherigen Untersuchungen waren, aus dem Physikunterricht der 11. Jgst. in die 7. Jahrgangsstufe verlegt wurden. So bot es sich an, mit den Inhalten auch die DIR in der Unterstufe einzusetzen. Die Untersuchungen einer quasiexperimentellen Feldstudie in zwei siebten Klassen belegten, dass die betrachteten Repräsentationen beim Aufbau entsprechender Konzepte keinesfalls hinderlich, sondern sogar förderlich sein dürften. Denn die Schülergruppe, die mit Hilfe der DIR lernte, schnitt im direkten hypothesenprüfenden Vergleich mit der Kontrollklasse deutlich besser ab. Ein Kurztest, der die Nachhaltigkeit des Gelernten nach etwa einem Jahr überprüfen sollte, zeigte zudem auf, dass die Schüler der DIR-Gruppe die Konzepte, die unter Zuhilfenahme der DIR erarbeitet wurden, im Vergleich zu Schülern der Kontrollklasse und zu Schülern aus 11. Klassen insgesamt überraschend gut verstanden und behalten hatten.
Encoding Redundancy for Task-dependent Optimal Control : A Neural Network Model of Human Reaching
(2008)
The human motor system is adaptive in two senses. It adapts to the properties of the body to enable effective control. It also adapts to different situational requirements and constraints. This thesis proposes a new neural network model of both kinds of adaptivity for the motor cortical control of human reaching movements, called SURE_REACH (sensorimotor unsupervised learning redundancy resolving control architecture). In this neural network approach, the kinematic and sensorimotor redundancy of a three-joint planar arm is encoded in task-independent internal models by an unsupervised learning scheme. Before a movement is executed, the neural networks prepare a movement plan from the task-independent internal models, which flexibly incorporates external, task-specific constraints. The movement plan is then implemented by proprioceptive or visual closed-loop control. This structure enables SURE_REACH to reach hand targets while incorporating task-specific contraints, for example adhering to kinematic constraints, anticipating the demands of subsequent movements, avoiding obstacles, or reducing the motion of impaired joints. Besides this functionality, the model accounts for temporal aspects of human reaching movements or for data from priming experiments. Additionally, the neural network structure reflects properties of motor cortical networks like interdependent population encoded body space representations, recurrent connectivity, or associative learning schemes. This thesis introduces and describes the new model, relates it to current computational models, evaluates its functionality, relates it to human behavior and neurophysiology, and finally discusses potential extensions as well as the validity of the model. In conclusion, the proposed model grounds highly flexible task-dependent behavior in a neural network framework and unsupervised sensorimotor learning.
It is aim of this work to develop, implement, and apply a new numerical scheme for modeling turbulent, multiphase astrophysical flows such as galaxy cluster cores and star forming regions. The method combines the capabilities of adaptive mesh refinement (AMR) and large-eddy simulations (LES) to capture localized features and to represent unresolved turbulence, respectively; it will be referred to as Fluid mEchanics with Adaptively Refined Large-Eddy SimulationS or FEARLESS.
We model Milky Way like isolated disk galaxies in high resolution three-dimensional hydrodynamical simulations with the adaptive mesh refinement code Enzo. The model galaxies include a dark matter halo and a disk of gas and stars. We use a simple implementation of sink particles to measure and follow collapsing gas, and simulate star formation as well as stellar feedback in some cases. We investigate two largely different realizations of star formation. Firstly, we follow the classical approach to transform cold, dense gas into stars with an fixed efficiency. These kind of simulations are known to suffer from an overestimation of star formation and we observe this behavior as well. Secondly, we use our newly developed FEARLESS approach to combine hydrodynamical simulations with a semi-analytic modeling of unresolved turbulence and use this technique to dynamically determine the star formation rate. The subgrid-scale turbulence regulated star formation simulations point towards largely smaller star formation efficiencies and henceforth more realistic overall star formation rates. More work is necessary to extend this method to account for the observed highly supersonic turbulence in molecular clouds and ultimately use the turbulence regulated algorithm to simulate observed star formation relations.
This work studies the fundamental connection between lattice strain and magnetic anisotropy in the ferromagnetic semiconductor (Ga,Mn)As. The first chapters provide a general introduction into the material system and a detailed description of the growth process by molecular beam epitaxy. A finite element simulation formalism is developed to model the strain distribution in (Ga,Mn)As nanostructures is introduced and its predictions verified by high-resolution x-ray diffraction methods. The influence of lattice strain on the magnetic anisotropy is explained by an magnetostatic model. A possible device application is described in the closing chapter.