@phdthesis{Kilian2015, author = {Kilian, Patrick}, title = {Teilchenbeschleunigung an kollisionsfreien Schockfronten}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-119023}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2015}, abstract = {Das Magnetfeld der Sonne ist kein einfaches statisches Dipolfeld, sondern weist wesentlich kompliziertere Strukturen auf. Wenn Rekonnexion die Topologie eines Feldlinienb{\"u}ndels ver{\"a}ndert, wird viel Energie frei, die zuvor im Magnetfeld gespeichert war. Das abgetrennte B{\"u}ndel wird mit dem damit verbundenen Plasma mit großer Geschwindigkeit durch die Korona von der Sonne weg bewegen. Dieser Vorgang wird als koronaler Massenauswurf bezeichnet. Da diese Bewegung mit Geschwindigkeiten deutlich {\"u}ber der Alfv\'en-Geschwindigkeit, der kritischen Geschwindigkeit im Sonnenwind, erfolgen kann, bildet sich eine Schockfront, die durch den Sonnenwind propagiert. Satelliten, die die Bedingungen im Sonnenwind beobachten, detektieren beim Auftreten solcher Schockfronten einen erh{\"o}hten Fluss von hochenergetischen Teilchen. Mit Radioinstrumenten empf{\"a}ngt man zeitgleich elektromagnetische Ph{\"a}nomene, die als Radiobursts bezeichnet werden, und ebenfalls f{\"u}r die Anwesenheit energiereicher Teilchen sprechen. Daher, und aufgrund von theoretischen {\"U}berlegungen liegt es nahe, anzunehmen, daß Teilchen an der Schockfront beschleunigt werden k{\"o}nnen. Die Untersuchung der Teilchenbeschleunigung an kollisionsfreien Schockfronten ist aber noch aus einem zweiten Grund interessant. Die Erde wird kontinuierlich von hochenergetischen Teilchen, die aus historischen Gr{\"u}nden als kosmische Strahlung bezeichnet werden, erreicht. Die g{\"a}ngige Theorie f{\"u}r deren Herkunft besagt, daß zumindest der galaktische Anteil durch die Beschleunigung an Schockfronten, die durch Supernovae ausgel{\"o}st wurden, bis zu den beobachteten hohen Energien gelangt sind. Das Problem bei der Untersuchung der Herkunft der kosmischen Strahlung ist jedoch, daß die Schockfronten um Supernova{\"u}berreste aufgrund der großen Entfernung nicht direkt beobachtbar sind. Es liegt dementsprechend nahe, die Schockbeschleunigung an den wesentlich n{\"a}heren und besser zu beobachtenden Schocks im Sonnensystem zu studieren, um so Modelle und Simulationen entwickeln und testen zu k{\"o}nnen. Die vorliegende Arbeit besch{\"a}ftigt sich daher mit Simulationen von Schockfronten mit Parametern, die etwa denen von CME getriebenen Schocks entsprechen. Um die Entwicklung der Energieverteilung der Teilchen zu studieren, ist ein kinetischer Ansatz n{\"o}tig. Dementsprechend wurden die Simulationen mit einem Particle-in-Cell Code durchgef{\"u}hrt. Die Herausforderung ist dabei die große Spanne zwischen den mikrophysikalischen Zeit- und L{\"a}ngenskalen, die aus Gr{\"u}nden der Genauigkeit und numerischen Stabilit{\"a}t aufgel{\"o}st werden m{\"u}ssen und den wesentlich gr{\"o}ßeren Skalen, die die Schockfront umfasst und auf der Teilchenbeschleunigung stattfindet. Um die Stabilit{\"a}t und physikalische Aussagekraft der Simulationen sicherzustellen, werden die numerischen Bausteine mittels Testf{\"a}llen, deren Verhalten bekannt ist, gr{\"u}ndlich auf ihre Tauglichkeit und korrekte Implementierung gepr{\"u}ft. Bei den resultierenden Simulationen wird das Zutreffen von analytischen Vorhersagen (etwa die Einhaltung der Sprungbedingungen) {\"u}berpr{\"u}ft. Auch die Vorhersagen einfacherer Plasmamodelle, etwa f{\"u}r das elektrostatischen Potential an der Schockfront, das man auch aus einer Zwei-Fluid-Beschreibung erhalten kann, folgen automatisch aus der selbstkonsistenten, kinetischen Beschreibung. Zus{\"a}tzlich erh{\"a}lt man Aussagen {\"u}ber das Spektrum und die Bahnen der beschleunigten Teilchen.}, subject = {Stoßfreies Plasma}, language = {de} } @phdthesis{Baier2018, author = {Baier, Pablo A.}, title = {Simulator for Minimally Invasive Vascular Interventions: Hardware and Software}, isbn = {978-3-945459-22-5}, doi = {10.25972/OPUS-16119}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-161190}, school = {Universit{\"a}t W{\"u}rzburg}, pages = {118}, year = {2018}, abstract = {A complete simulation system is proposed that can be used as an educational tool by physicians in training basic skills of Minimally Invasive Vascular Interventions. In the first part, a surface model is developed to assemble arteries having a planar segmentation. It is based on Sweep Surfaces and can be extended to T- and Y-like bifurcations. A continuous force vector field is described, representing the interaction between the catheter and the surface. The computation time of the force field is almost unaffected when the resolution of the artery is increased. The mechanical properties of arteries play an essential role in the study of the circulatory system dynamics, which has been becoming increasingly important in the treatment of cardiovascular diseases. In Virtual Reality Simulators, it is crucial to have a tissue model that responds in real time. In this work, the arteries are discretized by a two dimensional mesh and the nodes are connected by three kinds of linear springs. Three tissue layers (Intima, Media, Adventitia) are considered and, starting from the stretch-energy density, some of the elasticity tensor components are calculated. The physical model linearizes and homogenizes the material response, but it still contemplates the geometric nonlinearity. In general, if the arterial stretch varies by 1\% or less, then the agreement between the linear and nonlinear models is trustworthy. In the last part, the physical model of the wire proposed by Konings is improved. As a result, a simpler and more stable method is obtained to calculate the equilibrium configuration of the wire. In addition, a geometrical method is developed to perform relaxations. It is particularly useful when the wire is hindered in the physical method because of the boundary conditions. The physical and the geometrical methods are merged, resulting in efficient relaxations. Tests show that the shape of the virtual wire agrees with the experiment. The proposed algorithm allows real-time executions and the hardware to assemble the simulator has a low cost.}, subject = {Computersimulation}, language = {en} } @phdthesis{Weber2016, author = {Weber, Stefan}, title = {Simulation Studies on the New Small Wheel Shielding of the ATLAS Experiment and Design and Construction of a Test Facility for Gaseous Detectors}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-133084}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2016}, abstract = {In this thesis two main projects are presented, both aiming at the overall goal of particle detector development. In the first part of the thesis detailed shielding studies are discussed, focused on the shielding section of the planned New Small Wheel as part of the ATLAS detector upgrade. Those studies supported the discussions within the upgrade community and decisions made on the final design of the New Small Wheel. The second part of the thesis covers the design, construction and functional demonstration of a test facility for gaseous detectors at the University of W{\"u}rzburg. Additional studies on the trigger system of the facility are presented. Especially the precision and reliability of reference timing signals were investigated.}, subject = {Teilchendetektor}, language = {en} } @phdthesis{Hupp2008, author = {Hupp, Markus}, title = {Simulating Star Formation and Turbulence in Models of Isolated Disk Galaxies}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-34510}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2008}, abstract = {We model Milky Way like isolated disk galaxies in high resolution three-dimensional hydrodynamical simulations with the adaptive mesh refinement code Enzo. The model galaxies include a dark matter halo and a disk of gas and stars. We use a simple implementation of sink particles to measure and follow collapsing gas, and simulate star formation as well as stellar feedback in some cases. We investigate two largely different realizations of star formation. Firstly, we follow the classical approach to transform cold, dense gas into stars with an fixed efficiency. These kind of simulations are known to suffer from an overestimation of star formation and we observe this behavior as well. Secondly, we use our newly developed FEARLESS approach to combine hydrodynamical simulations with a semi-analytic modeling of unresolved turbulence and use this technique to dynamically determine the star formation rate. The subgrid-scale turbulence regulated star formation simulations point towards largely smaller star formation efficiencies and henceforth more realistic overall star formation rates. More work is necessary to extend this method to account for the observed highly supersonic turbulence in molecular clouds and ultimately use the turbulence regulated algorithm to simulate observed star formation relations.}, subject = {Astrophysik}, language = {en} } @phdthesis{Kaltwasser2007, author = {Kaltwasser, Christoph}, title = {Rekonstruktion und Simulation der Ausbreitung und R{\"u}ckbildung der elektrischen Erregung im Herzmuskel des Menschen : Visualisierung kardialer Potentiale mit Methoden der magnetresonanztomographischen Bildgebung, der kardialen Biosignalverarbeitung und der numerischen L{\"o}sung des Inversen Problems der Elektrokardiographie}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-26316}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2007}, abstract = {Die elektrophysiologischen Vorg{\"a}nge w{\"a}hrend der Depolarisation und Repolarisation des Myokards k{\"o}nnen mittels der Signale des 12-Kanal EKGs selbst bei Vorliegen großen Expertenwissens nur unzureichend beobachtet bzw. interpretiert werden. Grund hierf{\"u}r sind vor allen Dingen Inhomogenit{\"a}ten in der kardialen und thorakalen elektrischen Leitf{\"a}higkeit sowie die starke Signalabschw{\"a}chung in den durchlaufenen Geweben. Intrakardiale Verfahren der Signalableitung sind ein Ansatz zu L{\"o}sung dieses Problems; sie sind jedoch aufw{\"a}ndig und risikobehaftet. In dem in dieser Arbeit eingesetzten Verfahren hingegen konnte, durch patientenindividuelle Modellierung der Herz- und Thoraxanatomie sowie der Leitf{\"a}higkeitsverh{\"a}ltnisse, mittels numerischer Verfahren aus einer Vielzahl von Oberfl{\"a}chen-EKG Ableitungen auf die elektrophysiologischen Vorg{\"a}nge im Myokard in ihrem zeitlichen und {\"o}rtlichen Verlauf geschlossen werden (Inverses Problem der Elektrokardiographie). Es konnten bei gesunden Probanden sowie bei Patienten mit verschiedenen kardialen Pathologien zeitlich und {\"o}rtlich hochaufgel{\"o}ste Rekonstruktionen von epikardialen- und Transmembranpotentialverteilungen angefertigt werden. Es zeigte sich, dass insbesondere im Bereich großer Infarktnarben der Herzvorder- sowie der Herzhinterwand elektrophysiologische Auff{\"a}lligkeiten nachweisbar waren. So zeigten sich w{\"a}hrend der Depolarisationsphase Myokardareale mit einer verminderten Aktivit{\"a}t und Polarisationsumkehr, Bezirke mit verz{\"o}gerter Depolarisationsaktivit{\"a}t sowie Areale mit atypisch verlaufender Repolarisationsaktivit{\"a}t. Anhand der vorliegenden Ergebnisse konnte gezeigt werden, dass eine Rekonstruktion der physiologischen Abl{\"a}ufe im Myokard w{\"a}hrend der Depolarisation und der Repolarisation mit dem hierzu implementierten Verfahren m{\"o}glich ist. Anhand von elektroanatomischen Modellen konnten dar{\"u}ber hinaus die physiologische sowie die pathologisch ver{\"a}nderte Erregungsausbreitung im Myokard simuliert werden. Durch Verbesserung der Rekonstruktionsalgorithmen, der Methoden der Signalverarbeitung und der Regularisierung der L{\"o}sungsverfahren ist zuk{\"u}nftig eine weitere Verbesserung der Rekonstruktionsergebnisse zu erwarten. Vor dem klinischen Einsatz der Methode muss eine eingehende Validation erfolgen.}, subject = {Elektrophysiologie}, language = {de} } @unpublished{Reiss2012, author = {Reiss, Harald}, title = {Physical time and existence of time holes in non-transparent media}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-67268}, year = {2012}, abstract = {The analysis presented in this paper applies to experimental situations where observers or objects to be studied (both stationary, with respect to each other) are located in environments the optical thickness of which is strongly different. By their large optical thickness, non-transparent media are clearly distinguished from their transparent counterparts. Non-transparent media comprise thin metallic films, packed or fluidised beds, the Earth's crust, and even dark clouds and other cosmological objects. As a representative example, a non-transparent slab is subjected to transient disturbances, and a rigorous analysis is presented whether physical time reasonably could be constructed under such condition. The analysis incorporates mapping functions that correlate physical events, e, in non-transparent media, with their images, f(e), tentatively located on a standard physical time scale. The analysis demonstrates, however, that physical time, in its rigorous sense, does not exist under non-transparency conditions. A proof of this conclusion is attempted in three steps: i) the theorem "there is no time without space and events" is accepted, (ii) images f[e(s,t)] do not constitute a dense, uncountably infinite set, and (iii) sets of images that are not uncountably infinite do not create physical time but only time-like sequences. As a consequence, mapping f[e(s,t)] in non-transparent space does not create physical analogues to the mathematical structure of the ordered, dense half-set R+ of real numbers, and reverse mapping, f-1f[e(s,t)] would not allow unique identification and reconstruction of original events from their images. In these cases, causality and determinism, as well as invariance of physical processes under time reversal, might be violated. Existence of time holes could be possible, as follows from the sequence of images, f[e(s,t)], that is not uncountably infinite, in contrast to R+. Practical impacts are expected for understanding physical diffusion-like, radiative transfer processes, stability models to protect superconductors against quenchs or for description of their transient local pair density and critical currents. Impacts would be expected also in mathematical formulations (differential equations) of classical physics, in relativity and perhaps in quantum mechanics, all as far as transient processes in non-transparent space would be concerned. An interesting problem is whether temporal cloaking (a time hole) in a transparent medium, as very recently reported in the literature, can be explained by the present analysis. The analysis is not restricted to objects of laboratory dimensions: Because of obviously existing radiation transfer analogues, it is tempting to discuss consequences also for much larger structures in particular if an origin of time is postulated.}, subject = {Strahlungstransport}, language = {en} } @article{PoethkeHovestadtMitesser2003, author = {Poethke, Hans-Joachim and Hovestadt, Thomas and Mitesser, Oliver}, title = {Local extinction and the evolution of dispersal rates: Causes and correlations}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-47718}, year = {2003}, abstract = {We present the results of individual-based simulation experiments on the evolution of dispersal rates of organisms living in metapopulations. We find conflicting results regarding the relationship between local extinction rate and evolutionarily stable (ES) dispersal rate depending on which principal mechanism causes extinction: if extinction is caused by environmental catastrophes eradicating local populations, we observe a positive correlation between extinction and ES dispersal rate; if extinction is a consequence of stochastic local dynamics and environmental fluctuations, the correlation becomes ambiguous; and in cases where extinction is caused by dispersal mortality, a negative correlation between local extinction rate and ES dispersal rate emerges. We conclude that extinction rate, which both affects and is affected by dispersal rates, is not an ideal predictor for optimal dispersal rates.}, subject = {Ausbreitung}, language = {en} } @phdthesis{Schumm2009, author = {Schumm, Irene}, title = {Lessons Learned From Germany's 2001-2006 Labor Market Reforms}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-43705}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2009}, abstract = {In der Dissertation werden die Gesetze zur Reform des Arbeitsmarktes in Deutschland, besser bekannt als Hartz-Reformen, untersucht. Zun{\"a}chst wird ein {\"U}berblick {\"u}ber die wichtigsten {\"A}nderungen aus den vier Reform-Paketen gegeben sowie die Effekte, welche man sich davon versprach. Des Weiteren werden zwei grundlegende Reformmaßnahmen, n{\"a}mlich die Zusammenlegung der Arbeitslosen- und Sozialhilfe (Hartz IV) sowie die Verk{\"u}rzung der Bezugsdauer der Arbeitslosenversicherungsleistung, analysiert, um deren Auswirkungen auf das individuelle Verhalten und die aggregierte {\"O}konomie zu evaluieren. Diese Untersuchung geschieht im Rahmen eines Matching-Modells mit optimaler verweildauerabh{\"a}ngiger Suchleistung. Mit Hilfe von Semi-Markov-Methoden, deren Anwendung in der Arbeitsmarkttheorie beschrieben wird, findet schließlich eine Aggregierung statt. Auf diese Weise k{\"o}nnen die Auswirkungen der Hartz-IV-Reformen auf die Verweildauer in Arbeitslosigkeit, die optimale Suchleistung und die Arbeitslosigkeit quantifiziert werden.}, subject = {Hartz-Reform}, language = {en} } @phdthesis{Galmbacher2007, author = {Galmbacher, Matthias}, title = {Lernen mit dynamisch-ikonischen Repr{\"a}sentationen aufgezeigt an Inhalten zur Mechanik}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-29271}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2007}, abstract = {Im Physikunterricht wurde lange Zeit die Bedeutung quantitativer Zusammenh{\"a}nge f{\"u}r das Physiklernen {\"u}berbewertet, qualitative Zusammenh{\"a}nge spielten dagegen eine eher untergeordnete Rolle. Dies f{\"u}hrte dazu, dass das Wissen der Sch{\"u}ler zumeist ober­fl{\"a}ch­lich blieb und nicht auf neue Situationen angewendet werden konnte. TIMSS und Pisa offenbarten diese Schwierigkeiten. In den Abschlussberichten wurde kritisiert, dass die Sch{\"u}ler kaum in der Lage seien, Lernstoff zu transferieren oder pro­blem­l{\"o}send zu denken. Um physikalische Abl{\"a}ufe deuten und entsprechende Probleme l{\"o}sen zu k{\"o}nnen, ist qua­litativ-konzeptuelles Wissen n{\"o}tig. Dieses kann, wie Forschungs­ergebnisse belegen, am besten durch die konstruktivistisch motivierte Gestaltung von Lern­situationen sowie durch die Inte­gration externer Repr{\"a}sentationen von Versuchs­aussagen in den Schul­unter­richt er­reicht werden. Eine konkrete Umsetzung dieser Bedingungen stellt der Ein­satz rechner­gest{\"u}tzter Experimente dar, der heutzutage ohne allzu großen technischen Aufwand rea­lisiert werden kann. Diese Experimente erleichtern es dem Lernenden, durch den direk­ten Umgang mit realen Abl{\"a}ufen, physikalische Konzepte zu erschließen und somit qua­litative Zusammenh{\"a}nge zu verstehen. W{\"a}hrend man lange Zeit von einer grunds{\"a}tzlichen Lernwirksamkeit animierter Lern­um­gebungen ausging, zeigen dagegen neuere Untersuchungen eher Gegenteiliges auf. Sch{\"u}ler m{\"u}ssen offensichtlich erst lernen, wie mit multicodierten Re­pr{\"a}­sentationen zu arbeiten ist. Die vorliegende Arbeit will einen Beitrag dazu leisten, he­raus­zufinden, wie lernwirksam sogenannte dynamisch-ikonische Repr{\"a}sentationen (DIR) sind, die physikalische Gr{\"o}ßen vor dem Hintergrund konkreter Versuchsabl{\"a}ufe visuali­sieren. Dazu bearbeiteten im Rahmen einer DFG-Studie insgesamt 110 Sch{\"u}ler jeweils 16 Projekte, in denen mechanische Konzepte (Ort, Geschwindigkeit, Beschleu­nigung und Kraft) aufgegriffen wurden. Es zeigte sich, dass die Probanden mit den ein­ge­setzten DIR nicht erfolgreicher lernen konnten als ver­gleich­bare Sch{\"u}ler, die die gleichen Lerninhalte ohne die Unter­st{\"u}tzung der DIR erarbeiteten. Im Gegen­teil: Sch{\"u}ler mit einem geringen visuellen Vorstellungsverm{\"o}gen schnitten aufgrund der Darbietung einer zus{\"a}tzlichen Codierung schlechter ab als ihre Mit­sch{\"u}ler. Andererseits belegen Untersuchungen von Blaschke, dass solche Repr{\"a}sen­ta­tionen in der Erarbeitungsphase einer neu entwickelten Unter­richts­kon­zep­tion auch und gerade von schw{\"a}cheren Sch{\"u}lern konstruktiv zum Wissens­erwerb genutzt werden konnten. Es scheint also, dass die Lerner zun{\"a}chst Hilfe beim Umgang mit neuartigen Re­pr{\"a}­sen­ta­tions­formen ben{\"o}tigen, bevor sie diese f{\"u}r den weiteren Aufbau ad{\"a}qua­ter physi­ka­lischer Modelle nutzen k{\"o}nnen. Eine experimentelle Unter­suchung mit Sch{\"u}­lern der 10. Jahrgangsstufe best{\"a}tigte diese Vermutung. Hier lernten 24 Probanden in zwei Gruppen die mechanischen Konzepte zu Ort, Geschwin­dig­keit und Beschleunigung kennen, bevor sie im Unter­richt behandelt wurden. W{\"a}hrend die Teil­nehmer der ersten Gruppe nur die Simulationen von Bewegungsabl{\"a}ufen und die zuge­h{\"o}rigen Liniendiagramme sahen, wurden f{\"u}r die zweite Gruppe unterst{\"u}tzend DIR eingesetzt, die den Zusammenhang von Bewe­gungs­ablauf und Linien­diagramm veranschaulichen sollten. In beiden Gruppen war es den Probanden m{\"o}glich, Fragen zu stellen und Hilfe von einem Tutor zu erhalten. Die Ergebnis­se zeigten auf, dass es den Sch{\"u}lern durch diese Maßnahme erm{\"o}glicht wurde, die DIR erfolgreich zum Wissens­er­werb einzusetzen und sig­nifikant besser abzuschneiden als die Teilnehmer in der Kon­troll­­gruppe. In einer weiteren Untersuchung wurde abschließend der Frage nachgegangen, ob DIR unter Anleitung eines Tutors eventuell bereits in der Unterstufe sinnvoll eingesetzt werden k{\"o}nnen. Ausgangspunkt dieser {\"U}berlegung war die Tatsache, dass mit der Einf{\"u}hrung des neuen bayerischen G8-Lehrplans wesentliche Inhalte, die Bestand­teil der vorherigen Untersuchungen waren, aus dem Physik­unterricht der 11. Jgst. in die 7. Jahrgangsstufe verlegt wurden. So bot es sich an, mit den Inhalten auch die DIR in der Unterstufe ein­zusetzen. Die Un­tersuchungen einer quasiexperimentellen Feldstudie in zwei siebten Klassen belegten, dass die betrachte­ten Repr{\"a}sentationen beim Aufbau entsprechender Kon­zepte keinesfalls hinderlich, sondern sogar f{\"o}rder­lich sein d{\"u}rften. Denn die Sch{\"u}ler­gruppe, die mit Hilfe der DIR lernte, schnitt im direkten hypothesenpr{\"u}fenden Vergleich mit der Kontrollklasse deutlich besser ab. Ein Kurztest, der die Nachhaltigkeit des Gelernten nach etwa einem Jahr {\"u}berpr{\"u}fen sollte, zeigte zudem auf, dass die Sch{\"u}ler der DIR-Gruppe die Konzepte, die unter Zuhilfenahme der DIR erarbeitet wurden, im Vergleich zu Sch{\"u}lern der Kontrollklasse und zu Sch{\"u}lern aus 11. Klassen insgesamt {\"u}berraschend gut verstanden und behalten hatten.}, subject = {Multimedia}, language = {de} } @misc{Igl2002, type = {Master Thesis}, author = {Igl, Wilmar}, title = {Komplexes Probleml{\"o}sen in Multiagentensimulationsszenarien : Untersuchungen zur Formalisierung von Strategien f{\"u}r die Bek{\"a}mpfung von Waldbr{\"a}nden}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-10771}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2002}, abstract = {Die vorliegende Arbeit ist in zwei Teile gegliedert, von denen der erste Teil den theoretischen Hintergrund und empirische Befunde zum Thema „Komplexes Probleml{\"o}sen" behandelt. Der zweite Teil beinhaltet Methodik und Ergebnisse der durchgef{\"u}hrten Untersuchung. Nach der Einleitung in Kapitel 1 werden in Kapitel 2 die „Grundkonzepte des Komplexen Probleml{\"o}sens" vorgestellt, wobei mit der Abgrenzung des Bereichs „Komplexes Probleml{\"o}sen" begonnen wird. Anschließend werden die Eigenschaften von komplexen Systemen und deren Anforderungen an Probleml{\"o}ser beschrieben, wobei die Taxonomie1 von D{\"o}rner et al. (1994) zugrunde gelegt wird. In Kapitel 3 werden Modelle der Wissensrepr{\"a}sentation und des Probleml{\"o}sens vorgestellt. Dabei wird der Begriff der „Strategie" diskutiert und im Zusammenhang mit verschiedenen allgemeinen Modellen des Probleml{\"o}sens erl{\"a}utert. Kapitel 4 behandelt das Konzept „Delegation". Delegation wird in dieser Arbeit als Methode verwendet, um Versuchspersonen zur Formalisierung ihrer Strategien zu bewegen, wobei sie die Ausf{\"u}hrung der Strategien gleichzeitig beobachten k{\"o}nnen. Es werden vor allem Befunde aus der Organisationspsychologie und Unternehmensf{\"u}hrung berichtet und die Anwendung von Delegation in der Interaktion zwischen Mensch und k{\"u}nstlichem Agent er{\"o}rtert. In Kapitel 5 werden Waldbrandsimulationen behandelt. Diese z{\"a}hlen zu den klassischen Simulationen, die zur Untersuchung von Komplexem Probleml{\"o}sen verwendet werden. Zuerst wird auf computergest{\"u}tzte Simulation im Allgemeinen eingegangen, wobei Unterschiede zu traditionellen Untersuchungsmethoden angesprochen werden. Dabei wird auch die Bedeutung der Multiagentensimulation f{\"u}r die Komplexe Probleml{\"o}seforschung hervorgehoben. Anschließend wird Feuerverhalten und Feuerbek{\"a}mpfung als Vorbild f{\"u}r Waldbrandsimulationen erl{\"a}utert. Dadurch k{\"o}nnen sowohl Anhaltspunkte zur Beurteilung der Plausibilit{\"a}t als auch f{\"u}r die Implementierung einer Waldbrandsimulation gewonnen werden. Im Anschluss daran werden drei bekannte Beispiele f{\"u}r Waldbrandsimulationen vorgestellt, wobei auch auf dom{\"a}nen- bzw. simulationsspezifische Strategien eingegangen wird. In Kapitel 6 wird ein {\"U}berblick {\"u}ber verschiedene empirische Befunde aus dem Bereich des Komplexen Probleml{\"o}sens gegeben. Diese betreffen sowohl Eigenschaften von komplexen Systemen als auch Merkmale des Probleml{\"o}sers. In Kapitel 7 werden die wichtigsten Kritikpunkte und Probleme, mit denen die Komplexe Probleml{\"o}seforschung zu k{\"a}mpfen hat, zusammengefasst. Die konkreten Fragestellungen der Untersuchung werden in Kapitel 8 vorgestellt, wobei Kapitel 9 und 10 erl{\"a}utern, mit welcher Methodik diese Fragen untersucht werden. In diesem Zusammenhang wird auch die Simulationsumgebung SeSAm vorgestellt. Im folgenden Kapitel 11 wird auf die Eigenschaften der implementierten Waldbrandsimulation eingegangen. Kapitel 12 beschreibt den Aufbau und Ablauf der Untersuchung, mit der die Daten gewonnen werden, die in Kapitel 13 berichtet werden. Eine Diskussion der Befunde im Hinblick auf die Fragestellungen und ihre Bedeutung f{\"u}r die zuk{\"u}nftige Forschung erfolgt in Kapitel 14.}, language = {de} } @phdthesis{Fehler2010, author = {Fehler, Manuel}, title = {Kalibrierung Agenten-basierter Simulationen}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-64762}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2010}, abstract = {In der vorliegenden Arbeit wird das Problem der Kalibrierung Agenten-basierter Simulationen (ABS) behandelt, also das Problem, die Parameterwerte eines Agenten-basierten Simulationsmodells so einzustellen, dass valides Simulationsverhalten erreicht wird. Das Kalibrierungsproblem f{\"u}r Simulationen an sich ist nicht neu und ist im Rahmen klassischer Simulationsparadigmen, wie z.B. der Makro-Simulation, fester Bestandteil der Forschung. Im Vergleich zu den dort betrachteten Kalibrierungsproblemen zeichnet sich das Kalibrierungsproblem f{\"u}r ABS jedoch durch eine Reihe zus{\"a}tzlicher Herausforderungen aus, welche die direkte Anwendung existierender Kalibrierungsverfahren in begrenzter Zeit erschweren, bzw. nicht mehr sinnvoll zulassen. Die L{\"o}sung dieser Probleme steht im Zentrum dieser Dissertation: Das Ziel besteht darin, den Nutzer bei der Kalibrierung von ABS auf der Basis von unzureichenden, potentiell fehlerhaften Daten und Wissen zu unterst{\"u}tzen. Dabei sollen drei Hauptprobleme gel{\"o}st werden: 1)Vereinfachung der Kalibrierung großer Agenten-Parametermengen auf der Mikro- Ebene in Agenten-basierten Simulationen durch Ausnutzung der spezifischen Struktur von ABS (n{\"a}mlich dem Aufbau aus einer Menge von Agentenmodellen). 2)Kalibrierung Agenten-basierter Simulationen, so dass auf allen relevanten Beobachtungsebenen valides Simulationsverhalten erzeugt wird (mindestens Mikro und Makro-Ebene). Als erschwerende Randbedingung muss die Kalibrierung unter der Voraussetzung einer Makro-Mikro-Wissensl{\"u}cke durchgef{\"u}hrt werden. 3)Kalibrierung Agenten-basierter Simulationen auf der Mikro-Ebene unter der Voraussetzung, dass zur Kalibrierung einzelner Agentenmodelle nicht ausreichend und potentiell verf{\"a}lschte Daten zur Verhaltensvalidierung zur Verf{\"u}gung stehen. Hierzu wird in dieser Arbeit das sogenannte Makro-Mikro-Verfahren zur Kalibrierung von Agenten-basierten Simulationen entwickelt. Das Verfahren besteht aus einem Basisverfahren, das im Verlauf der Arbeit um verschiedene Zusatzverfahren erweitert wird. Das Makro-Mikro-Verfahren und seine Erweiterungen sollen dazu dienen, die Modellkalibrierung trotz stark verrauschter Daten und eingeschr{\"a}nktem Wissen {\"u}ber die Wirkungszusammenh{\"a}nge im Originalsystem geeignet zu erm{\"o}glichen und dabei den Kalibrierungsprozess zu beschleunigen: 1) Makro-Mikro-Kalibrierungsverfahren: Das in dieser Arbeit entwickelte Makro- Mikro-Verfahren unterst{\"u}tzt den Nutzer durch eine kombinierte Kalibrierung auf der Mikro- und der Makro-Beobachtungsebene, die gegebenenfalls durch Zwischenebenen erweitert werden kann. Der Grundgedanke des Verfahrens besteht darin, das Kalibrierungsproblem in eines auf aggregierter Verhaltensebene und eines auf der Ebene des Mikro-Agentenverhaltens aufzuteilen. Auf der Makro-Ebene wird nach validen idealen aggregierten Verhaltensmodellen (IVM) der Agenten gesucht. Auf der Mikro-Ebene wird versucht die individuellen Modelle der Agenten auf Basis des erw{\"u}nschten Gesamtverhaltens und der ermittelten IVM so zu kalibrieren, das insgesamt Simulationsverhalten entsteht, das sowohl auf Mikro- als auch auf Makro-Ebene valide ist. 2) Erweiterung 1: Robuste Kalibrierung: Um den Umgang mit potentiell verrauschten Validierungskriterien (d.h. mit verrauschten Daten {\"u}ber ein Originalsystem, auf denen die Validierungskriterien der Simulation beruhen) und Modellteilen w{\"a}hrend der Kalibrierung von ABS zu erm{\"o}glichen, wird eine robuste Kalibrierungstechnik zur Anwendung im Makro-Mikro-Verfahren entwickelt. 3) Erweiterung 2: Kalibrierung mit Heterogenit{\"a}tssuche: Als zweite Erweiterung des Makro-Mikro-Verfahrens wird ein Verfahren entwickelt, das das Problem des unklaren Detaillierungsgrades von ABS auf der Ebene der Parameterwerte adressiert. Prinzipiell kann zwar jeder Agent unterschiedliche Parameterwerte verwenden, obwohl eine geringere Heterogenit{\"a}t zur Erzeugung validen Verhaltens ausreichend w{\"a}re. Die entwickelte Erweiterung versucht, w{\"a}hrend der Kalibrierung, eine geeignete Heterogenit{\"a}tsauspr{\"a}gung f{\"u}r die Parameterwerte der Agenten zu ermitteln. Unter einer Heterogenit{\"a}tsauspr{\"a}gung wird dabei eine Einteilung der simulierten Agenten in Gruppen mit jeweils gleichen Parameterwerten verstanden. Die Heterogenit{\"a}tssuche dient dazu, einen Kompromiss zu finden zwischen der Notwendigkeit, sehr große Parametersuchr{\"a}ume durchsuchen zu m{\"u}ssen und gleichzeitig den Suchraum so klein wie m{\"o}glich halten zu wollen.}, subject = {Computersimulation}, language = {de} } @phdthesis{Gorelashvili2019, author = {Gorelashvili, Maximilian Georg}, title = {Investigation of megakaryopoiesis and the acute phase of ischemic stroke by advanced fluorescence microscopy}, doi = {10.25972/OPUS-18600}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-186002}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2019}, abstract = {In mammals, anucleate platelets circulate in the blood flow and are primarily responsible for maintaining functional hemostasis. Platelets are generated in the bone marrow (BM) by megakaryocytes (MKs), which mainly reside directly next to the BM sinusoids to release proplatelets into the blood. MKs originate from hematopoietic stem cells and are thought to migrate from the endosteal to the vascular niche during their maturation, a process, which is, despite being intensively investigated, still not fully understood. Long-term intravital two photon microscopy (2PM) of MKs and vasculature in murine bone marrow was performed and mean squared displacement analysis of cell migration was performed. The MKs exhibited no migration, but wobbling-like movement on time scales of 3 h. Directed cell migration always results in non-random spatial distribution. Thus, a computational modelling algorithm simulating random MK distribution using real 3D light-sheet fluorescence microscopy data sets was developed. Direct comparison of real and simulated random MK distributions showed, that MKs exhibit a strong bias to vessel-contact. However, this bias is not caused by cell migration, as non-vessel-associated MKs were randomly distributed in the intervascular space. Furthermore, simulation studies revealed that MKs strongly impair migration of other cells in the bone marrow by acting as large-sized obstacles. MKs are thought to migrate from the regions close to the endosteum towards the vasculature during their maturation process. MK distribution as a function of their localization relative to the endosteal regions of the bones was investigated by light sheet fluorescence microscopy (LSFM). The results show no bone-region dependent distribution of MKs. Taken together, the newly established methods and obtained results refute the model of MK migration during their maturation. Ischemia reperfusion (I/R) injury is a frequent complication of cerebral ischemic stroke, where brain tissue damage occurs despite successful recanalization. Platelets, endothelial cells and immune cells have been demonstrated to affect the progression of I/R injury in experimental mouse models 24 h after recanalization. However, the underlying Pathomechanisms, especially in the first hours after recanalization, are poorly understood. Here, LSFM, 2PM and complemental advanced image analysis workflows were established for investigation of platelets, the vasculature and neutrophils in ischemic brains. Quantitative analysis of thrombus formation in the ipsilateral and contralateral hemispheres at different time points revealed that platelet aggregate formation is minimal during the first 8 h after recanalization and occurs in both hemispheres. Considering that maximal tissue damage already is present at this time point, it can be concluded that infarct progression and neurological damage do not result from platelet aggregated formation. Furthermore, LSFM allowed to confirm neutrophil infiltration into the infarcted hemisphere and, here, the levels of endothelial cell marker PECAM1 were strongly reduced. However, further investigations must be carried out to clearly identify the role of neutrophils and the endothelial cells in I/R injury.}, subject = {Fluoreszenzmikroskopie}, language = {en} } @phdthesis{Wenisch2008, author = {Wenisch, Jan}, title = {Ferromagnetic (Ga,Mn)As Layers and Nanostructures: Control of Magnetic Anisotropy by Strain Engineering}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-34552}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2008}, abstract = {This work studies the fundamental connection between lattice strain and magnetic anisotropy in the ferromagnetic semiconductor (Ga,Mn)As. The first chapters provide a general introduction into the material system and a detailed description of the growth process by molecular beam epitaxy. A finite element simulation formalism is developed to model the strain distribution in (Ga,Mn)As nanostructures is introduced and its predictions verified by high-resolution x-ray diffraction methods. The influence of lattice strain on the magnetic anisotropy is explained by an magnetostatic model. A possible device application is described in the closing chapter.}, subject = {Magnetischer Halbleiter}, language = {en} } @article{GrosHovestadtPoethke2006, author = {Gros, Andreas and Hovestadt, Thomas and Poethke, Hans Joachim}, title = {Evolution of local adaptions in dispersal strategies}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-45406}, year = {2006}, abstract = {The optimal probability and distance of dispersal largely depend on the risk to end up in unsuitable habitat. This risk is highest close to the habitat's edge and consequently, optimal dispersal probability and distance should decline towards the habitat's border. This selection should lead to the emergence of spatial gradients in dispersal strategies. However, gene flow caused by dispersal itself is counteracting local adaptation. Using an individual based model we investigate the evolution of local adaptations of dispersal probability and distance within a single, circular, habitat patch. We compare evolved dispersal probabilities and distances for six different dispersal kernels (two negative exponential kernels, two skewed kernels, nearest neighbour dispersal and global dispersal) in patches of different size. For all kernels a positive correlation between patch size and dispersal probability emerges. However, a minimum patch size is necessary to allow for local adaptation of dispersal strategies within patches. Beyond this minimum patch area the difference in mean dispersal distance between center and edge increases linearly with patch radius, but the intensity of local adaptation depends on the dispersal kernel. Except for global and nearest neighbour dispersal, the evolved spatial pattern are qualitatively similar for both, mean dispersal probability and distance. We conclude, that inspite of the gene-flow originating from dispersal local adaptation of dispersal strategies is possible if a habitat is of sufficient size. This presumably holds for any realistic type of dispersal kernel.}, subject = {Ausbreitung}, language = {en} } @phdthesis{Herbort2008, author = {Herbort, Oliver}, title = {Encoding Redundancy for Task-dependent Optimal Control : A Neural Network Model of Human Reaching}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-26032}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2008}, abstract = {The human motor system is adaptive in two senses. It adapts to the properties of the body to enable effective control. It also adapts to different situational requirements and constraints. This thesis proposes a new neural network model of both kinds of adaptivity for the motor cortical control of human reaching movements, called SURE_REACH (sensorimotor unsupervised learning redundancy resolving control architecture). In this neural network approach, the kinematic and sensorimotor redundancy of a three-joint planar arm is encoded in task-independent internal models by an unsupervised learning scheme. Before a movement is executed, the neural networks prepare a movement plan from the task-independent internal models, which flexibly incorporates external, task-specific constraints. The movement plan is then implemented by proprioceptive or visual closed-loop control. This structure enables SURE_REACH to reach hand targets while incorporating task-specific contraints, for example adhering to kinematic constraints, anticipating the demands of subsequent movements, avoiding obstacles, or reducing the motion of impaired joints. Besides this functionality, the model accounts for temporal aspects of human reaching movements or for data from priming experiments. Additionally, the neural network structure reflects properties of motor cortical networks like interdependent population encoded body space representations, recurrent connectivity, or associative learning schemes. This thesis introduces and describes the new model, relates it to current computational models, evaluates its functionality, relates it to human behavior and neurophysiology, and finally discusses potential extensions as well as the validity of the model. In conclusion, the proposed model grounds highly flexible task-dependent behavior in a neural network framework and unsupervised sensorimotor learning.}, subject = {Bewegungssteuerung}, language = {en} } @phdthesis{Mueller2013, author = {M{\"u}ller, Thomas M.}, title = {Computergest{\"u}tztes Materialdesign: Mikrostruktur und elektrische Eigenschaften von Zirkoniumdioxid-Aluminiumoxid Keramiken}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-110942}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2013}, abstract = {Die Mikrostruktur von Zirkonoxid-Aluminiumoxid Keramiken wurde im Rasterelektronenmikroskop (REM) untersucht und mittels quantitativer Bildanalyse weiter charakterisiert. Die so erhaltenen spezifischen morphologischen Kennwerte wurden mit denen, die an dreidimensionalen Modellstrukturen {\"a}quivalent gewonnen wurden, verglichen. Es wurden modifizierte Voronoistrukturen benutzt, um die beteiligten Phasen in repr{\"a}sentativen Volumenelementen (RVE) auf Voxelbasis zu erzeugen. Poren wurden an den Ecken und Kanten dieser Strukturen nachtr{\"a}glich hinzugef{\"u}g. Nachdem alle relevanten Kennwerte der Modellstrukturen an die realen keramischen Mikrostrukturen angepasst wurden, musste das RVE f{\"u}r die Finite Element Simulationen (FES) geeignet vernetzt werden. Eine einfache {\"U}bernahme der Voxelstrukturen in hexaedrische Elemente f{\"u}hrt zu sehr langen Rechenzeiten, und die erforderliche Genauigkeit der FES konnte nicht erreicht werden. Deshalb wurde zun{\"a}chst eine adaptive Oberfl{\"a}chenvernetzung ausgehend von einem generally classed marching tetrahedra Algorithmus erzeugt. Dabei wurde besonderer Wert auf die Beibehaltung der zuvor angepassten Kennwerte gelegt. Um die Rechenzeiten zu verk{\"u}rzen ohne die Genauigkeit der FES zu beeintr{\"a}chtigen, wurden die Oberfl{\"a}chenvernetzungen dergestalt vereinfacht, dass eine hohe Aufl{\"o}sung an den Ecken und Kanten der Strukturen erhalten blieb, w{\"a}hrend sie an flachen Korngrenzen stark verringert wurde. Auf Basis dieser Oberfl{\"a}chenvernetzung wurden Volumenvernetzungen, inklusive der Abbildung der Korngrenzen durch Volumenelemente, erzeugt und f{\"u}r die FES benutzt. Dazu wurde ein FE-Modell zur Simulation der Impedanzspektren aufgestellt und validiert. Um das makroskopische elektrische Verhalten der polykristallinen Keramiken zu simulieren, mussten zun{\"a}chst die elektrischen Eigenschaften der beteiligten Einzelphasen gemessen werden. Dazu wurde eine Anlage zur Impedanzspektroskopie bis 1000 °C aufgebaut und verwendet. Durch weitere Auswertung der experimentellen Daten unter besonderer Ber{\"u}cksichtigung der Korngrenzeffekte wurden die individuellen Phaseneigenschaften erhalten. Die Zusammensetzung der Mischkeramiken reichte von purem Zirkonoxid (3YSZ) bis zu purem Aluminiumoxid. Es wurde eine sehr gute {\"U}bereinstimmung zwischen den experimentellen und simulierten Werten bez{\"u}glich der betrachteten elektrischen, mechanischen und thermischen Eigenschaften erreicht. Die FES wurden verwendet, um die Einfl{\"u}sse verschiedener mikrostruktureller Parameter, wie Porosit{\"a}t, Korngr{\"o}ße und Komposition, auf das makroskopische Materialverhalten n{\"a}her zu untersuchen.}, subject = {Keramischer Werkstoff}, language = {de} } @phdthesis{Schielein2018, author = {Schielein, Richard}, title = {Analytische Simulation und Aufnahmeplanung f{\"u}r die industrielle R{\"o}ntgencomputertomographie}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-169236}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2018}, abstract = {R{\"o}ntgencomputertomographie (CT) hat in ihrer industriellen Anwendung ein sehr breites Spektrum m{\"o}glicher Pr{\"u}fobjekte. Ziel einer CT-Messung sind dreidimensionale Abbilder der Verteilung des Schw{\"a}chungskoeffizienten der Objekte mit m{\"o}glichst großer Genauigkeit. Die Parametrierung eines CT-Systems f{\"u}r ein optimales Messergebnis h{\"a}ngt stark vom zu untersuchenden Objekt ab. Eine Vorhersage der optimalen Parameter muss die physikalischen Wechselwirkungen mit R{\"o}ntgenstrahlung des Objektes und des CT-Systems ber{\"u}cksichtigen. Die vorliegende Arbeit befasst sich damit, diese Wechselwirkungen zu modellieren und mit der M{\"o}glichkeit den Prozess zur Parametrierung anhand von G{\"u}temaßen zu automatisieren. Ziel ist eine simulationsgetriebene, automatische Parameteroptimierungsmethode, welche die Objektabh{\"a}ngigkeit ber{\"u}cksichtigt. Hinsichtlich der Genauigkeit und der Effizienz wird die bestehende R{\"o}ntgensimulationsmethodik erweitert. Es wird ein Ansatz verfolgt, der es erm{\"o}glicht, die Simulation eines CT-Systems auf reale Systeme zu kalibrieren. Dar{\"u}ber hinaus wird ein Modell vorgestellt, welches zur Berechnung der zweiten Ordnung der Streustrahlung im Objekt dient. Wegen des analytischen Ansatzes kann dabei auf eine Monte-Carlo Methode verzichtet werden. Es gibt in der Literatur bisher keine eindeutige Definition f{\"u}r die G{\"u}te eines CT-Messergebnisses. Eine solche Definition wird, basierend auf der Informationstheorie von Shannon, entwickelt. Die Verbesserungen der Simulationsmethodik sowie die Anwendung des G{\"u}temaßes zur simulationsgetriebenen Parameteroptimierung werden in Beispielen erfolgreich angewendet beziehungsweise mittels Referenzmethoden validiert.}, subject = {Computertomografie}, language = {de} } @phdthesis{Kluegl2000, author = {Kl{\"u}gl, Franziska}, title = {Aktivit{\"a}tsbasierte Verhaltensmodellierung und ihre Unterst{\"u}tzung bei Multiagentensimulationen}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-2874}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2000}, abstract = {Durch Zusammenf{\"u}hrung traditioneller Methoden zur individuenbasierten Simulation und dem Konzept der Multiagentensysteme steht mit der Multiagentensimulation eine Methodik zur Verf{\"u}gung, die es erm{\"o}glicht, sowohl technisch als auch konzeptionell eine neue Ebene an Detaillierung bei Modellbildung und Simulation zu erreichen. Ein Modell beruht dabei auf dem Konzept einer Gesellschaft: Es besteht aus einer Menge interagierender, aber in ihren Entscheidungen autonomen Einheiten, den Agenten. Diese {\"a}ndern durch ihre Aktionen ihre Umwelt und reagieren ebenso auf die f{\"u}r sie wahrnehmbaren {\"A}nderungen in der Umwelt. Durch die Simulation jedes Agenten zusammen mit der Umwelt, in der er "lebt", wird die Dynamik im Gesamtsystem beobachtbar. In der vorliegenden Dissertation wurde ein Repr{\"a}sentationsschema f{\"u}r Multiagentensimulationen entwickelt werden, das es Fachexperten, wie zum Beispiel Biologen, erm{\"o}glicht, selbst{\"a}ndig ohne traditionelles Programmieren Multiagentenmodelle zu implementieren und mit diesen Experimente durchzuf{\"u}hren. Dieses deklarative Schema beruht auf zwei Basiskonzepten: Der K{\"o}rper eines Agenten besteht aus Zustandsvariablen. Das Verhalten des Agenten kann mit Regeln beschrieben werden. Ausgehend davon werden verschiedene Strukturierungsans{\"a}tze behandelt. Das wichtigste Konzept ist das der "Aktivit{\"a}t", einer Art "Verhaltenszustand": W{\"a}hrend der Agent in einer Aktivit{\"a}t A verweilt, f{\"u}hrt er die zugeh{\"o}rigen Aktionen aus und dies solange, bis eine Regel feuert, die diese Aktivit{\"a}t beendet und eine neue Aktivit{\"a}t ausw{\"a}hlt. Durch Indizierung dieser Regeln bei den zugeh{\"o}rigen Aktivit{\"a}ten und Einf{\"u}hrung von abstrakten Aktivit{\"a}ten entsteht ein Schema f{\"u}r eine vielf{\"a}ltig strukturierbare Verhaltensbeschreibung. Zu diesem Schema wurde ein Interpreter entwickelt, der ein derartig repr{\"a}sentiertes Modell ausf{\"u}hrt und so Simulationsexperimente mit dem Multiagentenmodell erlaubt. Auf dieser Basis wurde die Modellierungs- und Experimentierumgebung SeSAm ("Shell f{\"u}r Simulierte Agentensysteme") entwickelt. Sie verwendet vorhandene Konzepte aus dem visuellen Programmieren. Mit dieser Umgebung wurden Anwendungsmodelle aus verschiedenen Dom{\"a}nen realisiert: Neben abstrakten Spielbeispielen waren dies vor allem Fragestellungen zu sozialen Insekten, z.B. zum Verhalten von Ameisen, Bienen oder der Interaktion zwischen Bienenv{\"o}lkern und Milbenpopulationen.}, subject = {Agent }, language = {de} } @phdthesis{Oeffner2008, author = {Oeffner, Marc}, title = {AGENT-BASED KEYNESIAN MACROECONOMICS - An Evolutionary Model Embedded in an Agent-Based Computer Simulation}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-39277}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2008}, abstract = {Subject of the present study is the agent-based computer simulation of Agent Island. Agent Island is a macroeconomic model, which belongs to the field of monetary theory. Agent-based modeling is an innovative tool that made much progress in other scientific fields like medicine or logistics. In economics this tool is quite new, and in monetary theory to this date virtual no agent-based simulation model has been developed. It is therefore the topic of this study to close this gap to some extend. Hence, the model integrates in a straightforward way next to the common private sectors (i.e. households, consumer goods firms and capital goods firms) and as an innovation a banking system, a central bank and a monetary circuit. Thereby, the central bank controls the business cycle via an interest rate policy; the according mechanism builds on the seminal idea of Knut Wicksell (natural rate of interest vs. money rate of interest). In addition, the model contains also many Keynesian features and a flow-of-funds accounting system in the tradition of Wolfgang St{\"u}tzel. Importantly, one objective of the study is the validation of Agent Island, which means that the individual agents (i.e. their rules, variables and parameters) are adjusted in such a way that on the aggregate level certain phenomena emerge. The crucial aspect of the modeling and the validation is therefore the relation between the micro and macro level: Every phenomenon on the aggregate level (e.g. some stylized facts of the business cycle, the monetary transmission mechanism, the Phillips curve relationship, the Keynesian paradox of thrift or the course of the business cycle) emerges out of individual actions and interactions of the many thousand agents on Agent Island. In contrast to models comprising a representative agent, we do not apply a modeling on the aggregate level; and in contrast to orthodox GE models, true interaction between heterogeneous agents takes place (e.g. by face-to-face-trading).}, subject = {Mehragentensystem}, language = {en} } @phdthesis{Maier2008, author = {Maier, Andreas}, title = {Adaptively Refined Large-Eddy Simulations of Galaxy Clusters}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-32274}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2008}, abstract = {It is aim of this work to develop, implement, and apply a new numerical scheme for modeling turbulent, multiphase astrophysical flows such as galaxy cluster cores and star forming regions. The method combines the capabilities of adaptive mesh refinement (AMR) and large-eddy simulations (LES) to capture localized features and to represent unresolved turbulence, respectively; it will be referred to as Fluid mEchanics with Adaptively Refined Large-Eddy SimulationS or FEARLESS.}, subject = {Turbulenz}, language = {en} }