Refine
Has Fulltext
- yes (20)
Is part of the Bibliography
- yes (20)
Year of publication
Document Type
- Doctoral Thesis (16)
- Journal article (2)
- Master Thesis (1)
- Preprint (1)
Keywords
- Computersimulation (20) (remove)
Institute
- Physikalisches Institut (6)
- Institut für Informatik (3)
- Institut für Theoretische Physik und Astrophysik (3)
- Theodor-Boveri-Institut für Biowissenschaften (2)
- Volkswirtschaftliches Institut (2)
- Graduate School of Life Sciences (1)
- Graduate School of Science and Technology (1)
- Institut für Psychologie (1)
- Institut für Psychologie (bis Sept. 2007) (1)
- Medizinische Klinik (bis 2004) (1)
Sonstige beteiligte Institutionen
This work studies the fundamental connection between lattice strain and magnetic anisotropy in the ferromagnetic semiconductor (Ga,Mn)As. The first chapters provide a general introduction into the material system and a detailed description of the growth process by molecular beam epitaxy. A finite element simulation formalism is developed to model the strain distribution in (Ga,Mn)As nanostructures is introduced and its predictions verified by high-resolution x-ray diffraction methods. The influence of lattice strain on the magnetic anisotropy is explained by an magnetostatic model. A possible device application is described in the closing chapter.
In this thesis two main projects are presented, both aiming at the overall goal
of particle detector development. In the first part of the thesis detailed shielding
studies are discussed, focused on the shielding section of the planned New Small
Wheel as part of the ATLAS detector upgrade. Those studies supported the discussions
within the upgrade community and decisions made on the final design of
the New Small Wheel. The second part of the thesis covers the design, construction
and functional demonstration of a test facility for gaseous detectors at the
University of Würzburg. Additional studies on the trigger system of the facility are
presented. Especially the precision and reliability of reference timing signals were
investigated.
This thesis analyzes the 2001-2006 labor market reforms in Germany. The aim of this work is twofold. First, an overview of the most important reform measures and the intended effects is given. Second, two specific and very fundamental amendments, namely the merging of unemployment assistance and social benefits, as well as changes in the duration of unemployment insurance benefits, are analyzed in detail to evaluate their effects on individuals and the entire economy. Using a matching model with optimal search intensity and Semi-Markov methods, the effects of these two amendments on the duration of unemployment, optimal search intensity and unemployment are analyzed.
Röntgencomputertomographie (CT) hat in ihrer industriellen Anwendung ein sehr breites Spektrum möglicher Prüfobjekte. Ziel einer CT-Messung sind dreidimensionale Abbilder der Verteilung des Schwächungskoeffizienten der Objekte mit möglichst großer Genauigkeit. Die Parametrierung eines CT-Systems für ein optimales Messergebnis hängt stark vom zu untersuchenden Objekt ab. Eine Vorhersage der optimalen Parameter muss die physikalischen Wechselwirkungen mit Röntgenstrahlung des Objektes und des CT-Systems berücksichtigen. Die vorliegende Arbeit befasst sich damit, diese Wechselwirkungen zu modellieren und mit der Möglichkeit den Prozess zur Parametrierung anhand von Gütemaßen zu automatisieren. Ziel ist eine simulationsgetriebene, automatische Parameteroptimierungsmethode, welche die Objektabhängigkeit berücksichtigt. Hinsichtlich der Genauigkeit und der Effizienz wird die bestehende Röntgensimulationsmethodik erweitert. Es wird ein Ansatz verfolgt, der es ermöglicht, die Simulation eines CT-Systems auf reale Systeme zu kalibrieren. Darüber hinaus wird ein Modell vorgestellt, welches zur Berechnung der zweiten Ordnung der Streustrahlung im Objekt dient. Wegen des analytischen Ansatzes kann dabei auf eine Monte-Carlo Methode verzichtet werden. Es gibt in der Literatur bisher keine eindeutige Definition für die Güte eines CT-Messergebnisses. Eine solche Definition wird, basierend auf der Informationstheorie von Shannon, entwickelt. Die Verbesserungen der Simulationsmethodik sowie die Anwendung des Gütemaßes zur simulationsgetriebenen Parameteroptimierung werden in Beispielen erfolgreich angewendet beziehungsweise mittels Referenzmethoden validiert.
The analysis presented in this paper applies to experimental situations where observers or objects to be studied (both stationary, with respect to each other) are located in environments the optical thickness of which is strongly different. By their large optical thickness, non-transparent media are clearly distinguished from their transparent counterparts. Non-transparent media comprise thin metallic films, packed or fluidised beds, the Earth’s crust, and even dark clouds and other cosmological objects. As a representative example, a non-transparent slab is subjected to transient disturbances, and a rigorous analysis is presented whether physical time reasonably could be constructed under such condition. The analysis incorporates mapping functions that correlate physical events, e, in non-transparent media, with their images, f(e), tentatively located on a standard physical time scale. The analysis demonstrates, however, that physical time, in its rigorous sense, does not exist under non-transparency conditions. A proof of this conclusion is attempted in three steps: i) the theorem “there is no time without space and events” is accepted, (ii) images f[e(s,t)] do not constitute a dense, uncountably infinite set, and (iii) sets of images that are not uncountably infinite do not create physical time but only time-like sequences. As a consequence, mapping f[e(s,t)] in non-transparent space does not create physical analogues to the mathematical structure of the ordered, dense half-set R+ of real numbers, and reverse mapping, f-1f[e(s,t)] would not allow unique identification and reconstruction of original events from their images. In these cases, causality and determinism, as well as invariance of physical processes under time reversal, might be violated. Existence of time holes could be possible, as follows from the sequence of images, f[e(s,t)], that is not uncountably infinite, in contrast to R+. Practical impacts are expected for understanding physical diffusion-like, radiative transfer processes, stability models to protect superconductors against quenchs or for description of their transient local pair density and critical currents. Impacts would be expected also in mathematical formulations (differential equations) of classical physics, in relativity and perhaps in quantum mechanics, all as far as transient processes in non-transparent space would be concerned. An interesting problem is whether temporal cloaking (a time hole) in a transparent medium, as very recently reported in the literature, can be explained by the present analysis. The analysis is not restricted to objects of laboratory dimensions: Because of obviously existing radiation transfer analogues, it is tempting to discuss consequences also for much larger structures in particular if an origin of time is postulated.
We present the results of individual-based simulation experiments on the evolution of dispersal rates of organisms living in metapopulations. We find conflicting results regarding the relationship between local extinction rate and evolutionarily stable (ES) dispersal rate depending on which principal mechanism causes extinction: if extinction is caused by environmental catastrophes eradicating local populations, we observe a positive correlation between extinction and ES dispersal rate; if extinction is a consequence of stochastic local dynamics and environmental fluctuations, the correlation becomes ambiguous; and in cases where extinction is caused by dispersal mortality, a negative correlation between local extinction rate and ES dispersal rate emerges. We conclude that extinction rate, which both affects and is affected by dispersal rates, is not an ideal predictor for optimal dispersal rates.
Subject of the present study is the agent-based computer simulation of Agent Island. Agent Island is a macroeconomic model, which belongs to the field of monetary theory. Agent-based modeling is an innovative tool that made much progress in other scientific fields like medicine or logistics. In economics this tool is quite new, and in monetary theory to this date virtual no agent-based simulation model has been developed. It is therefore the topic of this study to close this gap to some extend. Hence, the model integrates in a straightforward way next to the common private sectors (i.e. households, consumer goods firms and capital goods firms) and as an innovation a banking system, a central bank and a monetary circuit. Thereby, the central bank controls the business cycle via an interest rate policy; the according mechanism builds on the seminal idea of Knut Wicksell (natural rate of interest vs. money rate of interest). In addition, the model contains also many Keynesian features and a flow-of-funds accounting system in the tradition of Wolfgang Stützel. Importantly, one objective of the study is the validation of Agent Island, which means that the individual agents (i.e. their rules, variables and parameters) are adjusted in such a way that on the aggregate level certain phenomena emerge. The crucial aspect of the modeling and the validation is therefore the relation between the micro and macro level: Every phenomenon on the aggregate level (e.g. some stylized facts of the business cycle, the monetary transmission mechanism, the Phillips curve relationship, the Keynesian paradox of thrift or the course of the business cycle) emerges out of individual actions and interactions of the many thousand agents on Agent Island. In contrast to models comprising a representative agent, we do not apply a modeling on the aggregate level; and in contrast to orthodox GE models, true interaction between heterogeneous agents takes place (e.g. by face-to-face-trading).
Die Mikrostruktur von Zirkonoxid–Aluminiumoxid Keramiken wurde im Rasterelektronenmikroskop (REM) untersucht und mittels quantitativer Bildanalyse weiter charakterisiert. Die so erhaltenen spezifischen morphologischen Kennwerte wurden mit denen, die an dreidimensionalen Modellstrukturen äquivalent gewonnen wurden, verglichen. Es wurden modifizierte Voronoistrukturen benutzt, um die beteiligten Phasen in repräsentativen Volumenelementen (RVE) auf Voxelbasis zu erzeugen. Poren wurden an den Ecken und Kanten dieser Strukturen nachträglich hinzugefüg.
Nachdem alle relevanten Kennwerte der Modellstrukturen an die realen keramischen Mikrostrukturen angepasst wurden, musste das RVE für die Finite Element Simulationen (FES) geeignet vernetzt werden. Eine einfache Übernahme der Voxelstrukturen in hexaedrische Elemente führt zu sehr langen Rechenzeiten, und die erforderliche Genauigkeit der FES konnte nicht erreicht werden. Deshalb wurde zunächst eine adaptive Oberflächenvernetzung ausgehend von einem generally classed marching tetrahedra Algorithmus erzeugt. Dabei wurde besonderer Wert auf die Beibehaltung der zuvor angepassten Kennwerte gelegt. Um die Rechenzeiten zu verkürzen ohne die Genauigkeit der FES zu beeinträchtigen, wurden die Oberflächenvernetzungen dergestalt vereinfacht, dass eine hohe Auflösung an den Ecken und Kanten der Strukturen erhalten blieb, während sie an flachen Korngrenzen stark verringert wurde. Auf Basis dieser Oberflächenvernetzung wurden Volumenvernetzungen, inklusive der Abbildung der Korngrenzen durch Volumenelemente, erzeugt und für die FES benutzt. Dazu wurde ein FE-Modell zur Simulation der Impedanzspektren aufgestellt und validiert.
Um das makroskopische elektrische Verhalten der polykristallinen Keramiken zu simulieren, mussten zunächst die elektrischen Eigenschaften der beteiligten Einzelphasen gemessen werden. Dazu wurde eine Anlage zur Impedanzspektroskopie bis 1000 °C aufgebaut und verwendet. Durch weitere Auswertung der experimentellen Daten unter besonderer Berücksichtigung der Korngrenzeffekte wurden die individuellen Phaseneigenschaften erhalten.
Die Zusammensetzung der Mischkeramiken reichte von purem Zirkonoxid (3YSZ) bis zu purem Aluminiumoxid. Es wurde eine sehr gute Übereinstimmung zwischen den experimentellen und simulierten Werten bezüglich der betrachteten elektrischen, mechanischen und thermischen Eigenschaften erreicht. Die FES wurden verwendet, um die Einflüsse verschiedener mikrostruktureller Parameter, wie Porosität, Korngröße und Komposition, auf das makroskopische Materialverhalten näher zu untersuchen.
It is aim of this work to develop, implement, and apply a new numerical scheme for modeling turbulent, multiphase astrophysical flows such as galaxy cluster cores and star forming regions. The method combines the capabilities of adaptive mesh refinement (AMR) and large-eddy simulations (LES) to capture localized features and to represent unresolved turbulence, respectively; it will be referred to as Fluid mEchanics with Adaptively Refined Large-Eddy SimulationS or FEARLESS.
Aktivitätsbasierte Verhaltensmodellierung und ihre Unterstützung bei Multiagentensimulationen
(2000)
Durch Zusammenführung traditioneller Methoden zur individuenbasierten Simulation und dem Konzept der Multiagentensysteme steht mit der Multiagentensimulation eine Methodik zur Verfügung, die es ermöglicht, sowohl technisch als auch konzeptionell eine neue Ebene an Detaillierung bei Modellbildung und Simulation zu erreichen. Ein Modell beruht dabei auf dem Konzept einer Gesellschaft: Es besteht aus einer Menge interagierender, aber in ihren Entscheidungen autonomen Einheiten, den Agenten. Diese ändern durch ihre Aktionen ihre Umwelt und reagieren ebenso auf die für sie wahrnehmbaren Änderungen in der Umwelt. Durch die Simulation jedes Agenten zusammen mit der Umwelt, in der er "lebt", wird die Dynamik im Gesamtsystem beobachtbar. In der vorliegenden Dissertation wurde ein Repräsentationsschema für Multiagentensimulationen entwickelt werden, das es Fachexperten, wie zum Beispiel Biologen, ermöglicht, selbständig ohne traditionelles Programmieren Multiagentenmodelle zu implementieren und mit diesen Experimente durchzuführen. Dieses deklarative Schema beruht auf zwei Basiskonzepten: Der Körper eines Agenten besteht aus Zustandsvariablen. Das Verhalten des Agenten kann mit Regeln beschrieben werden. Ausgehend davon werden verschiedene Strukturierungsansätze behandelt. Das wichtigste Konzept ist das der "Aktivität", einer Art "Verhaltenszustand": Während der Agent in einer Aktivität A verweilt, führt er die zugehörigen Aktionen aus und dies solange, bis eine Regel feuert, die diese Aktivität beendet und eine neue Aktivität auswählt. Durch Indizierung dieser Regeln bei den zugehörigen Aktivitäten und Einführung von abstrakten Aktivitäten entsteht ein Schema für eine vielfältig strukturierbare Verhaltensbeschreibung. Zu diesem Schema wurde ein Interpreter entwickelt, der ein derartig repräsentiertes Modell ausführt und so Simulationsexperimente mit dem Multiagentenmodell erlaubt. Auf dieser Basis wurde die Modellierungs- und Experimentierumgebung SeSAm ("Shell für Simulierte Agentensysteme") entwickelt. Sie verwendet vorhandene Konzepte aus dem visuellen Programmieren. Mit dieser Umgebung wurden Anwendungsmodelle aus verschiedenen Domänen realisiert: Neben abstrakten Spielbeispielen waren dies vor allem Fragestellungen zu sozialen Insekten, z.B. zum Verhalten von Ameisen, Bienen oder der Interaktion zwischen Bienenvölkern und Milbenpopulationen.