@phdthesis{Kluegl2000, author = {Kl{\"u}gl, Franziska}, title = {Aktivit{\"a}tsbasierte Verhaltensmodellierung und ihre Unterst{\"u}tzung bei Multiagentensimulationen}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-2874}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2000}, abstract = {Durch Zusammenf{\"u}hrung traditioneller Methoden zur individuenbasierten Simulation und dem Konzept der Multiagentensysteme steht mit der Multiagentensimulation eine Methodik zur Verf{\"u}gung, die es erm{\"o}glicht, sowohl technisch als auch konzeptionell eine neue Ebene an Detaillierung bei Modellbildung und Simulation zu erreichen. Ein Modell beruht dabei auf dem Konzept einer Gesellschaft: Es besteht aus einer Menge interagierender, aber in ihren Entscheidungen autonomen Einheiten, den Agenten. Diese {\"a}ndern durch ihre Aktionen ihre Umwelt und reagieren ebenso auf die f{\"u}r sie wahrnehmbaren {\"A}nderungen in der Umwelt. Durch die Simulation jedes Agenten zusammen mit der Umwelt, in der er "lebt", wird die Dynamik im Gesamtsystem beobachtbar. In der vorliegenden Dissertation wurde ein Repr{\"a}sentationsschema f{\"u}r Multiagentensimulationen entwickelt werden, das es Fachexperten, wie zum Beispiel Biologen, erm{\"o}glicht, selbst{\"a}ndig ohne traditionelles Programmieren Multiagentenmodelle zu implementieren und mit diesen Experimente durchzuf{\"u}hren. Dieses deklarative Schema beruht auf zwei Basiskonzepten: Der K{\"o}rper eines Agenten besteht aus Zustandsvariablen. Das Verhalten des Agenten kann mit Regeln beschrieben werden. Ausgehend davon werden verschiedene Strukturierungsans{\"a}tze behandelt. Das wichtigste Konzept ist das der "Aktivit{\"a}t", einer Art "Verhaltenszustand": W{\"a}hrend der Agent in einer Aktivit{\"a}t A verweilt, f{\"u}hrt er die zugeh{\"o}rigen Aktionen aus und dies solange, bis eine Regel feuert, die diese Aktivit{\"a}t beendet und eine neue Aktivit{\"a}t ausw{\"a}hlt. Durch Indizierung dieser Regeln bei den zugeh{\"o}rigen Aktivit{\"a}ten und Einf{\"u}hrung von abstrakten Aktivit{\"a}ten entsteht ein Schema f{\"u}r eine vielf{\"a}ltig strukturierbare Verhaltensbeschreibung. Zu diesem Schema wurde ein Interpreter entwickelt, der ein derartig repr{\"a}sentiertes Modell ausf{\"u}hrt und so Simulationsexperimente mit dem Multiagentenmodell erlaubt. Auf dieser Basis wurde die Modellierungs- und Experimentierumgebung SeSAm ("Shell f{\"u}r Simulierte Agentensysteme") entwickelt. Sie verwendet vorhandene Konzepte aus dem visuellen Programmieren. Mit dieser Umgebung wurden Anwendungsmodelle aus verschiedenen Dom{\"a}nen realisiert: Neben abstrakten Spielbeispielen waren dies vor allem Fragestellungen zu sozialen Insekten, z.B. zum Verhalten von Ameisen, Bienen oder der Interaktion zwischen Bienenv{\"o}lkern und Milbenpopulationen.}, subject = {Agent }, language = {de} } @phdthesis{Kaussner2003, author = {Kaußner, Armin}, title = {Dynamische Szenerien in der Fahrsimulation}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-8286}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2003}, abstract = {In der Arbeit wird ein neues Konzept f{\"u}r Fahrsimulator-Datenbasen vorgestellt. Der Anwender entwirft eine auf seine Fragestellung zugeschnittene Datenbasis mithilfe einer einfachen Skriptsprache. Das Straßennetzwerk wird auf einer topologischen Ebene rep{\"a}sentiert. In jedem Simulationsschritt wird hieraus im Sichtbarkeitsbereich des Fahrers die geometrische Rep{\"a}sentation berechnet. Die f{\"u}r den Fahrer unsichtbaren Teile des Straßenetzwerks k{\"o}nnen w{\"a}hrend der Simulation ver{\"a}ndert werden. Diese Ver{\"a}nderungen k{\"o}nnen von der Route des Fahrers oder von den in der Simulation erhobenen Messerten abh{\"a}ngen. Zudem kann der Anwender das Straßennetzwerk interaktiv ver{\"a}ndern. Das vorgestellte Konzept bietet zahlreiche M{\"o}glichkeiten zur Erzeugung reproduzierbarer Szenarien f{\"u}r Experimente in Fahrsimulatoren.}, subject = {Straßenverkehr}, language = {de} } @phdthesis{Seider2004, author = {Seider, David}, title = {Solving an eigenvalue problem in laser simulation}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-10057}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2004}, abstract = {In this thesis a new and powerful approach for modeling laser cavity eigenmodes is presented. This approach is based on an eigenvalue problem for singularly perturbed partial differential operators with complex coefficients; such operators have not been investigated in detail until now. The eigenvalue problem is discretized by finite elements, and convergence of the approximate solution is proved by using an abstract convergence theory also developed in this dissertation. This theory for the convergence of an approximate solution of a (quadratic) eigenvalue problem, which particularly can be applied to a finite element discretization, is interesting on its own, since the ideas can conceivably be used to handle equations with a more complex nonlinearity. The discretized eigenvalue problem essentially is solved by preconditioned GMRES, where the preconditioner is constructed according to the underlying physics of the problem. The power and correctness of the new approach for computing laser cavity eigenmodes is clearly demonstrated by successfully simulating a variety of different cavity configurations. The thesis is organized as follows: Chapter 1 contains a short overview on solving the so-called Helmholtz equation with the help of finite elements. The main part of Chapter 2 is dedicated to the analysis of a one-dimensional model problem containing the main idea of a new model for laser cavity eigenmodes which is derived in detail in Chapter 3. Chapter 4 comprises a convergence theory for the approximate solution of quadratic eigenvalue problems. In Chapter 5, a stabilized finite element discretization of the new model is described and its convergence is proved by applying the theory of Chapter 4. Chapter 6 contains computational aspects of solving the resulting system of equations and, finally, Chapter 7 presents numerical results for various configurations, demonstrating the practical relevance of our new approach.}, subject = {Laser}, language = {en} } @phdthesis{Volkmann2004, author = {Volkmann, Thorsten}, title = {Lattice gas models and simulations of epitaxial growth}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-13812}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2004}, abstract = {In this PhD thesis, we develop models for the numerical simulation of epitaxial crystal growth, as realized, e.g., in molecular beam epitaxy (MBE). The basic idea is to use a discrete lattice gas representation of the crystal structure, and to apply kinetic Monte Carlo (KMC) simulations for the description of the growth dynamics. The main advantage of the KMC approach is the possibility to account for atomistic details and at the same time cover MBE relevant time scales in the simulation. In chapter 1, we describe the principles of MBE, pointing out relevant physical processes and the influence of experimental control parameters. We discuss various methods used in the theoretical description of epitaxial growth. Subsequently, the underlying concepts of the KMC method and the lattice gas approach are presented. Important aspects concerning the design of a lattice gas model are considered, e.g. the solid-on-solid approximation or the choice of an appropriate lattice topology. A key element of any KMC simulation is the selection of allowed events and the evaluation of Arrhenius rates for thermally activated processes. We discuss simplifying schemes that are used to approximate the corresponding energy barriers if detailed knowledge about the barriers is not available. Finally, the efficient implementation of the MC kinetics using a rejection-free algorithm is described. In chapter 2, we present a solid-on-solid lattice gas model which aims at the description of II-VI(001) semiconductor surfaces like CdTe(001). The model accounts for the zincblende structure and the relevant surface reconstructions of Cd- and Te-terminated surfaces. Particles at the surface interact via anisotropic nearest and next nearest neighbor interactions, whereas interactions in the bulk are isotropic. The anisotropic surface interactions reflect known properties of CdTe(001) like the small energy difference between the c(2x2) and (2x1) vacancy structures of Cd-terminated surfaces. A key element of the model is the presence of additional Te atoms in a weakly bound Te* state, which is motivated by experimental observations of Te coverages exceeding one monolayer at low temperatures and high Te fluxes. The true mechanism of binding excess Te to the surface is still unclear. Here, we use a mean-field approach assuming a Te* reservoir with limited occupation. In chapter 3, we perform KMC simulations of atomic layer epitaxy (ALE) of CdTe(001). We study the self-regulation of the ALE growth rate and demonstrate how the interplay of the Te* reservoir occupation with the surface kinetics results in two different regimes: at high temperatures the growth rate is limited to one half layer of CdTe per ALE cycle, whereas at low enough temperatures each cycle adds a complete layer. The temperature where the transition between the two regimes occurs depends mainly on the particle fluxes. The temperature dependence of the growth rate and the flux dependence of the transition temperature are in good qualitative agreement with experimental results. Comparing the macroscopic activation energy for Te* desorption in our model with experimental values we find semiquantitative agreement. In chapter 4, we study the formation of nanostructures with alternating stripes during submonolayer heteroepitaxy of two different adsorbate species on a given substrate. We evaluate the influence of two mechanisms: kinetic segregation due to chemically induced diffusion barriers, and strain relaxation by alternating arrangement of the adsorbate species. KMC simulations of a simple cubic lattice gas with weak inter-species binding energy show that kinetic effects are sufficient to account for stripe formation during growth. The dependence of the stripe width on control parameters is investigated. We find an Arrhenius temperature dependence, in agreement with experimental investigations of phase separation in binary or ternary material systems. Canonical MC simulations show that the observed stripes are not stable under equilibrium conditions: the adsorbate species separate into very large domains. Off-lattice simulations which account for the lattice misfit of the involved particle species show that, under equilibrium conditions, the competition between binding and strain energy results in regular stripe patterns with a well-defined width depending on both misfit and binding energies. In KMC simulations, the stripe-formation and the experimentally reported ramification of adsorbate islands are reproduced. To clarify the origin of the island ramification, we investigate an enhanced lattice gas model whose parameters are fitted to match characteristic off-lattice diffusion barriers. The simulation results show that a satisfactory explanation of experimental observations within the lattice gas framework requires a detailed incorporation of long-range elastic interactions. In the appendix we discuss supplementary topics related to the lattice gas simulations in chapter 4.}, subject = {Kristallwachstum}, language = {en} } @phdthesis{Coburger2005, author = {Coburger, Jan}, title = {Evaluierung des PCI-Simulators CathI}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-18753}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2005}, abstract = {Die Ausbildung im Herzkatheterlabor hat sich seit Etablierung der interventionellen Kardiologie kaum ver{\"a}ndert. Wie auch in anderen Bereichen der Medizin steht schon seit einiger Zeit die Frage nach der ethischen Vertretbarkeit des „see one, do one, teach one" Prinzips im Raum. Das Dilemma zwischen der Sicherheit des Patienten und einer ad{\"a}quaten Ausbildung der Assistenten f{\"u}hrte schon fr{\"u}h zum Ruf nach Simulationssystemen f{\"u}r die Medizin. Heute existieren Ger{\"a}te, die die technischen Voraussetzungen erf{\"u}llen, um die komplizierte menschliche Physiologie und Pathophysiologie zu simulieren. Eine gr{\"u}ndliche wissenschaftliche Evaluation dieser Systeme ist die notwendige Basis, um die Ausbildung in der Medizin zu verbessern. Zur Validation des PCI-Simulators CathI wurde an der Medizinischen Klinik der Universit{\"a}t W{\"u}rzburg eine formative und summative Evaluation durchgef{\"u}hrt. Als erster Schritt wurden die Lerneffekte zweier randomisierter Laiengruppen, einer am CathI-System (n=7) und einer an einem Computerprogramm trainierten Gruppe(n=6) w{\"a}hrend eines viert{\"a}gigen Trainings untersucht. Nach Ablauf des Trainings wurden die Ergebnisse zur {\"U}berpr{\"u}fung der konkurrenten Validit{\"a}t und der Eignung des Systems als Assessment-Tool, mit einer Expertengruppe verglichen. Als letzten Schritt testete man die am CathI-System erworbenen interventionellen F{\"a}higkeiten im Herzkatheterlabor. Hierbei wurde eine am CathI-System trainierte (n=6), mit einer computerbasiert trainierten Gruppe (n=6) w{\"a}hrend einer Intervention an einem pulsatilen r{\"o}ntgenf{\"a}higen Herzmodell verglichen. Die Evaluation erfolgte an Hand objektiver Standardparameter und mittels eines F{\"a}higkeiten-Scores. Als eines der wichtigsten Ergebnisse konnte gezeigt werden, dass Probanden durch Training am CathI-Simulator besser auf kardiologische Grundf{\"a}higkeiten vorbereitet werden als eine vergleichbare Gruppe durch Ausbildung an einer Computersimulation. Das CathI-System f{\"u}hrt zu einem risiko{\"a}rmeren Verhalten im Herzkatheterlabor. Man kann daraus folgern, dass das CathI-System eine {\"u}berlegene Ausbildungsm{\"o}glichkeit f{\"u}r die Vorbereitung auf eine Intervention am Patienten darstellt. Der CathI-Simulator erm{\"o}glicht es Experten, basierend auf ihren F{\"a}higkeiten in der interventionellen Kardiologie auch die Simulation mit hoher Qualit{\"a}t zu absolvieren. Es kann konkurrente Validit{\"a}t f{\"u}r das Trainingsger{\"a}t angenommen werden. Dem Simulationssystem CathI ist es m{\"o}glich, die Expertise des Anwenders realit{\"a}tsnah einzusch{\"a}tzen. Es kann spezifisch kognitive und motorische F{\"a}higkeiten testen. Das Simulationssystem CathI erwies sich als effektives Werkzeug zur Schulung der diagnostischen Koronarangiographie und der PCI.}, language = {de} } @phdthesis{Joestingmeier2005, author = {J{\"o}stingmeier, Martin}, title = {On the competition of superconductivity, antiferromagnetism and charge order in the high-Tc compounds}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-13036}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2005}, abstract = {Diese Arbeit l{\"a}ßt sich in zwei grobe Abschnitte gliedern. Der erste Teil umfaßt die Kapitel 1-3, in denen drei verschiedene Konzepte beschrieben werden, die zum Verst{\"a}ndis stark korrelierter Vielteilchen-Systeme dienen. Dies sind zun{\"a}chst einmal die SO(5)-Theorie in Kapitel 3, die den allgemeinen Rahmen vorgibt und auf der numerischen Seite die Stochastische Reihen Entwicklung (SSE) in Kapitel 1 und der Contractor Renormierungsgruppen Ansatz (CORE), s.Kapitel 2). Die zentrale Idee dieser Dissertationsschrift besteht darin, diese verschiedenen Konzepte zu kombinieren, um ein besseres Verst{\"a}ndnis der Hochtemperatursupraleiter zu erhalten. Im zweiten Teil dieser Arbeit (Kap. 4 und Kap. 5) werden die so gewonnenen Ergebnisse dargestellt. Die zentrale Idee dieser Arbeit, d.h. die Kombination der SO(5)-Theorie mit den F{\"a}higkeiten bosonischer Quanten-Monte-Carlo Verfahren und den {\"u}berlegungen der Renormierungsgruppe, hat sich sich am Beispiel der Physik der Hochtemperatur-Supraleiter als sehr tragf{\"a}hig erwiesen. Die numerischen Simulationen reproduzieren bei den behandelten Modelle eine Reihe wichtiger experimenteller Daten. Die Grundlage f{\"u}r eine k{\"u}nftige weitere schrittweise Erweiterung des Modells wurde so geschaffen. Eine offene Frage ist z.B. die Restaurierung der SO(5)-Symmetrie an einem multi-kritischen Punkt, wenn die l{\"a}ngerreichweitigen Wechselwirkungen mit in das Modell einbezogen sind.}, subject = {Hochtemperatursupraleitung}, language = {en} } @phdthesis{Michel2006, author = {Michel, Ren{\´e}}, title = {Simulation and Estimation in Multivariate Generalized Pareto Models}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-18489}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2006}, abstract = {The investigation of multivariate generalized Pareto distributions (GPDs) in the framework of extreme value theory has begun only lately. Recent results show that they can, as in the univariate case, be used in Peaks over Threshold approaches. In this manuscript we investigate the definition of GPDs from Section 5.1 of Falk et al. (2004), which does not differ in the area of interest from those of other authors. We first show some theoretical properties and introduce important examples of GPDs. For the further investigation of these distributions simulation methods are an important part. We describe several methods of simulating GPDs, beginning with an efficient method for the logistic GPD. This algorithm is based on the Shi transformation, which was introduced by Shi (1995) and was used in Stephenson (2003) for the simulation of multivariate extreme value distributions of logistic type. We also present nonparametric and parametric estimation methods in GPD models. We estimate the angular density nonparametrically in arbitrary dimension, where the bivariate case turns out to be a special case. The asymptotic normality of the corresponding estimators is shown. Also in the parametric estimations, which are mainly based on maximum likelihood methods, the asymptotic normality of the estimators is shown under certain regularity conditions. Finally the methods are applied to a real hydrological data set containing water discharges of the rivers Altm{\"u}hl and Danube in southern Bavaria.}, subject = {Pareto-Verteilung}, language = {en} } @phdthesis{Schenk2006, author = {Schenk, Tilman A.}, title = {Multiagentensysteme zur Simulation von Konsumentenentscheidungen}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-22157}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2006}, abstract = {St{\"a}dte sehen sich in der Entwicklung ihres Einzelhandelsangebots zunehmend Konkurrenzsituationen zwischen traditionellen Innenstadt- und neu entstehenden Stadtrandlagen ausgesetzt, die einerseits die gestiegenen Fl{\"a}chen- und Produktivit{\"a}tsanspr{\"u}che der Unternehmen eher erf{\"u}llen, w{\"a}hrend andererseits B{\"u}rger, Politik und etablierter Handel ein Aussterben der Innenst{\"a}dte bef{\"u}rchten. Die Konsequenzen planerischer Entscheidungen in dieser Hinsicht abzusch{\"a}tzen, wird zunehmend komplexer. Daf{\"u}r sind ebenso eine st{\"a}rkere Individualisierung des Konsumverhaltens verantwortlich, wie eine gestiegene Sensibilit{\"a}t gegen{\"u}ber Verkehrs- und Emissionsbelastungen. Modellierungen und Simulationen k{\"o}nnen einen Beitrag zu fundierter Entscheidungsfindung leisten, indem sie durch Prognosen von Szenarien mit unterschiedlichen Rahmenbedingungen solche Auswirkungen aufzeigen. In der Vergangenheit wurden Kaufkraftstr{\"o}me durch Modelle abgebildet, die auf aggregierten Ausgangsdaten und Analogieschl{\"u}ssen zu Naturgesetzen oder nutzentheoretischen Annahmen beruhten. In dieser Arbeit wird daf{\"u}r erstmals ein agentenbasierter Ansatz angewendet, da sich so individuelle Ausdifferenzierungen des Konsumentenhandelns wesentlich leichter integrieren und Ergebnisse anschaulicher pr{\"a}sentieren lassen. Dieses Konzept kann in den Sozialwissenschaften als Modellierungsparadigma genutzt werden, insofern als dass sie der Idee der Selbstorganisation von Gesellschaften recht nahe kommt. Insbesondere zeichnen sich Multiagentensysteme durch eine dezentrale Kontrolle und Datenvorhaltung aus, die es dar{\"u}ber hinaus erm{\"o}glichen, auch komplexe Systeme von Entscheidungsprozessen mit wenigen Spezifikationen darzustellen. Damit begegnet der Agentenansatz vielen Einw{\"a}nden gegen Analogie- und Entscheidungsmodelle. Durch die konsequente Einnahme einer individuenbezogenen Sichtweise ist die individuelle Ausdifferenzierung von Entscheidungsprozessen viel eher abbildbar. F{\"u}r das Forschungsprojekt konnten f{\"u}r einen Untersuchungsraum in Nordschweden (Funktionalregion Umea) individuenbezogene Einwohnerdaten verf{\"u}gbar gemacht werden. Diese enthielten u.a. Lagekoordinaten des Wohn- und Arbeitsorts, Alter, Geschlecht, verf{\"u}gbares Einkommen und Angaben zur Haushaltsstruktur. Verbunden mit Erkenntnissen aus empirischen Untersuchungen (Konsumentenbefragung, Gesch{\"a}ftskartierung) stellten sie die Eingabegr{\"o}ßen f{\"u}r ein agentenbasiertes Modell der Einkaufsst{\"a}ttenwahl bei der Lebensmittelversorgung dar. Die Konsumentenbefragung stellte regressionsanalytische Abh{\"a}ngigkeiten zwischen sozio{\"o}konomischen Daten und Konsumpr{\"a}ferenzen bez{\"u}glich einzelner Gesch{\"a}ftsattribute (Preisniveau, Produktqualit{\"a}t, Sortimentsbreite, Service etc.) her, die gleichen Attribute wurden f{\"u}r die Gesch{\"a}fte erhoben. Somit k{\"o}nnen Kaufkraftstr{\"o}me zwischen Einzelelementen der Nachfrage (individuelle Konsumenten) und des Angebots (einzelne Gesch{\"a}ftsstandorte) als individuell variierende Bewertung der Gesch{\"a}fte durch die Agenten dargestellt werden. Da auf der Angebotsseite die Ums{\"a}tze der Gesch{\"a}fte ebenso bekannt sind, k{\"o}nnen die Summen der von den Agenten dort allozierten Kaufkraftbetr{\"a}ge mit denselbigen verglichen werden. Dies erlaubt die Quantifizierung einer Sch{\"a}tzg{\"u}te f{\"u}r die Gesch{\"a}ftsums{\"a}tze mittels eines G{\"u}temaßes. F{\"u}r die Gesch{\"a}fte der gesamten Region konnten G{\"u}temaßwerte bis 0,7 erreicht werden, f{\"u}r einzelne Betriebsformate auch {\"u}ber 0,9. Dies zeigt, dass auch bei der Verwendung individuenbezogener Modelle, die mit einer deutlich h{\"o}heren Anzahl Freiheitsgraden behaftet sind als ihre aggregierten Gegenst{\"u}cke, hohe Prognosequalit{\"a}ten f{\"u}r Umsatzsch{\"a}tzungen von Standorten erreicht werden k{\"o}nnen. Gleichzeitig bietet der Agentenansatz die M{\"o}glichkeit, einzelne Simulationsobjekte bei ihrer Entscheidungsfindung und ihren Aktivit{\"a}ten zu verfolgen. Dabei konnten ebenfalls plausible Einkaufsmuster abgebildet werden. Da die Distanz vom Wohn- bzw. Arbeitsort zum Gesch{\"a}ft Bestandteil des Modells ist, k{\"o}nnen auch die von den Einwohnern zum Zweck der Grundversorgung zu leistenden Distanzaufw{\"a}nde in verschiedenen Angebotssituationen analysiert werden. An agentenbasierte Simulationen werden in den Sozialwissenschaften große Erwartungen gekn{\"u}pft, da sie erstmals erm{\"o}glichen, gesellschaftliche Ph{\"a}nomene auf der Ebene ihres Zustandekommens, dem Individuum, zu erfassen, sowie komplexe mentale Vorg{\"a}nge des Handelns, Lernens und Kommunizierens auf einfache Weise in ein Modell zu integrieren. Mit der vorliegenden Arbeit wurde im Bereich der Konsumentenforschung erstmals ein solcher Ansatz auf regionaler Ebene angewendet, um zu planungsrelevanten Aussagen zu gelangen. In Kombination mit anderen Anwendungen im Bereich der Bev{\"o}lkerungsprognose, des Verkehrs und der innerst{\"a}dtischen Migration haben Agentensimulationen alle Voraussetzungen zu einem zukunftsweisenden Paradigma f{\"u}r die Raum- und Fachplanung.}, subject = {Umea}, language = {de} } @phdthesis{Freiwald2006, author = {Freiwald, Matthias}, title = {Therapeutisches Zielorgan Lunge : Pharmakokinetische Untersuchungen am humanen Lungenperfusionsmodell}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-21551}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2006}, abstract = {Die humane Lunge kann bei der Pharmakotherapie einer Erkrankung entweder als betroffenes Organ Ziel eines verabreichten Arzneistoffes sein oder aber auch als Portal f{\"u}r diesen in die systemische Zirkulation fungieren. Wird ein Arzneistoff inhaliert, ist f{\"u}r dessen Nutzen-Risiko-Profil von zentraler Bedeutung, in welchem Ausmaß und mit welcher Geschwindigkeit dieser resorbiert und anschließend in die systemische Zirkulation umverteilt wird. Wenn bei der Behandlung einer Lungenerkrankung dagegen ein Arzneistoff z.B. nach peroraler Gabe erst in der systemischen Zirkulation anflutet, m{\"u}ssen ausreichend hohe Wirkstoffkonzentrationen in den betroffenen Gewebearealen sichergestellt werden. Ziel der vorliegenden Arbeit war es daher, M{\"o}glichkeiten zu finden, diese beiden Vorg{\"a}nge in vitro m{\"o}glichst realit{\"a}tsnah messen zu k{\"o}nnen. F{\"u}r die Simulation der pulmonalen Absorption nach inhalativer Applikation eines Arzneistoffs diente Beclomethasondipropionat (BDP), freigesetzt aus den handels{\"u}blichen FCKW-freien Dosieraerosolen Sanasthmax® und Ventolair®, als Modellsubstanz. Es wurde zun{\"a}chst ein einfaches Dialysemodell als Screeningverfahren entwickelt. Hier wurden BDP-Partikel unter Verwendung der beiden Dosieraerosole auf humanem Lungenhomogenat deponiert und nachfolgend die kombinierten Prozesse aus Aufl{\"o}sung und Umverteilung der Substanz in eine Dialysefl{\"u}ssigkeit, die sich entweder aus salinem Puffer oder humanem Blutplasma zusammensetzte, untersucht. Anschließend wurde erstmals ein etabliertes humanes Lungenperfusionsmodell dahingehend modifiziert, dass eine Inhalation von BDP nach Applikation eines handels{\"u}blichen Dosieraerosols nachgestellt werden konnte. Auf diese Weise konnte an diesem realit{\"a}tsnahen Modell die initiale Phase der pulmonalen Absorption von BDP in der Perfusionsfl{\"u}ssigkeit verfolgt werden. Beide Modelle zeigten Unterschiede in der Aufl{\"o}sungs- bzw. Umverteilungskinetik von BDP in Abh{\"a}ngigkeit von der verwendeten Applikationsform auf. So schienen sich von Ventolair® erzeugte BDP-Partikel schneller und in gr{\"o}ßerer Menge aufzul{\"o}sen als diejenige bei den Versuchen mit Sanasthmax®, was eine vermehrte Umverteilung der Substanz sowohl in die Dialysefl{\"u}ssigkeit als auch Perfusionsl{\"o}sung zur Folge hatte. Die am Lungenperfusionsmodell beobachteten Verl{\"a}ufe der initialen pulmonalen Absorption von BDP nach Freisetzung aus den Dosieraerosolen Sanasthmax® oder Ventolair® korrelierten dabei sehr gut mit Daten aus einer entsprechenden Humanstudie mit gesunden Probanden. Auch standen die ermittelten Unterschiede in sinnvoller {\"U}bereinstimmung mit Untersuchungen der in den von Sanasthmax® oder Ventolair® verspr{\"u}hten Aerosolen enthaltenen Partikel hinsichtlich Gr{\"o}ßenverteilung, Morphologie und L{\"o}sungsverhalten in Bronchialsekret. Um die Umverteilung eines Wirkstoffs von der systemischen Zirkulation in lungenspezifisches Gewebe am humanen Lungenperfusionsmodell zu simulieren, wurden die Gewebekonzentrationen von Thalidomid (THAL) in peripherem Lungengewebe im Vergleich zu den korrespondierenden Spiegeln in einem Bronchialkarzinom erstmals mittels Mikrodialyse verfolgt. Hierzu wurde im Vorfeld f{\"u}r diese Substanz unter Einsatz des Komplexbildners (2 Hydroxypropyl)-beta-cyclodextrin (HPCD) ein bez{\"u}glich der Sensitivit{\"a}t und der zeitlichen Aufl{\"o}sung optimiertes Mikrodialysesystem etabliert und dessen Eigenschaften systematisch untersucht. Am Lungenperfusionsmodell wurde dann eine an klinisch relevante Plasmaspiegel angelehnte THAL-Konzentration in der Perfusionsl{\"o}sung vorgelegt und anschließend das Anfluten in den oben genannten Geweben mit Hilfe des entwickelten Mikrodialysesystems beobachtet. Durch Zugabe von HPCD in das Mikrodialyseperfusat konnte eine signifikante Erh{\"o}hung der Wiederfindungsrate im Dialysat (Relative Recovery) erreicht und damit ein Mikrodialysesystem etabliert werden, das neben hoher zeitlicher Aufl{\"o}sung eine ausreichende analytische Sensitivit{\"a}t f{\"u}r THAL aufwies. Allerdings wurden aufgrund dieses Perfusatzusatzes die Diffusionsvorg{\"a}nge w{\"a}hrend der Mikrodialyse derart beeinflusst, dass {\"u}bliche Methoden zur Sondenkalibrierung wie z.B. die Retrodialyse nicht mehr angewendet werden konnten, und daher in Hinblick auf die Messungen am Lungenperfusionsmodell bestehende Kalibrierverfahren modifiziert werden mussten. Bei der Untersuchung der Gewebepenetration am Lungenperfusionsmodell flutete THAL in Tumorgewebe langsamer an als in peripherem Lungengewebe, wo schnell {\"a}hnliche Konzentrationen wie in der Perfusionsl{\"o}sung gefunden wurden. Auch lagen die Gewebespiegel im Tumorgewebe stets unter dem ermittelten Niveau im Lungengewebe. Die erhaltenen Konzentrationsverh{\"a}ltnisse zwischen Perfusionsl{\"o}sung, peripherem Lungengewebe und Tumorgewebe deckten sich dabei mit Kenntnissen aus Humanstudien, in denen analog Plasmakonzentrationen von antineoplastischen Substanzen ebenfalls mittels Mikrodialyse in Relation zu deren Spiegeln in gesundem Gewebe und Tumorgewebe verschiedenster {\"A}tiologie bestimmt wurden.}, subject = {Lunge}, language = {de} } @phdthesis{Herrler2007, author = {Herrler, Rainer}, title = {Agentenbasierte Simulation zur Ablaufoptimierung in Krankenh{\"a}usern und anderen verteilten, dynamischen Umgebungen}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-24483}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2007}, abstract = {Verteilte dynamische Systeme unter lokalen und globalen Gesichtspunkten zu optimieren ist eine schwierige Aufgabe. Zwar sind grunds{\"a}tzliche Auswirkungen einzelner Maßnahmen h{\"a}ufig bekannt, durch widerstrebende Ziele, Wechselwirkungen zwischen Prozessen und Nebenwirkungen von Maßnahmen ist ein analytisches Vorgehen bei der Optimierung nicht m{\"o}glich. Besonders schwierig wird es, wenn lokale Einheiten einerseits ihre Ziele und Autonomie behalten sollen, aber durch zentrale Vorgaben bzw. Anreize so gesteuert werden sollen, dass ein {\"u}bergeordnetes Ziel erreicht wird. Ein praktisches Beispiel dieses allgemeinen Optimierungsproblems findet sich im Gesundheitswesen. Das Management von modernen Kliniken ist stets mit dem Problem konfrontiert, die Qualit{\"a}t der Pflege zu gew{\"a}hrleisten und gleichzeitig kosteneffizient zu arbeiten. Hier gilt es unter gegeben Rahmenbedingungen und bei Respektierung der Autonomie der Funktionseinheiten, Optimierungsmaßnahmen zu finden und durchzuf{\"u}hren. Vorhandene Werkzeuge zur Simulation und Modellierung bieten f{\"u}r diese Aufgabe keine ausreichend guten Vorgehensmodelle und Modellierungsmechanismen. Die agentenbasierte Simulation erm{\"o}glicht die Abbildung solcher Systeme und die Durchf{\"u}hrung von Simulationsexperimenten zur Bewertung einzelner Maßnahmen. Es werden L{\"o}sungswege und Werkzeuge vorgestellt und evaluiert, die den Benutzer bei der Formalisierung des Wissens und der Modellierung solch komplexer Szenarien unterst{\"u}tzen und ein systematisches Vorgehen zur Optimierung erm{\"o}glichen.}, subject = {Simulation}, language = {de} }