TY - THES A1 - Schielein, Richard T1 - Analytische Simulation und Aufnahmeplanung für die industrielle Röntgencomputertomographie T1 - Analytical simulation and acquisition planning for industrial x-ray computed tomography N2 - Röntgencomputertomographie (CT) hat in ihrer industriellen Anwendung ein sehr breites Spektrum möglicher Prüfobjekte. Ziel einer CT-Messung sind dreidimensionale Abbilder der Verteilung des Schwächungskoeffizienten der Objekte mit möglichst großer Genauigkeit. Die Parametrierung eines CT-Systems für ein optimales Messergebnis hängt stark vom zu untersuchenden Objekt ab. Eine Vorhersage der optimalen Parameter muss die physikalischen Wechselwirkungen mit Röntgenstrahlung des Objektes und des CT-Systems berücksichtigen. Die vorliegende Arbeit befasst sich damit, diese Wechselwirkungen zu modellieren und mit der Möglichkeit den Prozess zur Parametrierung anhand von Gütemaßen zu automatisieren. Ziel ist eine simulationsgetriebene, automatische Parameteroptimierungsmethode, welche die Objektabhängigkeit berücksichtigt. Hinsichtlich der Genauigkeit und der Effizienz wird die bestehende Röntgensimulationsmethodik erweitert. Es wird ein Ansatz verfolgt, der es ermöglicht, die Simulation eines CT-Systems auf reale Systeme zu kalibrieren. Darüber hinaus wird ein Modell vorgestellt, welches zur Berechnung der zweiten Ordnung der Streustrahlung im Objekt dient. Wegen des analytischen Ansatzes kann dabei auf eine Monte-Carlo Methode verzichtet werden. Es gibt in der Literatur bisher keine eindeutige Definition für die Güte eines CT-Messergebnisses. Eine solche Definition wird, basierend auf der Informationstheorie von Shannon, entwickelt. Die Verbesserungen der Simulationsmethodik sowie die Anwendung des Gütemaßes zur simulationsgetriebenen Parameteroptimierung werden in Beispielen erfolgreich angewendet beziehungsweise mittels Referenzmethoden validiert. N2 - Industrial X-ray computed tomography (CT) can be applied to a large variety of different specimens. The result of a CT measurement is a three-dimensional image containing the position-dependent attenuation coefficient of the specimen. For an optimal imaging CT-measurement parameters depend on both the properties of the CT-System and the specimen. To predict such an optimal parameterization both the physical interactions with X-rays of the CT-System and the specimen, must be taken into account. This thesis sets out to address the modelling of the interactions as well as the automatization of the parameter finding. The latter is based on a figure of merit for CT-measurements. Aim is a simulation-based, automatic parameter optimization method which includes the object-dependency on distinct specimens. The currently existing X-ray simulation methods are enhanced with respect to accuracy and efficiency. Therefore a method for the calibration of the simulation to a real CT-system is presented. Additionally, a model for second order X-ray scattering is developed in order to calculate the specimen-scattered radiation. This is done using an analytical ansatz and no Monte-Carlo method has to be applied. So far, no universal definition of a figure of merit for CT-results has been given in literature. Using Shannon's information theory such a definition is developed. The improvements of the simulation method and the application of the figure of merit for simulation-based parameter optimization are used in examples or are validated using reference methods. KW - Computertomografie KW - Zerstörungsfreie Werkstoffprüfung KW - Optimierung KW - Aufnahmeplanung KW - Analytische Simulation KW - CT KW - Computersimulation Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-169236 ER - TY - THES A1 - Kilian, Patrick T1 - Teilchenbeschleunigung an kollisionsfreien Schockfronten T1 - Partical acceleration at collisionless shock fronts N2 - Das Magnetfeld der Sonne ist kein einfaches statisches Dipolfeld, sondern weist wesentlich kompliziertere Strukturen auf. Wenn Rekonnexion die Topologie eines Feldlinienbündels verändert, wird viel Energie frei, die zuvor im Magnetfeld gespeichert war. Das abgetrennte Bündel wird mit dem damit verbundenen Plasma mit großer Geschwindigkeit durch die Korona von der Sonne weg bewegen. Dieser Vorgang wird als koronaler Massenauswurf bezeichnet. Da diese Bewegung mit Geschwindigkeiten deutlich über der Alfv\'en-Geschwindigkeit, der kritischen Geschwindigkeit im Sonnenwind, erfolgen kann, bildet sich eine Schockfront, die durch den Sonnenwind propagiert. Satelliten, die die Bedingungen im Sonnenwind beobachten, detektieren beim Auftreten solcher Schockfronten einen erhöhten Fluss von hochenergetischen Teilchen. Mit Radioinstrumenten empfängt man zeitgleich elektromagnetische Phänomene, die als Radiobursts bezeichnet werden, und ebenfalls für die Anwesenheit energiereicher Teilchen sprechen. Daher, und aufgrund von theoretischen Überlegungen liegt es nahe, anzunehmen, daß Teilchen an der Schockfront beschleunigt werden können. Die Untersuchung der Teilchenbeschleunigung an kollisionsfreien Schockfronten ist aber noch aus einem zweiten Grund interessant. Die Erde wird kontinuierlich von hochenergetischen Teilchen, die aus historischen Gründen als kosmische Strahlung bezeichnet werden, erreicht. Die gängige Theorie für deren Herkunft besagt, daß zumindest der galaktische Anteil durch die Beschleunigung an Schockfronten, die durch Supernovae ausgelöst wurden, bis zu den beobachteten hohen Energien gelangt sind. Das Problem bei der Untersuchung der Herkunft der kosmischen Strahlung ist jedoch, daß die Schockfronten um Supernovaüberreste aufgrund der großen Entfernung nicht direkt beobachtbar sind. Es liegt dementsprechend nahe, die Schockbeschleunigung an den wesentlich näheren und besser zu beobachtenden Schocks im Sonnensystem zu studieren, um so Modelle und Simulationen entwickeln und testen zu können. Die vorliegende Arbeit beschäftigt sich daher mit Simulationen von Schockfronten mit Parametern, die etwa denen von CME getriebenen Schocks entsprechen. Um die Entwicklung der Energieverteilung der Teilchen zu studieren, ist ein kinetischer Ansatz nötig. Dementsprechend wurden die Simulationen mit einem Particle-in-Cell Code durchgeführt. Die Herausforderung ist dabei die große Spanne zwischen den mikrophysikalischen Zeit- und Längenskalen, die aus Gründen der Genauigkeit und numerischen Stabilität aufgelöst werden müssen und den wesentlich größeren Skalen, die die Schockfront umfasst und auf der Teilchenbeschleunigung stattfindet. Um die Stabilität und physikalische Aussagekraft der Simulationen sicherzustellen, werden die numerischen Bausteine mittels Testfällen, deren Verhalten bekannt ist, gründlich auf ihre Tauglichkeit und korrekte Implementierung geprüft. Bei den resultierenden Simulationen wird das Zutreffen von analytischen Vorhersagen (etwa die Einhaltung der Sprungbedingungen) überprüft. Auch die Vorhersagen einfacherer Plasmamodelle, etwa für das elektrostatischen Potential an der Schockfront, das man auch aus einer Zwei-Fluid-Beschreibung erhalten kann, folgen automatisch aus der selbstkonsistenten, kinetischen Beschreibung. Zusätzlich erhält man Aussagen über das Spektrum und die Bahnen der beschleunigten Teilchen. N2 - The magnetic field of the sun is not a simple static dipole field but comprises much more complicated structures. When magnetic reconnection changes the topology of a structure the large amount of energy that was stored in the magnetic field is released and can eject the remainder of the magnetic structure and the plasma that is frozen to the magnetic field lines from the solar corona at large velocities. This event is called a coronal mass ejection (CME). Given that the upward motion happens at velocities larger than the local Alfv\'en speed, the critical speed in the solar wind, the CME will act as a piston that drives a shock front through the solar wind ahead of itself. Satellites that monitor solar wind conditions detect an enhanced flux of high energy particles associated with the shock front. Radio instruments typically pick up bursts of electromagnetic emission, termed radio bursts, that are also consistent with processes driven by energetic particles. Thus, and due to theoretical considerations, it is safe to assume that particles can be accelerated at the shock front. Particle acceleration at collisionless shock fronts is an interesting topic for another reason. Earth is constantly bombarded by very energetic particles called (due to historical reasons) cosmic rays. The leading theory for the production of at least the fraction of cosmic rays that originate in our galaxy is acceleration at shock fronts, e.g. in super nova remnants. The large distance and consequently limited observation of these shock fronts restrict more detailed investigations. It is therefore useful to study the process of shock acceleration at shocks in the solar system that are much closer and more approachable to develop and test models and simulation methods that can be applied in different regimes. This dissertation aims at simulations of shock fronts with parameters that are close to the ones occurring in CME driven shocks. Since the goal is the investigation of the changing particle spectrum fully kinetic methods are necessary and consequently a particle in cell code was developed and used. The main challenge there is the large span of time and length scales that range from the microscopic regime that has to be resolved to guarantee stability and accuracy to the much larger scales of the entire shock fronts at which the particle acceleration takes place. To prove the numerical stability and suitability of the simulations to provide physical results all numerical building blocks are tested on problems where the correct behavior is known to verify the correct implementation. For validation purposes the results of the final shock simulations are compared with analytic predictions (such as the jump conditions from magneto hydrodynamics) and predictions of simpler plasma models (such as the cross shock potential that can be derived from two fluid theory). Finally results that can only be obtained from a self consistent, fully kinetic model, such as particle spectra and trajectories, are discussed. KW - Stoßfreies Plasma KW - Sonnenwind KW - Teilchenbeschleunigung KW - Computersimulation KW - kinetische Plasmaphysik KW - Stoßwelle KW - Schockfront Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-119023 ER - TY - THES A1 - Müller, Thomas M. T1 - Computergestütztes Materialdesign: Mikrostruktur und elektrische Eigenschaften von Zirkoniumdioxid–Aluminiumoxid Keramiken T1 - Computer-Aided Material Design: Microstructure and Electrical Properties of Zirconia-Alumina-Ceramics N2 - Die Mikrostruktur von Zirkonoxid–Aluminiumoxid Keramiken wurde im Rasterelektronenmikroskop (REM) untersucht und mittels quantitativer Bildanalyse weiter charakterisiert. Die so erhaltenen spezifischen morphologischen Kennwerte wurden mit denen, die an dreidimensionalen Modellstrukturen äquivalent gewonnen wurden, verglichen. Es wurden modifizierte Voronoistrukturen benutzt, um die beteiligten Phasen in repräsentativen Volumenelementen (RVE) auf Voxelbasis zu erzeugen. Poren wurden an den Ecken und Kanten dieser Strukturen nachträglich hinzugefüg. Nachdem alle relevanten Kennwerte der Modellstrukturen an die realen keramischen Mikrostrukturen angepasst wurden, musste das RVE für die Finite Element Simulationen (FES) geeignet vernetzt werden. Eine einfache Übernahme der Voxelstrukturen in hexaedrische Elemente führt zu sehr langen Rechenzeiten, und die erforderliche Genauigkeit der FES konnte nicht erreicht werden. Deshalb wurde zunächst eine adaptive Oberflächenvernetzung ausgehend von einem generally classed marching tetrahedra Algorithmus erzeugt. Dabei wurde besonderer Wert auf die Beibehaltung der zuvor angepassten Kennwerte gelegt. Um die Rechenzeiten zu verkürzen ohne die Genauigkeit der FES zu beeinträchtigen, wurden die Oberflächenvernetzungen dergestalt vereinfacht, dass eine hohe Auflösung an den Ecken und Kanten der Strukturen erhalten blieb, während sie an flachen Korngrenzen stark verringert wurde. Auf Basis dieser Oberflächenvernetzung wurden Volumenvernetzungen, inklusive der Abbildung der Korngrenzen durch Volumenelemente, erzeugt und für die FES benutzt. Dazu wurde ein FE-Modell zur Simulation der Impedanzspektren aufgestellt und validiert. Um das makroskopische elektrische Verhalten der polykristallinen Keramiken zu simulieren, mussten zunächst die elektrischen Eigenschaften der beteiligten Einzelphasen gemessen werden. Dazu wurde eine Anlage zur Impedanzspektroskopie bis 1000 °C aufgebaut und verwendet. Durch weitere Auswertung der experimentellen Daten unter besonderer Berücksichtigung der Korngrenzeffekte wurden die individuellen Phaseneigenschaften erhalten. Die Zusammensetzung der Mischkeramiken reichte von purem Zirkonoxid (3YSZ) bis zu purem Aluminiumoxid. Es wurde eine sehr gute Übereinstimmung zwischen den experimentellen und simulierten Werten bezüglich der betrachteten elektrischen, mechanischen und thermischen Eigenschaften erreicht. Die FES wurden verwendet, um die Einflüsse verschiedener mikrostruktureller Parameter, wie Porosität, Korngröße und Komposition, auf das makroskopische Materialverhalten näher zu untersuchen. N2 - The microstructures of zirconia–alumina ceramics are investigated by scanning electron microscopy (SEM) and further characterised by quantitative image analysis. This leads to specific morphological parameters which are compared with the same parameters derived from three-dimensional model structures generated in voxel-based representative volume elements (RVE). Modified Voronoi clusters are employed to represent alumina and zirconia phases. Pores are added at the grain corners and edges respectively. After adjusting all the relevant morphological parameters of the model to the real ceramics’ microstructure, the RVE has to be meshed for finite element simulations (FES). Hexahedral elements which simply use the voxel structure did not lead to sufficient accuracy of the FES. As a first step, an adapted surface tessellation is generated, using a generally classed marching tetrahedra method. Special care is taken to preserve the topology as well as the individual volumes and interfaces of the model. In terms of processing time and accuracy of the FES it is very important to simplify the initially generated surface mesh in a manner that preserves detailed resolution at corners and along edges, while decimating the number of surface elements in flat regions, i.e. at the grain boundaries. From the surface mesh an adequate tetrahedral volume tessellation, including solid elements representing the grain boundaries, is created, which is used for the FES. Therefore, a FE-model for the simulation of impedance spectra has been established and validated. To simulate the macroscopic electrical behaviour of polycrystalline ceramics, the electrical properties of the individual constituting phases need to be measured. This is done by impedance spectroscopy up to 1000 °C. Further analysis of the experimental data with special respect to the effect of the grain boundaries is carried out to obtain the individual phases’ properties. The sample composition was varied from pure zirconia to pure alumina. A very good agreement between experimental and simulated data was achieved in terms of electrical, thermal and mechanical properties. The FES were employed to scrutinize the effects of systematically varying microstructural properties, such as porosity, grain size and composition, on the macroscopic material behaviour. KW - Keramischer Werkstoff KW - Mikrostruktur–Eigenschafts–Korrelationen KW - Mikrostrukturmodellierung KW - Impedanzspektroskopie KW - Finite Element Simulationen KW - Microstructure–Property–Relationship KW - Microstructure Modelling KW - Impedance Spectroscopy KW - Finite Element Simulations KW - Mikrostruktur KW - Computersimulation KW - Finite-Elemente-Methode KW - Simulation KW - Dreidimensionales Modell KW - Gefügekunde Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-110942 ER - TY - THES A1 - Fehler, Manuel T1 - Kalibrierung Agenten-basierter Simulationen T1 - Calibration of Agent-based Simulations N2 - In der vorliegenden Arbeit wird das Problem der Kalibrierung Agenten-basierter Simulationen (ABS) behandelt, also das Problem, die Parameterwerte eines Agenten-basierten Simulationsmodells so einzustellen, dass valides Simulationsverhalten erreicht wird. Das Kalibrierungsproblem für Simulationen an sich ist nicht neu und ist im Rahmen klassischer Simulationsparadigmen, wie z.B. der Makro-Simulation, fester Bestandteil der Forschung. Im Vergleich zu den dort betrachteten Kalibrierungsproblemen zeichnet sich das Kalibrierungsproblem für ABS jedoch durch eine Reihe zusätzlicher Herausforderungen aus, welche die direkte Anwendung existierender Kalibrierungsverfahren in begrenzter Zeit erschweren, bzw. nicht mehr sinnvoll zulassen. Die Lösung dieser Probleme steht im Zentrum dieser Dissertation: Das Ziel besteht darin, den Nutzer bei der Kalibrierung von ABS auf der Basis von unzureichenden, potentiell fehlerhaften Daten und Wissen zu unterstützen. Dabei sollen drei Hauptprobleme gelöst werden: 1)Vereinfachung der Kalibrierung großer Agenten-Parametermengen auf der Mikro- Ebene in Agenten-basierten Simulationen durch Ausnutzung der spezifischen Struktur von ABS (nämlich dem Aufbau aus einer Menge von Agentenmodellen). 2)Kalibrierung Agenten-basierter Simulationen, so dass auf allen relevanten Beobachtungsebenen valides Simulationsverhalten erzeugt wird (mindestens Mikro und Makro-Ebene). Als erschwerende Randbedingung muss die Kalibrierung unter der Voraussetzung einer Makro-Mikro-Wissenslücke durchgeführt werden. 3)Kalibrierung Agenten-basierter Simulationen auf der Mikro-Ebene unter der Voraussetzung, dass zur Kalibrierung einzelner Agentenmodelle nicht ausreichend und potentiell verfälschte Daten zur Verhaltensvalidierung zur Verfügung stehen. Hierzu wird in dieser Arbeit das sogenannte Makro-Mikro-Verfahren zur Kalibrierung von Agenten-basierten Simulationen entwickelt. Das Verfahren besteht aus einem Basisverfahren, das im Verlauf der Arbeit um verschiedene Zusatzverfahren erweitert wird. Das Makro-Mikro-Verfahren und seine Erweiterungen sollen dazu dienen, die Modellkalibrierung trotz stark verrauschter Daten und eingeschränktem Wissen über die Wirkungszusammenhänge im Originalsystem geeignet zu ermöglichen und dabei den Kalibrierungsprozess zu beschleunigen: 1) Makro-Mikro-Kalibrierungsverfahren: Das in dieser Arbeit entwickelte Makro- Mikro-Verfahren unterstützt den Nutzer durch eine kombinierte Kalibrierung auf der Mikro- und der Makro-Beobachtungsebene, die gegebenenfalls durch Zwischenebenen erweitert werden kann. Der Grundgedanke des Verfahrens besteht darin, das Kalibrierungsproblem in eines auf aggregierter Verhaltensebene und eines auf der Ebene des Mikro-Agentenverhaltens aufzuteilen. Auf der Makro-Ebene wird nach validen idealen aggregierten Verhaltensmodellen (IVM) der Agenten gesucht. Auf der Mikro-Ebene wird versucht die individuellen Modelle der Agenten auf Basis des erwünschten Gesamtverhaltens und der ermittelten IVM so zu kalibrieren, das insgesamt Simulationsverhalten entsteht, das sowohl auf Mikro- als auch auf Makro-Ebene valide ist. 2) Erweiterung 1: Robuste Kalibrierung: Um den Umgang mit potentiell verrauschten Validierungskriterien (d.h. mit verrauschten Daten über ein Originalsystem, auf denen die Validierungskriterien der Simulation beruhen) und Modellteilen während der Kalibrierung von ABS zu ermöglichen, wird eine robuste Kalibrierungstechnik zur Anwendung im Makro-Mikro-Verfahren entwickelt. 3) Erweiterung 2: Kalibrierung mit Heterogenitätssuche: Als zweite Erweiterung des Makro-Mikro-Verfahrens wird ein Verfahren entwickelt, das das Problem des unklaren Detaillierungsgrades von ABS auf der Ebene der Parameterwerte adressiert. Prinzipiell kann zwar jeder Agent unterschiedliche Parameterwerte verwenden, obwohl eine geringere Heterogenität zur Erzeugung validen Verhaltens ausreichend wäre. Die entwickelte Erweiterung versucht, während der Kalibrierung, eine geeignete Heterogenitätsausprägung für die Parameterwerte der Agenten zu ermitteln. Unter einer Heterogenitätsausprägung wird dabei eine Einteilung der simulierten Agenten in Gruppen mit jeweils gleichen Parameterwerten verstanden. Die Heterogenitätssuche dient dazu, einen Kompromiss zu finden zwischen der Notwendigkeit, sehr große Parametersuchräume durchsuchen zu müssen und gleichzeitig den Suchraum so klein wie möglich halten zu wollen. N2 - In this doctoral thesis the problem of calibrating agent-based simulations (ABS) is treated, i.e. the problem to adjust the parameter values of an agent-based simulation model to achieve valid simulation behavior. The calibration problem for simulations per se is not new and is an active part of research in the context of traditional simulation paradigms, such as the macro-simulation. Compared to the problems considered there the problems for ABS can be distinguished by several additional challenges that complicate the direct application of existing calibration procedures in a limited time, or challenges that do not allow applying existing procedures at all. The goal of this thesis is to assist the user in the calibration of ABS on the basis of incomplete and potentially noisy data or knowledge and in dealing with large amounts of parameter values if an ABS with many individual agents needs to be calibrated. The thesis covers the following three main topics: 1) Simplification of the calibration of many agent parameter values on the micro-level in ABS. This is done by exploiting the specific structure of ABS (i.e. that an ABS constitutes of a lattice of agent models). 2) Calibration of agent-based simulations, so that valid simulation behavior is created on all relevant behavior observation levels (at least micro- and macro-level). This needs to be possible without having full knowledge about how the macro observation level behavior constitutes from the modeled micro behavior. 3) Calibration of agent-based simulations on the micro-level under the constraint that only partial and potentially noisy data for testing and validation of single individual agent models is available. To achieve this the so-called “Macro-Micro Procedure” for calibrating agent-based simulations is developed. The approach consists of a basic procedure that is extended in the course of the work with various additional techniques: 1)Macro-Micro-Calibration Procedure: The Macro-Micro Procedure supports the user by applying a combined calibration on the micro and the macro-observation level, which can optionally be expanded using additional intermediate levels. The basic idea of the procedure consists of separating the calibration problem into one at the aggregate behavior level and one at the level of the micro-agent behavior. At the macro level, valid simulation behavior for ideal aggregate behavior models (IAM) of agents is being determined. At the micro level, the goal is to calibrate the models of the individual agents based on the desired overall behavior and the determined IAM from the macro level. Upon completion the simulation behavior created shall be valid both at the micro and also at a macro level. 2)Extension 1: Robust Calibration: In order to deal with potentially noisy validation criteria and model parts (i.e. with noisy data about the original system from which the validation criteria of the simulation are created) a robust calibration technique is developed that can be used as part of the Macro-Micro-Procedure. 3)Extension 2: Calibration with heterogeneity search: The second extension of the Macro-Micro-Procedure addresses the problem of an unclear level of detail on the level of the parameter values. Theoretically it is possible to use different parameter values for each individual simulated agent which leads to a huge parameter search space. Often it is however sufficient to use a lower heterogeneity in the parameter values to generate valid behavior which would allow calibration in a smaller search space. The developed extension attempts to determine such a suitable heterogeneity manifestation for the parameter values of the agents as part of the calibration process itself. A heterogeneity manifestation is performed by dividing the agents into groups of agents with homogenous parameter values. The developed heterogeneity search offers a compromise between the necessity of having to search very large parameter search spaces and the goal to keep the search space as small as possible during the calibration. KW - Computersimulation KW - Mehrebenensimulation KW - Autonomer Agent KW - Agenten-basierte Simulation KW - Multiagentensimulation KW - Parameterkalibrierung KW - Hierarchische Simulation KW - Simulation KW - Agent KW - Calibration KW - Optimization KW - Agent-based Simulation KW - Multi-Agent-Simulation Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-64762 ER - TY - THES A1 - Kaltwasser, Christoph T1 - Rekonstruktion und Simulation der Ausbreitung und Rückbildung der elektrischen Erregung im Herzmuskel des Menschen : Visualisierung kardialer Potentiale mit Methoden der magnetresonanztomographischen Bildgebung, der kardialen Biosignalverarbeitung und der numerischen Lösung des Inversen Problems der Elektrokardiographie T1 - Reconstruction and simulation of the electric depolarization and repolarization in the human heart N2 - Die elektrophysiologischen Vorgänge während der Depolarisation und Repolarisation des Myokards können mittels der Signale des 12-Kanal EKGs selbst bei Vorliegen großen Expertenwissens nur unzureichend beobachtet bzw. interpretiert werden. Grund hierfür sind vor allen Dingen Inhomogenitäten in der kardialen und thorakalen elektrischen Leitfähigkeit sowie die starke Signalabschwächung in den durchlaufenen Geweben. Intrakardiale Verfahren der Signalableitung sind ein Ansatz zu Lösung dieses Problems; sie sind jedoch aufwändig und risikobehaftet. In dem in dieser Arbeit eingesetzten Verfahren hingegen konnte, durch patientenindividuelle Modellierung der Herz- und Thoraxanatomie sowie der Leitfähigkeitsverhältnisse, mittels numerischer Verfahren aus einer Vielzahl von Oberflächen-EKG Ableitungen auf die elektrophysiologischen Vorgänge im Myokard in ihrem zeitlichen und örtlichen Verlauf geschlossen werden (Inverses Problem der Elektrokardiographie). Es konnten bei gesunden Probanden sowie bei Patienten mit verschiedenen kardialen Pathologien zeitlich und örtlich hochaufgelöste Rekonstruktionen von epikardialen- und Transmembranpotentialverteilungen angefertigt werden. Es zeigte sich, dass insbesondere im Bereich großer Infarktnarben der Herzvorder- sowie der Herzhinterwand elektrophysiologische Auffälligkeiten nachweisbar waren. So zeigten sich während der Depolarisationsphase Myokardareale mit einer verminderten Aktivität und Polarisationsumkehr, Bezirke mit verzögerter Depolarisationsaktivität sowie Areale mit atypisch verlaufender Repolarisationsaktivität. Anhand der vorliegenden Ergebnisse konnte gezeigt werden, dass eine Rekonstruktion der physiologischen Abläufe im Myokard während der Depolarisation und der Repolarisation mit dem hierzu implementierten Verfahren möglich ist. Anhand von elektroanatomischen Modellen konnten darüber hinaus die physiologische sowie die pathologisch veränderte Erregungsausbreitung im Myokard simuliert werden. Durch Verbesserung der Rekonstruktionsalgorithmen, der Methoden der Signalverarbeitung und der Regularisierung der Lösungsverfahren ist zukünftig eine weitere Verbesserung der Rekonstruktionsergebnisse zu erwarten. Vor dem klinischen Einsatz der Methode muss eine eingehende Validation erfolgen. N2 - The electrophysiological processes that occur during cardiac depolarization and repolarization can be interpreted via 12-channel ECG only in a limited manner. This is due to inhomogeneities in the cardiac and thoracic electric conductivity and the attenuation of the electric signals in the body. Invasive cardiac measurements can avoid these problems but are expensive and not free of risk for the patient. In this work therefore a method of non-invasive electrocardiographic imaging was established which permits the reconstruction of cardiac electrophysiological processes using exclusively information obtained by non-invasive methods (MR-imaging, electrocardiographic mapping). Using anatomic information from MR-images of the patient’s heart and chest, a patient-individual model of electric conductivity could be created (finite-element method). Numerical algorithms were used to solve the inverse problem of electrocardiography, i.e. finding cardiac potential distributions that explain the measured surface potential distribution. In two healthy volunteers as well as in 7 patients with different cardiac pathologies, reconstructions of epicardial potentials and transmembrane voltages were performed. Specific electrophysiological abnormalities (decreased electric activity, polarization reversal, delayed depolarization and atypical repolarization patterns) could be detected in the proximity of myocardial scars. To optimize reconstruction algorithms and regularization methods, cardiac potentials were also simulated using a cellular automaton and the patient individual conductivity model. This study shows that the reconstruction of cardiac electrophysiology is feasible with this method and that myocardial scars and atypical patterns of depolarization and repolarization can be detected. By further improving the method and after a process of validation, clinically relevant data might be obtained. KW - Elektrophysiologie KW - Herzmuskelfunktion KW - Elektrisches Potenzial KW - Rekonstruktion KW - NMR-Tomographie KW - Computersimulation KW - Depolarisation KW - Repolarisation KW - Elektrokardiologie KW - Vorwärtsproblem KW - nichtinvasive elektrokardiographische Bildgebung KW - ECGI KW - NICE KW - Inverses Problem KW - electrocardiology KW - non-invasive electrocardiographic imaging KW - ECGI KW - NICE KW - NMR-tomography KW - mapping KW - inverse problem Y1 - 2007 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-26316 ER - TY - THES A1 - Galmbacher, Matthias T1 - Lernen mit dynamisch-ikonischen Repräsentationen aufgezeigt an Inhalten zur Mechanik T1 - Learning from dynamic-iconic representations N2 - Im Physikunterricht wurde lange Zeit die Bedeutung quantitativer Zusammenhänge für das Physiklernen überbewertet, qualitative Zusammenhänge spielten dagegen eine eher untergeordnete Rolle. Dies führte dazu, dass das Wissen der Schüler zumeist ober­fläch­lich blieb und nicht auf neue Situationen angewendet werden konnte. TIMSS und Pisa offenbarten diese Schwierigkeiten. In den Abschlussberichten wurde kritisiert, dass die Schüler kaum in der Lage seien, Lernstoff zu transferieren oder pro­blem­lösend zu denken. Um physikalische Abläufe deuten und entsprechende Probleme lösen zu können, ist qua­litativ-konzeptuelles Wissen nötig. Dieses kann, wie Forschungs­ergebnisse belegen, am besten durch die konstruktivistisch motivierte Gestaltung von Lern­situationen sowie durch die Inte­gration externer Repräsentationen von Versuchs­aussagen in den Schul­unter­richt er­reicht werden. Eine konkrete Umsetzung dieser Bedingungen stellt der Ein­satz rechner­gestützter Experimente dar, der heutzutage ohne allzu großen technischen Aufwand rea­lisiert werden kann. Diese Experimente erleichtern es dem Lernenden, durch den direk­ten Umgang mit realen Abläufen, physikalische Konzepte zu erschließen und somit qua­litative Zusammenhänge zu verstehen. Während man lange Zeit von einer grundsätzlichen Lernwirksamkeit animierter Lern­um­gebungen ausging, zeigen dagegen neuere Untersuchungen eher Gegenteiliges auf. Schüler müssen offensichtlich erst lernen, wie mit multicodierten Re­prä­sentationen zu arbeiten ist. Die vorliegende Arbeit will einen Beitrag dazu leisten, he­raus­zufinden, wie lernwirksam sogenannte dynamisch-ikonische Repräsentationen (DIR) sind, die physikalische Größen vor dem Hintergrund konkreter Versuchsabläufe visuali­sieren. Dazu bearbeiteten im Rahmen einer DFG-Studie insgesamt 110 Schüler jeweils 16 Projekte, in denen mechanische Konzepte (Ort, Geschwindigkeit, Beschleu­nigung und Kraft) aufgegriffen wurden. Es zeigte sich, dass die Probanden mit den ein­ge­setzten DIR nicht erfolgreicher lernen konnten als ver­gleich­bare Schüler, die die gleichen Lerninhalte ohne die Unter­stützung der DIR erarbeiteten. Im Gegen­teil: Schüler mit einem geringen visuellen Vorstellungsvermögen schnitten aufgrund der Darbietung einer zusätzlichen Codierung schlechter ab als ihre Mit­schüler. Andererseits belegen Untersuchungen von Blaschke, dass solche Repräsen­ta­tionen in der Erarbeitungsphase einer neu entwickelten Unter­richts­kon­zep­tion auch und gerade von schwächeren Schülern konstruktiv zum Wissens­erwerb genutzt werden konnten. Es scheint also, dass die Lerner zunächst Hilfe beim Umgang mit neuartigen Re­prä­sen­ta­tions­formen benötigen, bevor sie diese für den weiteren Aufbau adäqua­ter physi­ka­lischer Modelle nutzen können. Eine experimentelle Unter­suchung mit Schü­lern der 10. Jahrgangsstufe bestätigte diese Vermutung. Hier lernten 24 Probanden in zwei Gruppen die mechanischen Konzepte zu Ort, Geschwin­dig­keit und Beschleunigung kennen, bevor sie im Unter­richt behandelt wurden. Während die Teil­nehmer der ersten Gruppe nur die Simulationen von Bewegungsabläufen und die zuge­hörigen Liniendiagramme sahen, wurden für die zweite Gruppe unterstützend DIR eingesetzt, die den Zusammenhang von Bewe­gungs­ablauf und Linien­diagramm veranschaulichen sollten. In beiden Gruppen war es den Probanden möglich, Fragen zu stellen und Hilfe von einem Tutor zu erhalten. Die Ergebnis­se zeigten auf, dass es den Schülern durch diese Maßnahme ermöglicht wurde, die DIR erfolgreich zum Wissens­er­werb einzusetzen und sig­nifikant besser abzuschneiden als die Teilnehmer in der Kon­troll­­gruppe. In einer weiteren Untersuchung wurde abschließend der Frage nachgegangen, ob DIR unter Anleitung eines Tutors eventuell bereits in der Unterstufe sinnvoll eingesetzt werden können. Ausgangspunkt dieser Überlegung war die Tatsache, dass mit der Einführung des neuen bayerischen G8-Lehrplans wesentliche Inhalte, die Bestand­teil der vorherigen Untersuchungen waren, aus dem Physik­unterricht der 11. Jgst. in die 7. Jahrgangsstufe verlegt wurden. So bot es sich an, mit den Inhalten auch die DIR in der Unterstufe ein­zusetzen. Die Un­tersuchungen einer quasiexperimentellen Feldstudie in zwei siebten Klassen belegten, dass die betrachte­ten Repräsentationen beim Aufbau entsprechender Kon­zepte keinesfalls hinderlich, sondern sogar förder­lich sein dürften. Denn die Schüler­gruppe, die mit Hilfe der DIR lernte, schnitt im direkten hypothesenprüfenden Vergleich mit der Kontrollklasse deutlich besser ab. Ein Kurztest, der die Nachhaltigkeit des Gelernten nach etwa einem Jahr überprüfen sollte, zeigte zudem auf, dass die Schüler der DIR-Gruppe die Konzepte, die unter Zuhilfenahme der DIR erarbeitet wurden, im Vergleich zu Schülern der Kontrollklasse und zu Schülern aus 11. Klassen insgesamt überraschend gut verstanden und behalten hatten. N2 - For a long time the significance of quantitative interrelations for the acquisition of physics has been overestimated in physics education while qualitative interrelations have been considered of less importance. This has resulted in the students’ knowledge most often remaining superficial and not suited to be adapted to new situations. TIMSS and Pisa have revealed these difficulties, criticizing the conventional physics education for de­manding too little transfer achievements and not preparing students to solve physical problems on their own by thinking constructively. To be able to solve physical problems and interpret physical processes, qualitative-con­ceptual knowledge is vital. According to results of the latest research this can be achieved most efficiently by creating constructivist learning situations as well as inte­grating external representations of conclusions from experiments. A concrete way to reach these envisaged aims is the application of PC-assisted experiments, which can be put in practise without an exceeding technical effort. These experiments enable the stu­dents - by being directly confronted with a realistic process - to get insight into physical concepts and thus to understand qualitative interrelations. For a long time a basic learning efficiency of animated learning environments was as­sumed, more recent research, however, has rather pointed in the opposite direction. Ob­viously students must first learn how to work with multi-coded representations. This pa­per is intended to contribute to the exploration of the efficiency of the so-called dynamic-iconic representations (DIR), which visualize physical values against the background of concrete test procedures. For this purpose 110 students have covered 16 projects each within a DFG study, in which mechanical concepts (place, velocity, acceleration and force) are dealt with and developed further. As it turned out, students working with the dynamic-iconic represen­tations did not learn more efficiently than those working without the assistance of the dynamic-iconic representations. On the contrary: students with a less distinct visual-spa­tial ability did worse than their fellow-students, obviously due to the presentation of yet another encoding. On the other hand research by Blaschke has proven that such representations can be used constructively to gain knowledge especially by the inefficient students during the acquisition stages of a (newly-developed) teaching conception. Consequently, it seems that students must first receive some sort of assistance with handling novel forms of representation before being able to use them for getting to know about the further construction of physical models. An experimental study with partici­pants from tenth-grade high school classes has confirmed this assumption. Another study dealt with the question as to whether dynamic-iconic representations can already be applied expediently in the lower grade. It was performed because significant contents of the physics year 11 curriculum had been moved to year 7 with the introduc­tion of the new Bavarian G8 (eight-year high school) curriculum. Thus it seemed advis­able to apply the dynamic-iconic representations along with the contents in the lower grade. The research done in a quasi experimental field study has shown that the representations in question are by no means obstructive, but in parts conducive to the students’ ability to develop corresponding conceptions. This can be seen from the fact that the group of stu­dents learning with the assistance of dynamic-iconic representations did indeed con­siderably better than the ‘control group’. With its results this paper is supposed to contribute to a better understanding of the ap­plication of multimedia learning environments. The medium alone cannot induce mea­ningful learning processes – these processes must be well-structured and start as soon as possible, so that they can teach the students to deal with the different encodings sen­sibly. I am convinced that this is the only way the various possibilities our current IT age offers us with its multimedia worlds or multi-coded learning environments can be used efficiently. KW - Multimedia KW - Graphische Darstellung KW - Repräsentation KW - Computerunterstütztes Lernen KW - Computersimulation KW - Computer KW - Physikunterricht KW - Natur und Technik KW - Codierung KW - Mechanik KW - Newton KW - Isaac KW - Kraft KW - Kraftmessung KW - Didaktik KW - Dynamisch-ikonische Repräsentation KW - G8 Bayern KW - Natur und Technikunterricht KW - dynamic-iconic representation KW - learning KW - physics KW - mechanic Y1 - 2007 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-29271 ER - TY - THES A1 - Klügl, Franziska T1 - Aktivitätsbasierte Verhaltensmodellierung und ihre Unterstützung bei Multiagentensimulationen T1 - "Activity"-based Modelling of Behaviour and its Support for Multi-Agent Simulation N2 - Durch Zusammenführung traditioneller Methoden zur individuenbasierten Simulation und dem Konzept der Multiagentensysteme steht mit der Multiagentensimulation eine Methodik zur Verfügung, die es ermöglicht, sowohl technisch als auch konzeptionell eine neue Ebene an Detaillierung bei Modellbildung und Simulation zu erreichen. Ein Modell beruht dabei auf dem Konzept einer Gesellschaft: Es besteht aus einer Menge interagierender, aber in ihren Entscheidungen autonomen Einheiten, den Agenten. Diese ändern durch ihre Aktionen ihre Umwelt und reagieren ebenso auf die für sie wahrnehmbaren Änderungen in der Umwelt. Durch die Simulation jedes Agenten zusammen mit der Umwelt, in der er "lebt", wird die Dynamik im Gesamtsystem beobachtbar. In der vorliegenden Dissertation wurde ein Repräsentationsschema für Multiagentensimulationen entwickelt werden, das es Fachexperten, wie zum Beispiel Biologen, ermöglicht, selbständig ohne traditionelles Programmieren Multiagentenmodelle zu implementieren und mit diesen Experimente durchzuführen. Dieses deklarative Schema beruht auf zwei Basiskonzepten: Der Körper eines Agenten besteht aus Zustandsvariablen. Das Verhalten des Agenten kann mit Regeln beschrieben werden. Ausgehend davon werden verschiedene Strukturierungsansätze behandelt. Das wichtigste Konzept ist das der "Aktivität", einer Art "Verhaltenszustand": Während der Agent in einer Aktivität A verweilt, führt er die zugehörigen Aktionen aus und dies solange, bis eine Regel feuert, die diese Aktivität beendet und eine neue Aktivität auswählt. Durch Indizierung dieser Regeln bei den zugehörigen Aktivitäten und Einführung von abstrakten Aktivitäten entsteht ein Schema für eine vielfältig strukturierbare Verhaltensbeschreibung. Zu diesem Schema wurde ein Interpreter entwickelt, der ein derartig repräsentiertes Modell ausführt und so Simulationsexperimente mit dem Multiagentenmodell erlaubt. Auf dieser Basis wurde die Modellierungs- und Experimentierumgebung SeSAm ("Shell für Simulierte Agentensysteme") entwickelt. Sie verwendet vorhandene Konzepte aus dem visuellen Programmieren. Mit dieser Umgebung wurden Anwendungsmodelle aus verschiedenen Domänen realisiert: Neben abstrakten Spielbeispielen waren dies vor allem Fragestellungen zu sozialen Insekten, z.B. zum Verhalten von Ameisen, Bienen oder der Interaktion zwischen Bienenvölkern und Milbenpopulationen. N2 - In this thesis a representational scheme for multi-agent simulations was developed. This framework enables domain experts - e.g. biologists - to build models and carry out experiments without having to understand and use traditional programming languages. The resulting declarative framework is based on two concepts: the body of an agent can be modelled by a set of state variables. The behaviour of the agents can be described best by using rules. With this as a starting point various approaches for structuring the description are examined. The most important concept is the concept of "activity" - a kind of "behavioural state": While the agent is in a certain activity A, it carries out the sequence of actions that is associated with A - and continues with it until a rule fires thus terminating the activity A and selecting a new one. By indexing these rules at the activity they are terminating and by introducing abstract activities, a framework for behaviour modelling emerges that can be structured in multifarious ways. An interpreter executing this representation scheme was developed in order to allow simulation experiments with such a multi-agent model. This simulator was integrated into a modelling and simulation environment, named SeSAm ("Shell for Simulated Agent-Systems"). Using this framework several models in different application domains are implemented: They are ranging from simple games to complex models, especially of social insects - e.g. the behaviour of ants or bees or the interactions between bee hives and mite populations. KW - Agent KW - Simulation KW - Computersimulation KW - Mehragentensystem KW - Simulation KW - Modellierung KW - Multiagentensystem KW - Regelbasiertes System KW - Simulation KW - Modelling KW - Multi-agent system KW - Rule-based Systems Y1 - 2000 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-2874 ER -