@phdthesis{Schielein2018, author = {Schielein, Richard}, title = {Analytische Simulation und Aufnahmeplanung f{\"u}r die industrielle R{\"o}ntgencomputertomographie}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-169236}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2018}, abstract = {R{\"o}ntgencomputertomographie (CT) hat in ihrer industriellen Anwendung ein sehr breites Spektrum m{\"o}glicher Pr{\"u}fobjekte. Ziel einer CT-Messung sind dreidimensionale Abbilder der Verteilung des Schw{\"a}chungskoeffizienten der Objekte mit m{\"o}glichst großer Genauigkeit. Die Parametrierung eines CT-Systems f{\"u}r ein optimales Messergebnis h{\"a}ngt stark vom zu untersuchenden Objekt ab. Eine Vorhersage der optimalen Parameter muss die physikalischen Wechselwirkungen mit R{\"o}ntgenstrahlung des Objektes und des CT-Systems ber{\"u}cksichtigen. Die vorliegende Arbeit befasst sich damit, diese Wechselwirkungen zu modellieren und mit der M{\"o}glichkeit den Prozess zur Parametrierung anhand von G{\"u}temaßen zu automatisieren. Ziel ist eine simulationsgetriebene, automatische Parameteroptimierungsmethode, welche die Objektabh{\"a}ngigkeit ber{\"u}cksichtigt. Hinsichtlich der Genauigkeit und der Effizienz wird die bestehende R{\"o}ntgensimulationsmethodik erweitert. Es wird ein Ansatz verfolgt, der es erm{\"o}glicht, die Simulation eines CT-Systems auf reale Systeme zu kalibrieren. Dar{\"u}ber hinaus wird ein Modell vorgestellt, welches zur Berechnung der zweiten Ordnung der Streustrahlung im Objekt dient. Wegen des analytischen Ansatzes kann dabei auf eine Monte-Carlo Methode verzichtet werden. Es gibt in der Literatur bisher keine eindeutige Definition f{\"u}r die G{\"u}te eines CT-Messergebnisses. Eine solche Definition wird, basierend auf der Informationstheorie von Shannon, entwickelt. Die Verbesserungen der Simulationsmethodik sowie die Anwendung des G{\"u}temaßes zur simulationsgetriebenen Parameteroptimierung werden in Beispielen erfolgreich angewendet beziehungsweise mittels Referenzmethoden validiert.}, subject = {Computertomografie}, language = {de} } @phdthesis{Kilian2015, author = {Kilian, Patrick}, title = {Teilchenbeschleunigung an kollisionsfreien Schockfronten}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-119023}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2015}, abstract = {Das Magnetfeld der Sonne ist kein einfaches statisches Dipolfeld, sondern weist wesentlich kompliziertere Strukturen auf. Wenn Rekonnexion die Topologie eines Feldlinienb{\"u}ndels ver{\"a}ndert, wird viel Energie frei, die zuvor im Magnetfeld gespeichert war. Das abgetrennte B{\"u}ndel wird mit dem damit verbundenen Plasma mit großer Geschwindigkeit durch die Korona von der Sonne weg bewegen. Dieser Vorgang wird als koronaler Massenauswurf bezeichnet. Da diese Bewegung mit Geschwindigkeiten deutlich {\"u}ber der Alfv\'en-Geschwindigkeit, der kritischen Geschwindigkeit im Sonnenwind, erfolgen kann, bildet sich eine Schockfront, die durch den Sonnenwind propagiert. Satelliten, die die Bedingungen im Sonnenwind beobachten, detektieren beim Auftreten solcher Schockfronten einen erh{\"o}hten Fluss von hochenergetischen Teilchen. Mit Radioinstrumenten empf{\"a}ngt man zeitgleich elektromagnetische Ph{\"a}nomene, die als Radiobursts bezeichnet werden, und ebenfalls f{\"u}r die Anwesenheit energiereicher Teilchen sprechen. Daher, und aufgrund von theoretischen {\"U}berlegungen liegt es nahe, anzunehmen, daß Teilchen an der Schockfront beschleunigt werden k{\"o}nnen. Die Untersuchung der Teilchenbeschleunigung an kollisionsfreien Schockfronten ist aber noch aus einem zweiten Grund interessant. Die Erde wird kontinuierlich von hochenergetischen Teilchen, die aus historischen Gr{\"u}nden als kosmische Strahlung bezeichnet werden, erreicht. Die g{\"a}ngige Theorie f{\"u}r deren Herkunft besagt, daß zumindest der galaktische Anteil durch die Beschleunigung an Schockfronten, die durch Supernovae ausgel{\"o}st wurden, bis zu den beobachteten hohen Energien gelangt sind. Das Problem bei der Untersuchung der Herkunft der kosmischen Strahlung ist jedoch, daß die Schockfronten um Supernova{\"u}berreste aufgrund der großen Entfernung nicht direkt beobachtbar sind. Es liegt dementsprechend nahe, die Schockbeschleunigung an den wesentlich n{\"a}heren und besser zu beobachtenden Schocks im Sonnensystem zu studieren, um so Modelle und Simulationen entwickeln und testen zu k{\"o}nnen. Die vorliegende Arbeit besch{\"a}ftigt sich daher mit Simulationen von Schockfronten mit Parametern, die etwa denen von CME getriebenen Schocks entsprechen. Um die Entwicklung der Energieverteilung der Teilchen zu studieren, ist ein kinetischer Ansatz n{\"o}tig. Dementsprechend wurden die Simulationen mit einem Particle-in-Cell Code durchgef{\"u}hrt. Die Herausforderung ist dabei die große Spanne zwischen den mikrophysikalischen Zeit- und L{\"a}ngenskalen, die aus Gr{\"u}nden der Genauigkeit und numerischen Stabilit{\"a}t aufgel{\"o}st werden m{\"u}ssen und den wesentlich gr{\"o}ßeren Skalen, die die Schockfront umfasst und auf der Teilchenbeschleunigung stattfindet. Um die Stabilit{\"a}t und physikalische Aussagekraft der Simulationen sicherzustellen, werden die numerischen Bausteine mittels Testf{\"a}llen, deren Verhalten bekannt ist, gr{\"u}ndlich auf ihre Tauglichkeit und korrekte Implementierung gepr{\"u}ft. Bei den resultierenden Simulationen wird das Zutreffen von analytischen Vorhersagen (etwa die Einhaltung der Sprungbedingungen) {\"u}berpr{\"u}ft. Auch die Vorhersagen einfacherer Plasmamodelle, etwa f{\"u}r das elektrostatischen Potential an der Schockfront, das man auch aus einer Zwei-Fluid-Beschreibung erhalten kann, folgen automatisch aus der selbstkonsistenten, kinetischen Beschreibung. Zus{\"a}tzlich erh{\"a}lt man Aussagen {\"u}ber das Spektrum und die Bahnen der beschleunigten Teilchen.}, subject = {Stoßfreies Plasma}, language = {de} } @phdthesis{Mueller2013, author = {M{\"u}ller, Thomas M.}, title = {Computergest{\"u}tztes Materialdesign: Mikrostruktur und elektrische Eigenschaften von Zirkoniumdioxid-Aluminiumoxid Keramiken}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-110942}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2013}, abstract = {Die Mikrostruktur von Zirkonoxid-Aluminiumoxid Keramiken wurde im Rasterelektronenmikroskop (REM) untersucht und mittels quantitativer Bildanalyse weiter charakterisiert. Die so erhaltenen spezifischen morphologischen Kennwerte wurden mit denen, die an dreidimensionalen Modellstrukturen {\"a}quivalent gewonnen wurden, verglichen. Es wurden modifizierte Voronoistrukturen benutzt, um die beteiligten Phasen in repr{\"a}sentativen Volumenelementen (RVE) auf Voxelbasis zu erzeugen. Poren wurden an den Ecken und Kanten dieser Strukturen nachtr{\"a}glich hinzugef{\"u}g. Nachdem alle relevanten Kennwerte der Modellstrukturen an die realen keramischen Mikrostrukturen angepasst wurden, musste das RVE f{\"u}r die Finite Element Simulationen (FES) geeignet vernetzt werden. Eine einfache {\"U}bernahme der Voxelstrukturen in hexaedrische Elemente f{\"u}hrt zu sehr langen Rechenzeiten, und die erforderliche Genauigkeit der FES konnte nicht erreicht werden. Deshalb wurde zun{\"a}chst eine adaptive Oberfl{\"a}chenvernetzung ausgehend von einem generally classed marching tetrahedra Algorithmus erzeugt. Dabei wurde besonderer Wert auf die Beibehaltung der zuvor angepassten Kennwerte gelegt. Um die Rechenzeiten zu verk{\"u}rzen ohne die Genauigkeit der FES zu beeintr{\"a}chtigen, wurden die Oberfl{\"a}chenvernetzungen dergestalt vereinfacht, dass eine hohe Aufl{\"o}sung an den Ecken und Kanten der Strukturen erhalten blieb, w{\"a}hrend sie an flachen Korngrenzen stark verringert wurde. Auf Basis dieser Oberfl{\"a}chenvernetzung wurden Volumenvernetzungen, inklusive der Abbildung der Korngrenzen durch Volumenelemente, erzeugt und f{\"u}r die FES benutzt. Dazu wurde ein FE-Modell zur Simulation der Impedanzspektren aufgestellt und validiert. Um das makroskopische elektrische Verhalten der polykristallinen Keramiken zu simulieren, mussten zun{\"a}chst die elektrischen Eigenschaften der beteiligten Einzelphasen gemessen werden. Dazu wurde eine Anlage zur Impedanzspektroskopie bis 1000 °C aufgebaut und verwendet. Durch weitere Auswertung der experimentellen Daten unter besonderer Ber{\"u}cksichtigung der Korngrenzeffekte wurden die individuellen Phaseneigenschaften erhalten. Die Zusammensetzung der Mischkeramiken reichte von purem Zirkonoxid (3YSZ) bis zu purem Aluminiumoxid. Es wurde eine sehr gute {\"U}bereinstimmung zwischen den experimentellen und simulierten Werten bez{\"u}glich der betrachteten elektrischen, mechanischen und thermischen Eigenschaften erreicht. Die FES wurden verwendet, um die Einfl{\"u}sse verschiedener mikrostruktureller Parameter, wie Porosit{\"a}t, Korngr{\"o}ße und Komposition, auf das makroskopische Materialverhalten n{\"a}her zu untersuchen.}, subject = {Keramischer Werkstoff}, language = {de} } @phdthesis{Fehler2010, author = {Fehler, Manuel}, title = {Kalibrierung Agenten-basierter Simulationen}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-64762}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2010}, abstract = {In der vorliegenden Arbeit wird das Problem der Kalibrierung Agenten-basierter Simulationen (ABS) behandelt, also das Problem, die Parameterwerte eines Agenten-basierten Simulationsmodells so einzustellen, dass valides Simulationsverhalten erreicht wird. Das Kalibrierungsproblem f{\"u}r Simulationen an sich ist nicht neu und ist im Rahmen klassischer Simulationsparadigmen, wie z.B. der Makro-Simulation, fester Bestandteil der Forschung. Im Vergleich zu den dort betrachteten Kalibrierungsproblemen zeichnet sich das Kalibrierungsproblem f{\"u}r ABS jedoch durch eine Reihe zus{\"a}tzlicher Herausforderungen aus, welche die direkte Anwendung existierender Kalibrierungsverfahren in begrenzter Zeit erschweren, bzw. nicht mehr sinnvoll zulassen. Die L{\"o}sung dieser Probleme steht im Zentrum dieser Dissertation: Das Ziel besteht darin, den Nutzer bei der Kalibrierung von ABS auf der Basis von unzureichenden, potentiell fehlerhaften Daten und Wissen zu unterst{\"u}tzen. Dabei sollen drei Hauptprobleme gel{\"o}st werden: 1)Vereinfachung der Kalibrierung großer Agenten-Parametermengen auf der Mikro- Ebene in Agenten-basierten Simulationen durch Ausnutzung der spezifischen Struktur von ABS (n{\"a}mlich dem Aufbau aus einer Menge von Agentenmodellen). 2)Kalibrierung Agenten-basierter Simulationen, so dass auf allen relevanten Beobachtungsebenen valides Simulationsverhalten erzeugt wird (mindestens Mikro und Makro-Ebene). Als erschwerende Randbedingung muss die Kalibrierung unter der Voraussetzung einer Makro-Mikro-Wissensl{\"u}cke durchgef{\"u}hrt werden. 3)Kalibrierung Agenten-basierter Simulationen auf der Mikro-Ebene unter der Voraussetzung, dass zur Kalibrierung einzelner Agentenmodelle nicht ausreichend und potentiell verf{\"a}lschte Daten zur Verhaltensvalidierung zur Verf{\"u}gung stehen. Hierzu wird in dieser Arbeit das sogenannte Makro-Mikro-Verfahren zur Kalibrierung von Agenten-basierten Simulationen entwickelt. Das Verfahren besteht aus einem Basisverfahren, das im Verlauf der Arbeit um verschiedene Zusatzverfahren erweitert wird. Das Makro-Mikro-Verfahren und seine Erweiterungen sollen dazu dienen, die Modellkalibrierung trotz stark verrauschter Daten und eingeschr{\"a}nktem Wissen {\"u}ber die Wirkungszusammenh{\"a}nge im Originalsystem geeignet zu erm{\"o}glichen und dabei den Kalibrierungsprozess zu beschleunigen: 1) Makro-Mikro-Kalibrierungsverfahren: Das in dieser Arbeit entwickelte Makro- Mikro-Verfahren unterst{\"u}tzt den Nutzer durch eine kombinierte Kalibrierung auf der Mikro- und der Makro-Beobachtungsebene, die gegebenenfalls durch Zwischenebenen erweitert werden kann. Der Grundgedanke des Verfahrens besteht darin, das Kalibrierungsproblem in eines auf aggregierter Verhaltensebene und eines auf der Ebene des Mikro-Agentenverhaltens aufzuteilen. Auf der Makro-Ebene wird nach validen idealen aggregierten Verhaltensmodellen (IVM) der Agenten gesucht. Auf der Mikro-Ebene wird versucht die individuellen Modelle der Agenten auf Basis des erw{\"u}nschten Gesamtverhaltens und der ermittelten IVM so zu kalibrieren, das insgesamt Simulationsverhalten entsteht, das sowohl auf Mikro- als auch auf Makro-Ebene valide ist. 2) Erweiterung 1: Robuste Kalibrierung: Um den Umgang mit potentiell verrauschten Validierungskriterien (d.h. mit verrauschten Daten {\"u}ber ein Originalsystem, auf denen die Validierungskriterien der Simulation beruhen) und Modellteilen w{\"a}hrend der Kalibrierung von ABS zu erm{\"o}glichen, wird eine robuste Kalibrierungstechnik zur Anwendung im Makro-Mikro-Verfahren entwickelt. 3) Erweiterung 2: Kalibrierung mit Heterogenit{\"a}tssuche: Als zweite Erweiterung des Makro-Mikro-Verfahrens wird ein Verfahren entwickelt, das das Problem des unklaren Detaillierungsgrades von ABS auf der Ebene der Parameterwerte adressiert. Prinzipiell kann zwar jeder Agent unterschiedliche Parameterwerte verwenden, obwohl eine geringere Heterogenit{\"a}t zur Erzeugung validen Verhaltens ausreichend w{\"a}re. Die entwickelte Erweiterung versucht, w{\"a}hrend der Kalibrierung, eine geeignete Heterogenit{\"a}tsauspr{\"a}gung f{\"u}r die Parameterwerte der Agenten zu ermitteln. Unter einer Heterogenit{\"a}tsauspr{\"a}gung wird dabei eine Einteilung der simulierten Agenten in Gruppen mit jeweils gleichen Parameterwerten verstanden. Die Heterogenit{\"a}tssuche dient dazu, einen Kompromiss zu finden zwischen der Notwendigkeit, sehr große Parametersuchr{\"a}ume durchsuchen zu m{\"u}ssen und gleichzeitig den Suchraum so klein wie m{\"o}glich halten zu wollen.}, subject = {Computersimulation}, language = {de} } @phdthesis{Kaltwasser2007, author = {Kaltwasser, Christoph}, title = {Rekonstruktion und Simulation der Ausbreitung und R{\"u}ckbildung der elektrischen Erregung im Herzmuskel des Menschen : Visualisierung kardialer Potentiale mit Methoden der magnetresonanztomographischen Bildgebung, der kardialen Biosignalverarbeitung und der numerischen L{\"o}sung des Inversen Problems der Elektrokardiographie}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-26316}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2007}, abstract = {Die elektrophysiologischen Vorg{\"a}nge w{\"a}hrend der Depolarisation und Repolarisation des Myokards k{\"o}nnen mittels der Signale des 12-Kanal EKGs selbst bei Vorliegen großen Expertenwissens nur unzureichend beobachtet bzw. interpretiert werden. Grund hierf{\"u}r sind vor allen Dingen Inhomogenit{\"a}ten in der kardialen und thorakalen elektrischen Leitf{\"a}higkeit sowie die starke Signalabschw{\"a}chung in den durchlaufenen Geweben. Intrakardiale Verfahren der Signalableitung sind ein Ansatz zu L{\"o}sung dieses Problems; sie sind jedoch aufw{\"a}ndig und risikobehaftet. In dem in dieser Arbeit eingesetzten Verfahren hingegen konnte, durch patientenindividuelle Modellierung der Herz- und Thoraxanatomie sowie der Leitf{\"a}higkeitsverh{\"a}ltnisse, mittels numerischer Verfahren aus einer Vielzahl von Oberfl{\"a}chen-EKG Ableitungen auf die elektrophysiologischen Vorg{\"a}nge im Myokard in ihrem zeitlichen und {\"o}rtlichen Verlauf geschlossen werden (Inverses Problem der Elektrokardiographie). Es konnten bei gesunden Probanden sowie bei Patienten mit verschiedenen kardialen Pathologien zeitlich und {\"o}rtlich hochaufgel{\"o}ste Rekonstruktionen von epikardialen- und Transmembranpotentialverteilungen angefertigt werden. Es zeigte sich, dass insbesondere im Bereich großer Infarktnarben der Herzvorder- sowie der Herzhinterwand elektrophysiologische Auff{\"a}lligkeiten nachweisbar waren. So zeigten sich w{\"a}hrend der Depolarisationsphase Myokardareale mit einer verminderten Aktivit{\"a}t und Polarisationsumkehr, Bezirke mit verz{\"o}gerter Depolarisationsaktivit{\"a}t sowie Areale mit atypisch verlaufender Repolarisationsaktivit{\"a}t. Anhand der vorliegenden Ergebnisse konnte gezeigt werden, dass eine Rekonstruktion der physiologischen Abl{\"a}ufe im Myokard w{\"a}hrend der Depolarisation und der Repolarisation mit dem hierzu implementierten Verfahren m{\"o}glich ist. Anhand von elektroanatomischen Modellen konnten dar{\"u}ber hinaus die physiologische sowie die pathologisch ver{\"a}nderte Erregungsausbreitung im Myokard simuliert werden. Durch Verbesserung der Rekonstruktionsalgorithmen, der Methoden der Signalverarbeitung und der Regularisierung der L{\"o}sungsverfahren ist zuk{\"u}nftig eine weitere Verbesserung der Rekonstruktionsergebnisse zu erwarten. Vor dem klinischen Einsatz der Methode muss eine eingehende Validation erfolgen.}, subject = {Elektrophysiologie}, language = {de} } @phdthesis{Galmbacher2007, author = {Galmbacher, Matthias}, title = {Lernen mit dynamisch-ikonischen Repr{\"a}sentationen aufgezeigt an Inhalten zur Mechanik}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-29271}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2007}, abstract = {Im Physikunterricht wurde lange Zeit die Bedeutung quantitativer Zusammenh{\"a}nge f{\"u}r das Physiklernen {\"u}berbewertet, qualitative Zusammenh{\"a}nge spielten dagegen eine eher untergeordnete Rolle. Dies f{\"u}hrte dazu, dass das Wissen der Sch{\"u}ler zumeist ober­fl{\"a}ch­lich blieb und nicht auf neue Situationen angewendet werden konnte. TIMSS und Pisa offenbarten diese Schwierigkeiten. In den Abschlussberichten wurde kritisiert, dass die Sch{\"u}ler kaum in der Lage seien, Lernstoff zu transferieren oder pro­blem­l{\"o}send zu denken. Um physikalische Abl{\"a}ufe deuten und entsprechende Probleme l{\"o}sen zu k{\"o}nnen, ist qua­litativ-konzeptuelles Wissen n{\"o}tig. Dieses kann, wie Forschungs­ergebnisse belegen, am besten durch die konstruktivistisch motivierte Gestaltung von Lern­situationen sowie durch die Inte­gration externer Repr{\"a}sentationen von Versuchs­aussagen in den Schul­unter­richt er­reicht werden. Eine konkrete Umsetzung dieser Bedingungen stellt der Ein­satz rechner­gest{\"u}tzter Experimente dar, der heutzutage ohne allzu großen technischen Aufwand rea­lisiert werden kann. Diese Experimente erleichtern es dem Lernenden, durch den direk­ten Umgang mit realen Abl{\"a}ufen, physikalische Konzepte zu erschließen und somit qua­litative Zusammenh{\"a}nge zu verstehen. W{\"a}hrend man lange Zeit von einer grunds{\"a}tzlichen Lernwirksamkeit animierter Lern­um­gebungen ausging, zeigen dagegen neuere Untersuchungen eher Gegenteiliges auf. Sch{\"u}ler m{\"u}ssen offensichtlich erst lernen, wie mit multicodierten Re­pr{\"a}­sentationen zu arbeiten ist. Die vorliegende Arbeit will einen Beitrag dazu leisten, he­raus­zufinden, wie lernwirksam sogenannte dynamisch-ikonische Repr{\"a}sentationen (DIR) sind, die physikalische Gr{\"o}ßen vor dem Hintergrund konkreter Versuchsabl{\"a}ufe visuali­sieren. Dazu bearbeiteten im Rahmen einer DFG-Studie insgesamt 110 Sch{\"u}ler jeweils 16 Projekte, in denen mechanische Konzepte (Ort, Geschwindigkeit, Beschleu­nigung und Kraft) aufgegriffen wurden. Es zeigte sich, dass die Probanden mit den ein­ge­setzten DIR nicht erfolgreicher lernen konnten als ver­gleich­bare Sch{\"u}ler, die die gleichen Lerninhalte ohne die Unter­st{\"u}tzung der DIR erarbeiteten. Im Gegen­teil: Sch{\"u}ler mit einem geringen visuellen Vorstellungsverm{\"o}gen schnitten aufgrund der Darbietung einer zus{\"a}tzlichen Codierung schlechter ab als ihre Mit­sch{\"u}ler. Andererseits belegen Untersuchungen von Blaschke, dass solche Repr{\"a}sen­ta­tionen in der Erarbeitungsphase einer neu entwickelten Unter­richts­kon­zep­tion auch und gerade von schw{\"a}cheren Sch{\"u}lern konstruktiv zum Wissens­erwerb genutzt werden konnten. Es scheint also, dass die Lerner zun{\"a}chst Hilfe beim Umgang mit neuartigen Re­pr{\"a}­sen­ta­tions­formen ben{\"o}tigen, bevor sie diese f{\"u}r den weiteren Aufbau ad{\"a}qua­ter physi­ka­lischer Modelle nutzen k{\"o}nnen. Eine experimentelle Unter­suchung mit Sch{\"u}­lern der 10. Jahrgangsstufe best{\"a}tigte diese Vermutung. Hier lernten 24 Probanden in zwei Gruppen die mechanischen Konzepte zu Ort, Geschwin­dig­keit und Beschleunigung kennen, bevor sie im Unter­richt behandelt wurden. W{\"a}hrend die Teil­nehmer der ersten Gruppe nur die Simulationen von Bewegungsabl{\"a}ufen und die zuge­h{\"o}rigen Liniendiagramme sahen, wurden f{\"u}r die zweite Gruppe unterst{\"u}tzend DIR eingesetzt, die den Zusammenhang von Bewe­gungs­ablauf und Linien­diagramm veranschaulichen sollten. In beiden Gruppen war es den Probanden m{\"o}glich, Fragen zu stellen und Hilfe von einem Tutor zu erhalten. Die Ergebnis­se zeigten auf, dass es den Sch{\"u}lern durch diese Maßnahme erm{\"o}glicht wurde, die DIR erfolgreich zum Wissens­er­werb einzusetzen und sig­nifikant besser abzuschneiden als die Teilnehmer in der Kon­troll­­gruppe. In einer weiteren Untersuchung wurde abschließend der Frage nachgegangen, ob DIR unter Anleitung eines Tutors eventuell bereits in der Unterstufe sinnvoll eingesetzt werden k{\"o}nnen. Ausgangspunkt dieser {\"U}berlegung war die Tatsache, dass mit der Einf{\"u}hrung des neuen bayerischen G8-Lehrplans wesentliche Inhalte, die Bestand­teil der vorherigen Untersuchungen waren, aus dem Physik­unterricht der 11. Jgst. in die 7. Jahrgangsstufe verlegt wurden. So bot es sich an, mit den Inhalten auch die DIR in der Unterstufe ein­zusetzen. Die Un­tersuchungen einer quasiexperimentellen Feldstudie in zwei siebten Klassen belegten, dass die betrachte­ten Repr{\"a}sentationen beim Aufbau entsprechender Kon­zepte keinesfalls hinderlich, sondern sogar f{\"o}rder­lich sein d{\"u}rften. Denn die Sch{\"u}ler­gruppe, die mit Hilfe der DIR lernte, schnitt im direkten hypothesenpr{\"u}fenden Vergleich mit der Kontrollklasse deutlich besser ab. Ein Kurztest, der die Nachhaltigkeit des Gelernten nach etwa einem Jahr {\"u}berpr{\"u}fen sollte, zeigte zudem auf, dass die Sch{\"u}ler der DIR-Gruppe die Konzepte, die unter Zuhilfenahme der DIR erarbeitet wurden, im Vergleich zu Sch{\"u}lern der Kontrollklasse und zu Sch{\"u}lern aus 11. Klassen insgesamt {\"u}berraschend gut verstanden und behalten hatten.}, subject = {Multimedia}, language = {de} } @phdthesis{Kluegl2000, author = {Kl{\"u}gl, Franziska}, title = {Aktivit{\"a}tsbasierte Verhaltensmodellierung und ihre Unterst{\"u}tzung bei Multiagentensimulationen}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-2874}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2000}, abstract = {Durch Zusammenf{\"u}hrung traditioneller Methoden zur individuenbasierten Simulation und dem Konzept der Multiagentensysteme steht mit der Multiagentensimulation eine Methodik zur Verf{\"u}gung, die es erm{\"o}glicht, sowohl technisch als auch konzeptionell eine neue Ebene an Detaillierung bei Modellbildung und Simulation zu erreichen. Ein Modell beruht dabei auf dem Konzept einer Gesellschaft: Es besteht aus einer Menge interagierender, aber in ihren Entscheidungen autonomen Einheiten, den Agenten. Diese {\"a}ndern durch ihre Aktionen ihre Umwelt und reagieren ebenso auf die f{\"u}r sie wahrnehmbaren {\"A}nderungen in der Umwelt. Durch die Simulation jedes Agenten zusammen mit der Umwelt, in der er "lebt", wird die Dynamik im Gesamtsystem beobachtbar. In der vorliegenden Dissertation wurde ein Repr{\"a}sentationsschema f{\"u}r Multiagentensimulationen entwickelt werden, das es Fachexperten, wie zum Beispiel Biologen, erm{\"o}glicht, selbst{\"a}ndig ohne traditionelles Programmieren Multiagentenmodelle zu implementieren und mit diesen Experimente durchzuf{\"u}hren. Dieses deklarative Schema beruht auf zwei Basiskonzepten: Der K{\"o}rper eines Agenten besteht aus Zustandsvariablen. Das Verhalten des Agenten kann mit Regeln beschrieben werden. Ausgehend davon werden verschiedene Strukturierungsans{\"a}tze behandelt. Das wichtigste Konzept ist das der "Aktivit{\"a}t", einer Art "Verhaltenszustand": W{\"a}hrend der Agent in einer Aktivit{\"a}t A verweilt, f{\"u}hrt er die zugeh{\"o}rigen Aktionen aus und dies solange, bis eine Regel feuert, die diese Aktivit{\"a}t beendet und eine neue Aktivit{\"a}t ausw{\"a}hlt. Durch Indizierung dieser Regeln bei den zugeh{\"o}rigen Aktivit{\"a}ten und Einf{\"u}hrung von abstrakten Aktivit{\"a}ten entsteht ein Schema f{\"u}r eine vielf{\"a}ltig strukturierbare Verhaltensbeschreibung. Zu diesem Schema wurde ein Interpreter entwickelt, der ein derartig repr{\"a}sentiertes Modell ausf{\"u}hrt und so Simulationsexperimente mit dem Multiagentenmodell erlaubt. Auf dieser Basis wurde die Modellierungs- und Experimentierumgebung SeSAm ("Shell f{\"u}r Simulierte Agentensysteme") entwickelt. Sie verwendet vorhandene Konzepte aus dem visuellen Programmieren. Mit dieser Umgebung wurden Anwendungsmodelle aus verschiedenen Dom{\"a}nen realisiert: Neben abstrakten Spielbeispielen waren dies vor allem Fragestellungen zu sozialen Insekten, z.B. zum Verhalten von Ameisen, Bienen oder der Interaktion zwischen Bienenv{\"o}lkern und Milbenpopulationen.}, subject = {Agent }, language = {de} }