Refine
Has Fulltext
- yes (20)
Year of publication
Document Type
- Doctoral Thesis (19)
- Book (1)
Language
- German (20) (remove)
Keywords
- Simulation (20) (remove)
Institute
- Medizinische Klinik und Poliklinik I (5)
- Institut für Informatik (4)
- Klinik und Poliklinik für Allgemein-, Viszeral-, Gefäß- und Kinderchirurgie (Chirurgische Klinik I) (3)
- Institut für Geographie und Geologie (2)
- Graduate School of Science and Technology (1)
- Institut für Geographie (1)
- Institut für Pharmazie und Lebensmittelchemie (1)
- Institut für Psychotherapie und Medizinische Psychologie (1)
- Medizinische Fakultät (1)
- Medizinische Klinik (bis 2004) (1)
Sonstige beteiligte Institutionen
Einleitung
Platzwunden im Gesicht machen nahezu ein Drittel aller Platzwunden in der Notaufnahme aus (Singer et al., 2006). Diese werden zum Großteil nicht von Plastischen Chirurginnen und Chirurgen versorgt (Lee, Cho, et al., 2015), weshalb eine gute Grundausbildung junger Ärztinnen und Ärzte unabdingbar ist. Eine gängige Lehrmethode zur Vermittlung praktischer Fertigkeiten ist der konventionelle Ansatz „see one, do one“, welcher oft als unzureichend bewertet wird (Zahiri et al., 2015). Hingegen sind für die Vierschrittmethode nach Peyton zahlreiche Vorzüge dokumentiert (Herrmann-Werner et al., 2013; Krautter et al., 2015). Anhand eines eigens entwickelten Gesichtsmodells aus Silikon wurden beide Lehrmethoden im Hinblick auf ihren Lernerfolg bezüglich kommunikativer Fähigkeiten und handwerklicher Fertigkeiten, die Verankerung im Langzeitgedächtnis, die Dauer des Eingriffs sowie eine korrekte prozedurale Abfolge beim Versorgen von Gesichtswunden überprüft.
Material und Methoden
Zum Zeitpunkt der Teilnahme an der Studie befanden sich die Studierenden (n=20 bei einer Power von 0,8) entweder im Praktischen Jahr (11./12. Fachsemester) (n=10) oder im Blockpraktikum (10. Fachsemester) (n=10). Ausschlusskriterium war eine bereits selbstständig durchgeführte ambulante Naht im Gesichtsbereich.
Die Kohorte der konventionellen Methode als Kontrollgruppe (KG) und die der Peyton Methode als Experimentalgruppe (EG) wurden mittels Video-Tutorial angeleitet, bevor sie die Naht in Lokalanästhesie am Gesichtsmodell durchführten. Nach 7 Tagen erfolgte die Operation ein zweites Mal ohne Anleitung. Die Operationen wurden gefilmt und durch drei verblindete Bewertende anhand der Skalen „Instrumentengebrauch“, „Umgang mit dem Gewebe“, „Knappe Versäumnisse und Fehler“ sowie „Qualität des Endergebnisses“ des Competency Assessment Tools (CAT) bewertet (1 = Anfänger/in bis 4 = Erfahrene/r), welche wiederum in 12 Items eingeteilt waren (Miskovic et al., 2013). Die Berechnung der Unterschiede bezog handwerkliche Fertigkeiten, die Verankerung im Langzeitgedächtnis, die Kommunikation sowie Unterschiede zwischen den Ausbildungsständen ein. Zusätzlich wurde das Einhalten des korrekten prozeduralen Ablaufes überprüft, sowie die Zeit zur Durchführung gemessen und zwischen den Lehrmethoden verglichen. Zur Validierung des CAT wurde die Reliabilität der Skalen und die Interrater-Reliabilität berechnet.
Ergebnisse
Sowohl die Reliabilität der Skalen als auch die Interrater-Reliabilität zeigten zufriedenstellende Ergebnisse.
Bezüglich der Unterschiede auf Skalenebene zeigte die EG im Vergleich zur KG signifikant bessere Ergebnisse für die Mittelwerte aller vier Skalen (p < 0,05). Diese Ergebnisse bestätigten sich auch bei der Analyse einzelner Items. Bei Betrachtung der Unterschiede zwischen den OP Tagen zeigte sich bei der EG ein signifikanter Zuwachs der Leistung (p < 0,05). Bezüglich der kommunikativen Fähigkeiten berechnete sich für eines der beiden zugehörigen Items eine Überlegenheit der EG (p < 0,05). Bei detaillierter Betrachtung des Ausbildungsstandes ließ sich ein insgesamt besseres Abschneiden der Studierenden im Praktischen Jahr verglichen zu jenen im Blockpraktikum feststellen. Außerdem hielt die Kohorte der EG signifikant häufiger eine korrekte prozedurale Abfolge ein (p < 0,05) und benötigte deskriptiv weniger Zeit zur Durchführung der Prozedur.
Fazit
Die Peyton-Methode zeigte sich der konventionellen Methode im Hinblick auf das Erlernen einer Gesichtsnaht sowohl in der Qualität als auch in Bezug auf das Durchführen der Schritte in korrekter Reihenfolge überlegen. Zudem gibt es Evidenz, dass die Peyton Methode eine Verankerung des Gelernten im Langzeitgedächtnis fördert und die Durchführungsgeschwindigkeit erhöht. Die Ergebnisse sprechen somit für den Einsatz der Peyton Methode beim Erlernen komplexer chirurgischer Fähigkeiten.
Ausblick
Zukünftig könnte die feste Integration der Peyton Methode in das Curriculum die ärztliche Ausbildung verbessern. Insbesondere im Hinblick auf nachhaltiges und (Zeit-) effizientes Lernen besteht weiterer Forschungsbedarf. Außerdem wären weitere Untersuchungen zum Erlernen von Kommunikation mittels Vierschrittmethode nach Peyton wünschenswert.
Im Rahmen dieser Studie sollte der Effekt von Virtual-Reality (VR)-Simulation auf die Untersuchungs¬qualität angehender interventioneller Kardiologen untersucht werden. Hierzu wurden 18 Studienteilnehmer rekrutiert, die mindestens 50 diagnostische Herzkatheteruntersuchungen, aber noch keine Intervention eigenständig durchgeführt hatten.
Die Hälfte der Teilnehmer erhielt ein 7 ½ stündiges Training an drei VR-Simulatoren: Cath Lab VR (CAE), VIST-C (Mentice) und AngioMentor Express (Simbionix) (Gruppe S). Die andere Hälfte diente als Kontrollgruppe (Gruppe K) und erhielt lediglich eine theo-retische Wissensvermittlung.
Die Evaluation der Probanden fand an einem pulsatilen Herzmodell im Katheterlabor statt (CoroSim™, Mecora). Das Modell weist eine hohe Konstruktvalidität auf, was im Rahmen dieser Studie dokumentiert werden konnte.
Jeder Teilnehmer musste initial (Prä) und abschließend (Post) eine Intervention an die-sem Modell durchführen, wobei die Komplexität der zu behandelnden Koronarstenose von Prä zu Post anstieg. Jede Prozedur wurde auf Video aufgezeichnet und von 3 er-fahrenen interventionellen Kardiologen verblindet ausgewertet. Um die Leistung der Teilnehmer zu beurteilen, wurde ein Skills Score ermittelt, der 14 Einzelparameter umfasste (s. Tabelle, 5er Likert-Skala, Maximalpunktzahl 70). Zudem wurden die Kon-trastmittelmenge, die benötigte Zeit für die Intervention, die Durchleuchtungszeit und das Flächendosisprodukt gemessen. Zur Bestimmung der Konstruktvalidität nahmen 5 Experten an der Postevaluation teil.
Bei vergleichbaren Ausgangswerten im Skills Score (S: 47,2±8,5 K: 50,3±4,5) verbesser-te sich die Simulationsgruppe um 5,8 Punkte auf 53,0±5,6, während sich die Kontroll-gruppe um 6,7 Punkte verschlechterte (K: 43,6±7,0). Dieser Unterschied zeigte sich statistisch signifikant (p=0,003) ANCOVA, abhängige Variable = Veränderung von Prä-zu Postevaluation; Gruppe als Faktor, Ausgangswerte als Kovariate.
Schlussfolgerung: VR-Simulationstraining verbessert die kathetertechnischen Fertigkeiten angehender interventioneller Kardiologen.
Die Narbenhernie stellt eine häufige Komplikation nach Laparotomien dar. Die Therapie der Narbenhernie erfolgt mittels chirurgischer Netzimplantation. Dieses Verfahren erfordert detaillierte anatomische Kenntnisse. Dem ethischen Imperativ folgend, wurde ein kosten-effizientes Modell entwickelt, welches den humanen Situs imitiert und an dem sich eine retromuskuläre Netzimplantation durchführen lässt. Das High-Fidelity-Modell besteht zum Hauptteil aus 2-Komponenten-Silikon. Das Modell wurde entwickelt und im Rahmen dieser Studie validiert. Zur Ermittlung der Testpersonenanzahl wurde die Methodik des sequentiellen Dreieckstests genutzt. Nachdem 6 Anfänger (PJ-Studierende) und 6 Könner (Fachärzte für Viszeralchirurgie) jeweils ein Modell operiert hatten, wurde die Kontent-, die Konstrukt- und die Kriterienvalidität untersucht. Anschließend wurde das Modell und die Operationsdurchführung mit drei Methoden untersucht. Zum einen füllten die Teilnehmenden einen Fragebogen bezüglich der Realitätsnahe des Modells direkt nach der Operation aus. Außerdem bewerteten drei verblindete Bewerter die Operationen anhand des Competency assessment tool (CAT), welcher eine modifizierte Version des Fragebogens nach Miskovic darstellt, nach den folgenden Subskalen: „Instrumentengebrauch“, „Umgang mit dem Gewebe“, „Mängel und Fehler“, „Qualität des Endprodukts“. Zuletzt wurden die operierten Modelle bezüglicher der „Endergebnisse“ autopsiert und bewertet.
Die Ergebnisse zeigen, dass am SUBsON-Modell eine Narbenhernienoperation mit Netzimplantation authentisch durchgeführt werden kann. Die Testpersonen bewerteten das Modell als realitätsnah. Die Reliabilität war in allen Kategorien gut bis exzellent. Die Könner waren in allen Subskalen des CATs den Anfängern überlegen. Bei Betrachtung der Kriterienvalidität zeigte sich ein paradoxer Effekt: Bei der Präparation des Fatty Triangles erbrachten die Anfänger eine signifikant (p< 0,05) höhere Leistung als die Könner. Mögliche Erklärungen dafür sind mannigfaltig.
Die Leistungsunterschiede zwischen Anfängern und Könnern bestätigen die Konstruktvalidität von Modell und Fragebogen sowie die Realitätsnähe des Modells. In dieser Studie konnten Defizite vor allem unter Könnern bezüglich anatomischer Kenntnisse bei der Präparation des Fatty Triangles aufgezeigt werden. Das Modell kann zukünftig genutzt werden, um die Netzimplantation und die Präparation des Fatty Triangles zu üben als auch um die chirurgischen Leistungen zu evaluieren.
Diese Promotion befasst sich mit der Entwicklung eines neuartigen High-Fidelity, Full-Procedural Simulationsmodell für die Durchführung einer offenen Nabelhernienreparation mit präperitonealen Netzimplantation in Underlay-Position (NANEP-Modell). Das Übungsmodell setzten wir in einem eigens konstruierten Operationskurs in der Allgemein- und Viszeralchirugie der Universitätsklinik Würzburg ein. Ziel war die Validierung des Modells durch Untersuchung der Inhalts-Validität, der Konstrukt-Validität und der Differentiellen Validität. Die auf Video aufgezeichneten Operationen der Probanden wurden auf der Internetplattform Catlive mithilfe des Competency Assessment Tools bewertet. Der Lernzuwachs wurde gemessen und untersucht. Die operierten Modelle wurden zur Prüfung der Kriteriums-Validität autopsiert.
Die vorliegende Studie sollte die Erwartungshaltung, Akzeptanz sowie die physische und psychische Durchführbarkeit hinsichtlich einer Übergewichts-Simulation bei Kindern und Jugendlichen überprüfen. Die Teilnahme an der Simulation ermöglichte es den Proband*innen, typische Alltagsprobleme adipöser Menschen realitätsnah zu erfahren.
Insgesamt 58 Schülerinnen und Schüler im Alter von 13 bis 16 Jahren nahmen an dem Projekt teil und durchliefen die Übergewichts-Simulation.
Die Ergebnisse zeigten eine positive Erwartungshaltung gegenüber der Simulation. Zudem wurde verdeutlicht, dass der Kurs von der überwiegenden Mehrheit als positiv empfunden und somit akzeptiert wurde. Auch zeigte sich, dass die Übungen physisch und psychisch gut durchführbar waren.
Die humane Lunge kann bei der Pharmakotherapie einer Erkrankung entweder als betroffenes Organ Ziel eines verabreichten Arzneistoffes sein oder aber auch als Portal für diesen in die systemische Zirkulation fungieren. Wird ein Arzneistoff inhaliert, ist für dessen Nutzen-Risiko-Profil von zentraler Bedeutung, in welchem Ausmaß und mit welcher Geschwindigkeit dieser resorbiert und anschließend in die systemische Zirkulation umverteilt wird. Wenn bei der Behandlung einer Lungenerkrankung dagegen ein Arzneistoff z.B. nach peroraler Gabe erst in der systemischen Zirkulation anflutet, müssen ausreichend hohe Wirkstoffkonzentrationen in den betroffenen Gewebearealen sichergestellt werden. Ziel der vorliegenden Arbeit war es daher, Möglichkeiten zu finden, diese beiden Vorgänge in vitro möglichst realitätsnah messen zu können. Für die Simulation der pulmonalen Absorption nach inhalativer Applikation eines Arzneistoffs diente Beclomethasondipropionat (BDP), freigesetzt aus den handelsüblichen FCKW-freien Dosieraerosolen Sanasthmax® und Ventolair®, als Modellsubstanz. Es wurde zunächst ein einfaches Dialysemodell als Screeningverfahren entwickelt. Hier wurden BDP-Partikel unter Verwendung der beiden Dosieraerosole auf humanem Lungenhomogenat deponiert und nachfolgend die kombinierten Prozesse aus Auflösung und Umverteilung der Substanz in eine Dialyseflüssigkeit, die sich entweder aus salinem Puffer oder humanem Blutplasma zusammensetzte, untersucht. Anschließend wurde erstmals ein etabliertes humanes Lungenperfusionsmodell dahingehend modifiziert, dass eine Inhalation von BDP nach Applikation eines handelsüblichen Dosieraerosols nachgestellt werden konnte. Auf diese Weise konnte an diesem realitätsnahen Modell die initiale Phase der pulmonalen Absorption von BDP in der Perfusionsflüssigkeit verfolgt werden. Beide Modelle zeigten Unterschiede in der Auflösungs- bzw. Umverteilungskinetik von BDP in Abhängigkeit von der verwendeten Applikationsform auf. So schienen sich von Ventolair® erzeugte BDP-Partikel schneller und in größerer Menge aufzulösen als diejenige bei den Versuchen mit Sanasthmax®, was eine vermehrte Umverteilung der Substanz sowohl in die Dialyseflüssigkeit als auch Perfusionslösung zur Folge hatte. Die am Lungenperfusionsmodell beobachteten Verläufe der initialen pulmonalen Absorption von BDP nach Freisetzung aus den Dosieraerosolen Sanasthmax® oder Ventolair® korrelierten dabei sehr gut mit Daten aus einer entsprechenden Humanstudie mit gesunden Probanden. Auch standen die ermittelten Unterschiede in sinnvoller Übereinstimmung mit Untersuchungen der in den von Sanasthmax® oder Ventolair® versprühten Aerosolen enthaltenen Partikel hinsichtlich Größenverteilung, Morphologie und Lösungsverhalten in Bronchialsekret. Um die Umverteilung eines Wirkstoffs von der systemischen Zirkulation in lungenspezifisches Gewebe am humanen Lungenperfusionsmodell zu simulieren, wurden die Gewebekonzentrationen von Thalidomid (THAL) in peripherem Lungengewebe im Vergleich zu den korrespondierenden Spiegeln in einem Bronchialkarzinom erstmals mittels Mikrodialyse verfolgt. Hierzu wurde im Vorfeld für diese Substanz unter Einsatz des Komplexbildners (2 Hydroxypropyl)-beta-cyclodextrin (HPCD) ein bezüglich der Sensitivität und der zeitlichen Auflösung optimiertes Mikrodialysesystem etabliert und dessen Eigenschaften systematisch untersucht. Am Lungenperfusionsmodell wurde dann eine an klinisch relevante Plasmaspiegel angelehnte THAL-Konzentration in der Perfusionslösung vorgelegt und anschließend das Anfluten in den oben genannten Geweben mit Hilfe des entwickelten Mikrodialysesystems beobachtet. Durch Zugabe von HPCD in das Mikrodialyseperfusat konnte eine signifikante Erhöhung der Wiederfindungsrate im Dialysat (Relative Recovery) erreicht und damit ein Mikrodialysesystem etabliert werden, das neben hoher zeitlicher Auflösung eine ausreichende analytische Sensitivität für THAL aufwies. Allerdings wurden aufgrund dieses Perfusatzusatzes die Diffusionsvorgänge während der Mikrodialyse derart beeinflusst, dass übliche Methoden zur Sondenkalibrierung wie z.B. die Retrodialyse nicht mehr angewendet werden konnten, und daher in Hinblick auf die Messungen am Lungenperfusionsmodell bestehende Kalibrierverfahren modifiziert werden mussten. Bei der Untersuchung der Gewebepenetration am Lungenperfusionsmodell flutete THAL in Tumorgewebe langsamer an als in peripherem Lungengewebe, wo schnell ähnliche Konzentrationen wie in der Perfusionslösung gefunden wurden. Auch lagen die Gewebespiegel im Tumorgewebe stets unter dem ermittelten Niveau im Lungengewebe. Die erhaltenen Konzentrationsverhältnisse zwischen Perfusionslösung, peripherem Lungengewebe und Tumorgewebe deckten sich dabei mit Kenntnissen aus Humanstudien, in denen analog Plasmakonzentrationen von antineoplastischen Substanzen ebenfalls mittels Mikrodialyse in Relation zu deren Spiegeln in gesundem Gewebe und Tumorgewebe verschiedenster Ätiologie bestimmt wurden.
Im Rahmen der vorliegenden Untersuchung liegt der Fokus auf der Überprüfung und Weiterentwicklung der Methode der Multiagentensysteme für die Prognosezwecke im Einzelhandel. Die konkrete Zielsetzung der Arbeit ist der Entwurf eines integrativen Systems zur Simulation möglicher Zukunftsszenarien des (räumlichen) Konsumentenverhaltens. Mit Hilfe einer agentenbasierten Modellierung ist es möglich die bisher vorherrschenden Top-Down Ansätze flexibel in ein Bottom-Up Modell zu integrieren. Die wichtigsten strukturprägenden Impulse im Einzelhandelssystem und somit auch auf die Konsumenten gehen aktuell von der Digitalisierung des Verkaufsvorgangs aus. Hierbei wird der „Raum-Zeit-Käfig“ der Kunden ausgeweitet und bestimmte Zwänge der räumlichen und zeitlichen Bindung innerhalb des Kaufprozesses entfallen. Die klassische zeitliche Abfolge des Einkaufsverhaltens wird aufgelöst; Information findet vermehrt digital statt. Vielmehr steht der Produktnutzen im Mittelpunkt, und zugehörige Dienstleistungen wie Information, Service und Logistik werden flexibel kombiniert. Vor diesem Hintergrund stellt die agentenbasierte Simulation einen dynamischen Ansatzpunkt dar, in dem eine Reihe der Defizite tradierter, statischer Methoden Berücksichtigung findet und sich vielfältige Einsatzmöglichkeiten für die Analyse der Wechselwirkungen zwischen Konsumentenverhalten und räumlichen Einzelhandelsstrukturen ergeben. Aufgrund der zunehmenden Digitalisierung des Einkaufsprozesses und den daraus entstehenden Informationen zum Konsumentenverhalten in Kombination mit immer komplexeren Fragestellungen ist in den kommenden Jahren eine verstärkte Dynamik bei der Anwendungshäufigkeit von Multiagentensimulationen in Einzelhandelsunternehmen zu erwarten.
Städte sehen sich in der Entwicklung ihres Einzelhandelsangebots zunehmend Konkurrenzsituationen zwischen traditionellen Innenstadt- und neu entstehenden Stadtrandlagen ausgesetzt, die einerseits die gestiegenen Flächen- und Produktivitätsansprüche der Unternehmen eher erfüllen, während andererseits Bürger, Politik und etablierter Handel ein Aussterben der Innenstädte befürchten. Die Konsequenzen planerischer Entscheidungen in dieser Hinsicht abzuschätzen, wird zunehmend komplexer. Dafür sind ebenso eine stärkere Individualisierung des Konsumverhaltens verantwortlich, wie eine gestiegene Sensibilität gegenüber Verkehrs- und Emissionsbelastungen. Modellierungen und Simulationen können einen Beitrag zu fundierter Entscheidungsfindung leisten, indem sie durch Prognosen von Szenarien mit unterschiedlichen Rahmenbedingungen solche Auswirkungen aufzeigen. In der Vergangenheit wurden Kaufkraftströme durch Modelle abgebildet, die auf aggregierten Ausgangsdaten und Analogieschlüssen zu Naturgesetzen oder nutzentheoretischen Annahmen beruhten. In dieser Arbeit wird dafür erstmals ein agentenbasierter Ansatz angewendet, da sich so individuelle Ausdifferenzierungen des Konsumentenhandelns wesentlich leichter integrieren und Ergebnisse anschaulicher präsentieren lassen. Dieses Konzept kann in den Sozialwissenschaften als Modellierungsparadigma genutzt werden, insofern als dass sie der Idee der Selbstorganisation von Gesellschaften recht nahe kommt. Insbesondere zeichnen sich Multiagentensysteme durch eine dezentrale Kontrolle und Datenvorhaltung aus, die es darüber hinaus ermöglichen, auch komplexe Systeme von Entscheidungsprozessen mit wenigen Spezifikationen darzustellen. Damit begegnet der Agentenansatz vielen Einwänden gegen Analogie- und Entscheidungsmodelle. Durch die konsequente Einnahme einer individuenbezogenen Sichtweise ist die individuelle Ausdifferenzierung von Entscheidungsprozessen viel eher abbildbar. Für das Forschungsprojekt konnten für einen Untersuchungsraum in Nordschweden (Funktionalregion Umea) individuenbezogene Einwohnerdaten verfügbar gemacht werden. Diese enthielten u.a. Lagekoordinaten des Wohn- und Arbeitsorts, Alter, Geschlecht, verfügbares Einkommen und Angaben zur Haushaltsstruktur. Verbunden mit Erkenntnissen aus empirischen Untersuchungen (Konsumentenbefragung, Geschäftskartierung) stellten sie die Eingabegrößen für ein agentenbasiertes Modell der Einkaufsstättenwahl bei der Lebensmittelversorgung dar. Die Konsumentenbefragung stellte regressionsanalytische Abhängigkeiten zwischen sozioökonomischen Daten und Konsumpräferenzen bezüglich einzelner Geschäftsattribute (Preisniveau, Produktqualität, Sortimentsbreite, Service etc.) her, die gleichen Attribute wurden für die Geschäfte erhoben. Somit können Kaufkraftströme zwischen Einzelelementen der Nachfrage (individuelle Konsumenten) und des Angebots (einzelne Geschäftsstandorte) als individuell variierende Bewertung der Geschäfte durch die Agenten dargestellt werden. Da auf der Angebotsseite die Umsätze der Geschäfte ebenso bekannt sind, können die Summen der von den Agenten dort allozierten Kaufkraftbeträge mit denselbigen verglichen werden. Dies erlaubt die Quantifizierung einer Schätzgüte für die Geschäftsumsätze mittels eines Gütemaßes. Für die Geschäfte der gesamten Region konnten Gütemaßwerte bis 0,7 erreicht werden, für einzelne Betriebsformate auch über 0,9. Dies zeigt, dass auch bei der Verwendung individuenbezogener Modelle, die mit einer deutlich höheren Anzahl Freiheitsgraden behaftet sind als ihre aggregierten Gegenstücke, hohe Prognosequalitäten für Umsatzschätzungen von Standorten erreicht werden können. Gleichzeitig bietet der Agentenansatz die Möglichkeit, einzelne Simulationsobjekte bei ihrer Entscheidungsfindung und ihren Aktivitäten zu verfolgen. Dabei konnten ebenfalls plausible Einkaufsmuster abgebildet werden. Da die Distanz vom Wohn- bzw. Arbeitsort zum Geschäft Bestandteil des Modells ist, können auch die von den Einwohnern zum Zweck der Grundversorgung zu leistenden Distanzaufwände in verschiedenen Angebotssituationen analysiert werden. An agentenbasierte Simulationen werden in den Sozialwissenschaften große Erwartungen geknüpft, da sie erstmals ermöglichen, gesellschaftliche Phänomene auf der Ebene ihres Zustandekommens, dem Individuum, zu erfassen, sowie komplexe mentale Vorgänge des Handelns, Lernens und Kommunizierens auf einfache Weise in ein Modell zu integrieren. Mit der vorliegenden Arbeit wurde im Bereich der Konsumentenforschung erstmals ein solcher Ansatz auf regionaler Ebene angewendet, um zu planungsrelevanten Aussagen zu gelangen. In Kombination mit anderen Anwendungen im Bereich der Bevölkerungsprognose, des Verkehrs und der innerstädtischen Migration haben Agentensimulationen alle Voraussetzungen zu einem zukunftsweisenden Paradigma für die Raum- und Fachplanung.
Städte sehen sich in der Entwicklung ihres Einzelhandelsangebots zunehmend Konkurrenzsituationen zwischen traditionellen Innenstadt- und neu entstehenden Stadtrandlagen ausgesetzt, die einerseits die gestiegenen Flächen- und Produktivitätsansprüche der Unternehmen eher erfüllen, während andererseits Bürger, Politik und etablierter Handel ein ‚Aussterben’ der Innenstädte befürchten. Die Konsequenzen planerischer Entscheidungen in dieser Hinsicht abzuschätzen, wird zunehmend komplexer. Dafür sind ebenso eine stärkere Individualisierung des Konsumverhaltens verantwortlich, wie eine gestiegene Sensibilität gegenüber Verkehrs- und Emissionsbelastungen. Modellierungen und Simulationen können einen Beitrag zu fundierter Entscheidungsfindung leisten, indem sie durch Prognosen von Szenarien mit unterschiedlichen Rahmenbedingungen solche Auswirkungen aufzeigen.
In der Vergangenheit wurden Kaufkraftströme durch Modelle abgebildet, die auf aggregierten Ausgangsdaten und Analogieschlüssen zu Naturgesetzen (Gravitations-, Potenzialansatz) oder nutzentheoretischen Annahmen (Diskreter Entscheidungsansatz) beruhten. In dieser Arbeit wird dafür erstmals ein agentenbasierter Ansatz angewendet, da sich so individuelle Ausdifferenzierungen des Konsumentenhandelns wesentlich leichter integrieren und Ergebnisse anschaulicher präsentieren lassen. Ursprünglich entstammt die Idee zur Agententechnologie einem Forschungsfeld der Informatik, der Künstlichen Intelligenz. Ziel war hier, Algorithmen zu entwickeln, die aus einer Menge von kleinen Softwarebausteinen bestehen, die zur Lösung eines Problems miteinander in Kommunikation treten und sich selbst zielbezogen anordnen. Somit schreibt sich der Algorithmus im Grunde selbst. Dieses Konzept kann in den Sozialwissenschaften als Modellierungsparadigma genutzt werden, insofern als dass sie der Idee der Selbstorganisation von Gesellschaften recht nahe kommt. Insbesondere zeichnen sich Multiagentensysteme durch eine dezentrale Kontrolle und Datenvorhaltung aus, die es darüber hinaus ermöglichen, auch komplexe Systeme von Entscheidungsprozessen mit wenigen Spezifikationen darzustellen. Damit begegnet der Agentenansatz vielen Einwänden gegen Analogie- und Entscheidungsmodelle. Durch die konsequente Einnahme einer individuenbezogenen Sichtweise ist die individuelle Ausdifferenzierung von Entscheidungsprozessen viel eher abbildbar.
Für das Forschungsprojekt konnten für einenm ntersuchungsraum in Nordschweden (Funktionalregion Umeå, ca. 140.000 Einwohner) individuenbezogene Einwohnerdaten verfügbar gemacht werden. Diese enthielten u.a. Lagekoordinaten des Wohn- und Arbeitsorts, Alter, Geschlecht, verfügbares Einkommen und Angaben zur Haushaltsstruktur. Verbunden mit Erkenntnissen aus empirischen Untersuchungen (Konsumentenbefragung, Geschäftskartierung) stellten sie die Eingabegrößen für ein agentenbasiertes Modell der Einkaufsstättenwahl bei der Lebensmittelversorgung dar. Die Konsumentenbefragung stellte regressionsanalytische Abhängigkeiten zwischen sozioökonomischen Daten und Konsumpräferenzen bezüglich einzelner Geschäftsattribute (Preisniveau, Produktqualität, Sortimentsbreite, Service etc.) her, die gleichen Attribute wurden für die Geschäfte erhoben. Somit können Kaufkraftströme zwischen Einzelelementen der Nachfrage (individuelle Konsumenten) und des Angebots (einzelne Geschäftsstandorte) als individuell variierende Bewertung der Geschäfte durch die Agenten dargestellt werden, gemäß derer die Agenten ihre lebensmittelrelevante Kaufkraft auf die Geschäfte verteilen.
Für die Geschäfte der gesamten Region konnten Gütemaßwerte bis 0,7 erreicht werden, für einzelne Betriebsformate auch über 0,9. Dies zeigt, dass auch bei der Verwendung individuenbezogener Modelle, die mit einer deutlich höheren Anzahl Freiheitsgraden behaftet sind als ihre aggregierten Gegenstücke, hohe Prognosequalitäten für Umsatzschätzungen von Standorten erreicht werden können. Gleichzeitig bietet der Agentenansatz die Möglichkeit, einzelne Simulationsobjekte bei ihrer Entscheidungsfindung und ihren Aktivitäten zu verfolgen. Dabei konnten ebenfalls plausible Einkaufsmuster abgebildet werden.
Da die Distanz vom Wohn- bzw. Arbeitsort zum Geschäft Bestandteil des Modells ist, können auch die von den Einwohnern zum Zweck der Grundversorgung zu leistenden Distanzaufwände in verschiedenen Angebotssituationen analysiert werden. Als Fallstudie wurde ein Vergleich von zwei Situationen 1997 und 2004 vorgenommen. Während dieses Zeitraums haben im Untersuchungsgebiet grundlegende Veränderungen der Einzelhandelsstruktur stattgefunden, die zu einem weitgehenden Rückzug des Angebots aus den peripheren ländlichen Gebieten geführt haben. Die Ergebnisse zeigteneine hohe Übereinstimmung mit den auf nationaler Ebene erhobenen Mobilitätsdaten, ließen aber auch einen differenzierten Blick auf die unterschiedliche Betroffenheit der Einwohner der Region zu.
An agentenbasierte Simulationen werden in den Sozialwissenschaften große Erwartungen geknüpft, da sie erstmals ermöglichen, gesellschaftliche Phänomene auf der Ebene ihres Zustandekommens, dem Individuum, zu erfassen, sowie komplexe mentale Vorgänge des Handelns, Lernens und Kommunizierens auf einfache Weise in ein Modell zu integrieren. Mit der vorliegenden Arbeit wurde im Bereich der Konsumentenforschung erstmals ein solcher Ansatz auf regionaler Ebene angewendet, um zu planungsrelevanten Aussagen zu gelangen. In Kombination mit anderen Anwendungen im Bereich der Bevölkerungsprognose, des Verkehrs und der innerstädtischen Migration haben Agentensimulationen alle Voraussetzungen zu einem zukunftsweisenden Paradigma für die Raum- und Fachplanung.
Verschiedene Konzepte der Röntgenmikroskopie haben sich mittlerweile im Labor etabliert und ermöglichen heute aufschlussreiche Einblicke in eine Vielzahl von Probensystemen. Der „Labormaßstab“ bezieht sich dabei auf Analysemethoden, die in Form von einem eigenständigen Gerät betrieben werden können. Insbesondere sind sie unabhängig von der Strahlerzeugung an einer Synchrotron-Großforschungseinrichtung und einem sonst kilometergroßen Elektronen-speicherring. Viele der technischen Innovationen im Labor sind dabei ein Transfer der am Synchrotron entwickelten Techniken. Andere wiederum basieren auf der konsequenten Weiterentwicklung etablierter Konzepte. Die Auflösung allein ist dabei nicht entscheidend für die spezifische Eignung eines Mikroskopiesystems im Ganzen. Ebenfalls sollte das zur Abbildung eingesetzte Energiespektrum auf das Probensystem abgestimmt sein. Zudem muss eine Tomographieanalage zusätzlich in der Lage sein, die Abbildungsleistung bei 3D-Aufnahmen zu konservieren.
Nach einem Überblick über verschiedene Techniken der Röntgenmikroskopie konzentriert sich die vorliegende Arbeit auf quellbasierte Nano-CT in Projektionsvergrößerung als vielversprechende Technologie zur Materialanalyse. Hier können höhere Photonenenergien als bei konkurrierenden Ansätzen genutzt werden, wie sie von stärker absorbierenden Proben, z. B. mit einem hohen Anteil von Metallen, zur Untersuchung benötigt werden. Das bei einem ansonsten idealen CT-Gerät auflösungs- und leistungsbegrenzende Bauteil ist die verwendete Röntgen-quelle. Durch konstruktive Innovationen sind hier die größten Leistungssprünge zu erwarten. In diesem Zuge wird erörtert, ob die Brillanz ein geeignetes Maß ist, um die Leistungsfähigkeit von Röntgenquellen zu evaluieren, welchen Schwierigkeiten die praktische Messung unterliegt und wie das die Vergleichbarkeit der Werte beeinflusst. Anhand von Monte-Carlo-Simulationen wird gezeigt, wie die Brillanz verschiedener Konstruktionen an Röntgenquellen theoretisch bestimmt und miteinander verglichen werden kann. Dies wird am Beispiel von drei modernen Konzepten von Röntgenquellen demonstriert, welche zur Mikroskopie eingesetzt werden können. Im Weiteren beschäftigt sich diese Arbeit mit den Grenzen der Leistungsfähigkeit von Transmissionsröntgenquellen. Anhand der verzahnten Simulation einer Nanofokus-Röntgenquelle auf Basis von Monte-Carlo und FEM-Methoden wird untersucht, ob etablierte Literatur¬modelle auf die modernen Quell-konstruktionen noch anwendbar sind. Aus den Simulationen wird dann ein neuer Weg abgeleitet, wie die Leistungsgrenzen für Nanofokus-Röntgenquellen bestimmt werden können und welchen Vorteil moderne strukturierte Targets dabei bieten.
Schließlich wird die Konstruktion eines neuen Nano-CT-Gerätes im Labor-maßstab auf Basis der zuvor theoretisch besprochenen Nanofokus-Röntgenquelle und Projektionsvergrößerung gezeigt, sowie auf ihre Leistungsfähigkeit validiert. Es ist spezifisch darauf konzipiert, hochauflösende Messungen an Materialsystemen in 3D zu ermöglichen, welche mit bisherigen Methoden limitiert durch mangelnde Auflösung oder Energie nicht umsetzbar waren. Daher wird die praktische Leistung des Gerätes an realen Proben und Fragestellungen aus der Material¬wissenschaft und Halbleiterprüfung validiert. Speziell die gezeigten Messungen von Fehlern in Mikrochips aus dem Automobilbereich waren in dieser Art zuvor nicht möglich.