TY - THES A1 - Zipper, Catharina Tabea T1 - Validierungsstudie des „SUBsON“ - Narbenhernien-Operationsmodell zur offenen retromuskulären Netzimplantation mit Präparation des Fatty-Triangles T1 - Incisional hernia repair in a high‑fidelity silicone model “SUBsON” for open retro‑muscular mesh implantation with preparation of the fatty triangle: a validation study N2 - Die Narbenhernie stellt eine häufige Komplikation nach Laparotomien dar. Die Therapie der Narbenhernie erfolgt mittels chirurgischer Netzimplantation. Dieses Verfahren erfordert detaillierte anatomische Kenntnisse. Dem ethischen Imperativ folgend, wurde ein kosten-effizientes Modell entwickelt, welches den humanen Situs imitiert und an dem sich eine retromuskuläre Netzimplantation durchführen lässt. Das High-Fidelity-Modell besteht zum Hauptteil aus 2-Komponenten-Silikon. Das Modell wurde entwickelt und im Rahmen dieser Studie validiert. Zur Ermittlung der Testpersonenanzahl wurde die Methodik des sequentiellen Dreieckstests genutzt. Nachdem 6 Anfänger (PJ-Studierende) und 6 Könner (Fachärzte für Viszeralchirurgie) jeweils ein Modell operiert hatten, wurde die Kontent-, die Konstrukt- und die Kriterienvalidität untersucht. Anschließend wurde das Modell und die Operationsdurchführung mit drei Methoden untersucht. Zum einen füllten die Teilnehmenden einen Fragebogen bezüglich der Realitätsnahe des Modells direkt nach der Operation aus. Außerdem bewerteten drei verblindete Bewerter die Operationen anhand des Competency assessment tool (CAT), welcher eine modifizierte Version des Fragebogens nach Miskovic darstellt, nach den folgenden Subskalen: „Instrumentengebrauch“, „Umgang mit dem Gewebe“, „Mängel und Fehler“, „Qualität des Endprodukts“. Zuletzt wurden die operierten Modelle bezüglicher der „Endergebnisse“ autopsiert und bewertet. Die Ergebnisse zeigen, dass am SUBsON-Modell eine Narbenhernienoperation mit Netzimplantation authentisch durchgeführt werden kann. Die Testpersonen bewerteten das Modell als realitätsnah. Die Reliabilität war in allen Kategorien gut bis exzellent. Die Könner waren in allen Subskalen des CATs den Anfängern überlegen. Bei Betrachtung der Kriterienvalidität zeigte sich ein paradoxer Effekt: Bei der Präparation des Fatty Triangles erbrachten die Anfänger eine signifikant (p< 0,05) höhere Leistung als die Könner. Mögliche Erklärungen dafür sind mannigfaltig. Die Leistungsunterschiede zwischen Anfängern und Könnern bestätigen die Konstruktvalidität von Modell und Fragebogen sowie die Realitätsnähe des Modells. In dieser Studie konnten Defizite vor allem unter Könnern bezüglich anatomischer Kenntnisse bei der Präparation des Fatty Triangles aufgezeigt werden. Das Modell kann zukünftig genutzt werden, um die Netzimplantation und die Präparation des Fatty Triangles zu üben als auch um die chirurgischen Leistungen zu evaluieren. N2 - Incisional hernia is a common complication after laparotomy. Therapy is carried out by means of surgical mesh repair. This requires detailed anatomic knowledge. The literature also explains the proper preparation of the fatty triangle as challenging. Following the ethical imperative, a cost-efficient model for open median retromuscular mesh repair resembling the human body was developed, including the main anatomical structures related to the procedure. Based on two-component silicone a high-fidelity model on open retromuscular mesh repair was created and validated in a subsequent study. Sample size for validation of the model was determined by a sequential triangular test approach. After performing the operation on the model by six beginners (medical students) and six experts (surgeons), the content, construct und criterion validity was investigated. The study consisted of three different evaluation methods. Firstly, the participants evaluated in a questionnaire how realistic they perceived the model and its compounds to be. Secondly, three blinded-raters assessed the operations using a modified version of the Competency assessment tool (CAT) developed by Miskovic for the criteria: “instrument use”, “tissue handling”, “near misses and errors”, and “end-product quality”. Finally, the operated models were autopsied and rated regarding “final results”. The results show that the model authentically mimicked an open median retromuscular mesh repair. Participants considered the procedure to be realistic. Statistical reliability ranged from good to excellent in all categories. Construct-validity was confirmed with experts significantly outperforming beginners in all categories of the CAT. Criterion-validity revealed a paradox effect: beginners performed significantly better than experts (p < 0.05) when preparing the fatty triangle. Possible explanations for this are manifold. Performance differences between beginners and experts confirm construct-validity and thereby the realism of the model. This study also revealed deficits in anatomical comprehension of the fatty triangle preparation especially among experts and presents a model on which the mesh implantation and preparation of the fatty triangle can be practiced and evaluated. KW - Narbenhernie KW - Validierung KW - Konstruktvalidität KW - Simulation KW - Hernie KW - Fatty Triangle KW - incisional hernia KW - Sublay Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-219649 ER - TY - THES A1 - Weber, Christian T1 - Evaluation eines Trainingsmodells für die perkutane Koronarintervention T1 - Evaluation of a training model for percutaneous coronary intervention N2 - Eine fundierte Ausbildung ist in der interventionellen Kardiologie essentiell, um die teilweise komplexen Prozeduren erfolgreich und sicher durchführen zu können. Bei der perkutanen Koronarintervention (PCI) können u.a. Fehler beim Handling des Führungsdrahtes auftreten. So kann es einerseits zum Drahtverlust, andererseits zur distalen Koronargefäßperforation kommen. Daher ist es sinnvoll, die Technik des Katheterwechsels ohne inadäquate Drahtbewegung vor der ersten Intervention im Herzkatheterlabor am Modell zu trainieren. Für diesen Zweck wurde der DACH-BOSS-Simulator entwickelt, an dem der Katheterwechsel trainiert werden kann. Die Validität des Modells wurde im Rahmen einer Studie bei 10 Medizinstudenten (S) sowie 10 angehenden interventionellen Kardiologen (F) untersucht. Jeder Teilnehmer führte eine Trainingsreihe bestehend aus 25 Prozeduren durch. Um den Trainingseffekt zu ermitteln, wurden die mittleren Punktzahlen der ersten 3 und der letzten 3 Prozeduren jedes Probanden in der Studenten- und Fortgeschrittenengruppe verglichen. Zur Bestimmung der Konstruktvalidität führte eine dritte Gruppe von 5 Experten (E, > 1000 PCIs) jeweils 3 Prozeduren durch. Ausmaß der Drahtbewegung und benötigte Zeit wurden mit Punkten bewertet und als Skills score dargestellt. Bei den ersten 3 Prozeduren erzielten die Experten signifikant höhere Werte als die Studenten oder die Fortgeschrittenengruppe (E: 12,9±1,0; S: 7,1±2,6, p = 0,001; F: 8,3±2,0; p = 0,001; Mann-Whitney-U). Anfänger und Fortgeschrittene durchliefen während der 25 Trainingsprozeduren eine Lernkurve; im Mittel verbesserte sich die Studentengruppe von 7,1±2,6 auf 12,2±2 (p=0,007, Wilcoxon) und die Fortgeschrittenengruppe von 8,3±2,0 auf 13,2±1,0 (p = 0,005, Wilcoxon). Der DACH-BOSS-Simulator stellt somit ein valides Modell zum Training des Katheterwechsels ohne inadäquate Drahtbewegung dar. Angehende interventionelle Kardiologen können diesen wichtigen Schritt der Prozedur am Modell trainieren und erlernen. Ob die am Simulator erworbenen Fähigkeiten auf die klinische Prozedur übertragbar sind, muss in weiteren Studien untersucht werden. N2 - Extensive training is required to successfully and safely perform a percutaneus coronary intervention (PCI). For example, uncontrolled movement of the guide wire during catheter exchange may cause “wire-loss” or distal coronary perforation and has to be avoided. The motor skills to hold the wire in a stable position during catheter exchange thus should systematically be trained, and a low cost benchtop model was developed to train catheter exchange without unintended guide wire movements. The effectiveness of the model was evaluated in 10 medical students (S) and 10 cardiology fellows (F) with previous experience in diagnostic catheterization. Both groups underwent a training series consisting of 25 single procedures. Effectiveness of training was assessed by comparing the first 3 and the last 3 procedures in the student and fellows group. To determine the construct validity a third group of 5 experts (E; performed >1000 PCIs) performed a series of 3 procedures. Wire movement and required time were combined into a skills score. These results were compared with the first 3 procedures of the other groups. For the first 3 procedures, experts scored significantly higher than students or fellows (E: 12.9±1.0; S: 7.1±2.6, p=0.001; F: 8.3±2.0, p=0.001; Mann-Whitney-U). Students and fellows improved significantly throughout the series training on the simulator (S: 12.2±2.0, p=0.007; F: 13.2±1.0, p=0.005, Wilcoxon). This low-cost simulator is a valid model to train adequate guide wire handling in interventional cardiology. It needs to be shown wether the acquired skills can be transfered to the clinical situation. KW - Simulation KW - Training KW - Herzkatheter KW - Koronarintervention KW - Simulationstraining Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-200124 ER - TY - THES A1 - Thiem, Philipp T1 - Instant Adipositas T1 - Instant Adipositas N2 - Durch die Simulation von Übergewicht sollen die Alltagsprobleme von Adipösen auch für normalgewichtige Menschen erfahrbar gemacht werden. Die Dissertation beschäftigt sich mit der qualitativen und quantitativen Identifikation der Probleme und Einschränkungen im Alltag von adipösen Menschen. Zudem wird überprüft, ob die Einschränkungen im Rahmen einer Simulation realitätsgetreu abgebildet werden können. N2 - Obese people deal with certain problems in everyday life which are directly caused by their weight. A simulation with increased body weight shall give non-obese subjects the opportunity for a change of perspective and to get an insight of the problems that obese people have to deal with. In my doctoral thesis I identify the obesity-connected problems and examine whether it is possible to simulate these problems with non-obese subjects. KW - Fettsucht KW - Adipositas KW - Simulation KW - Adipositas KW - Simulation KW - Obesity KW - Increased Body Weight Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-97696 ER - TY - BOOK A1 - Steiger, Markus T1 - Multiagentensysteme zur Simulation von Konsumentenverhalten - Untersuchung individuenbasierter Simulationsszenarien zur strategischen Standortplanung im Einzelhandel N2 - Im Rahmen der vorliegenden Untersuchung liegt der Fokus auf der Überprüfung und Weiterentwicklung der Methode der Multiagentensysteme für die Prognosezwecke im Einzelhandel. Die konkrete Zielsetzung der Arbeit ist der Entwurf eines integrativen Systems zur Simulation möglicher Zukunftsszenarien des (räumlichen) Konsumentenverhaltens. Mit Hilfe einer agentenbasierten Modellierung ist es möglich die bisher vorherrschenden Top-Down Ansätze flexibel in ein Bottom-Up Modell zu integrieren. Die wichtigsten strukturprägenden Impulse im Einzelhandelssystem und somit auch auf die Konsumenten gehen aktuell von der Digitalisierung des Verkaufsvorgangs aus. Hierbei wird der „Raum-Zeit-Käfig“ der Kunden ausgeweitet und bestimmte Zwänge der räumlichen und zeitlichen Bindung innerhalb des Kaufprozesses entfallen. Die klassische zeitliche Abfolge des Einkaufsverhaltens wird aufgelöst; Information findet vermehrt digital statt. Vielmehr steht der Produktnutzen im Mittelpunkt, und zugehörige Dienstleistungen wie Information, Service und Logistik werden flexibel kombiniert. Vor diesem Hintergrund stellt die agentenbasierte Simulation einen dynamischen Ansatzpunkt dar, in dem eine Reihe der Defizite tradierter, statischer Methoden Berücksichtigung findet und sich vielfältige Einsatzmöglichkeiten für die Analyse der Wechselwirkungen zwischen Konsumentenverhalten und räumlichen Einzelhandelsstrukturen ergeben. Aufgrund der zunehmenden Digitalisierung des Einkaufsprozesses und den daraus entstehenden Informationen zum Konsumentenverhalten in Kombination mit immer komplexeren Fragestellungen ist in den kommenden Jahren eine verstärkte Dynamik bei der Anwendungshäufigkeit von Multiagentensimulationen in Einzelhandelsunternehmen zu erwarten. T3 - Geographische Handelsforschung - 26 KW - Einzelhandel KW - Standortplanung KW - Multitagentensysteme KW - Konsumentenverhalten KW - Verbraucherverhalten KW - Raumverhalten KW - Simulation KW - Mehragentensystem KW - Elektronikmarkt Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-180782 SN - 978-3-936438-93-2 N1 - Die gedruckte Version dieses Bandes ist im Buchhandel lieferbar. Nähere Informationen unter: http://www.metagis.de/MetaGIS-Fachbuch/Schriftenreihen/Reihe-GHF/reihe-ghf.html PB - Verlag MetaGIS Fachbuch CY - Mannheim ER - TY - THES A1 - Schenk, Tilman A. T1 - Multiagentensysteme zur Simulation von Konsumentenentscheidungen T1 - Multi Agent Systems for the Simulation of Consumer Decisions N2 - Städte sehen sich in der Entwicklung ihres Einzelhandelsangebots zunehmend Konkurrenzsituationen zwischen traditionellen Innenstadt- und neu entstehenden Stadtrandlagen ausgesetzt, die einerseits die gestiegenen Flächen- und Produktivitätsansprüche der Unternehmen eher erfüllen, während andererseits Bürger, Politik und etablierter Handel ein Aussterben der Innenstädte befürchten. Die Konsequenzen planerischer Entscheidungen in dieser Hinsicht abzuschätzen, wird zunehmend komplexer. Dafür sind ebenso eine stärkere Individualisierung des Konsumverhaltens verantwortlich, wie eine gestiegene Sensibilität gegenüber Verkehrs- und Emissionsbelastungen. Modellierungen und Simulationen können einen Beitrag zu fundierter Entscheidungsfindung leisten, indem sie durch Prognosen von Szenarien mit unterschiedlichen Rahmenbedingungen solche Auswirkungen aufzeigen. In der Vergangenheit wurden Kaufkraftströme durch Modelle abgebildet, die auf aggregierten Ausgangsdaten und Analogieschlüssen zu Naturgesetzen oder nutzentheoretischen Annahmen beruhten. In dieser Arbeit wird dafür erstmals ein agentenbasierter Ansatz angewendet, da sich so individuelle Ausdifferenzierungen des Konsumentenhandelns wesentlich leichter integrieren und Ergebnisse anschaulicher präsentieren lassen. Dieses Konzept kann in den Sozialwissenschaften als Modellierungsparadigma genutzt werden, insofern als dass sie der Idee der Selbstorganisation von Gesellschaften recht nahe kommt. Insbesondere zeichnen sich Multiagentensysteme durch eine dezentrale Kontrolle und Datenvorhaltung aus, die es darüber hinaus ermöglichen, auch komplexe Systeme von Entscheidungsprozessen mit wenigen Spezifikationen darzustellen. Damit begegnet der Agentenansatz vielen Einwänden gegen Analogie- und Entscheidungsmodelle. Durch die konsequente Einnahme einer individuenbezogenen Sichtweise ist die individuelle Ausdifferenzierung von Entscheidungsprozessen viel eher abbildbar. Für das Forschungsprojekt konnten für einen Untersuchungsraum in Nordschweden (Funktionalregion Umea) individuenbezogene Einwohnerdaten verfügbar gemacht werden. Diese enthielten u.a. Lagekoordinaten des Wohn- und Arbeitsorts, Alter, Geschlecht, verfügbares Einkommen und Angaben zur Haushaltsstruktur. Verbunden mit Erkenntnissen aus empirischen Untersuchungen (Konsumentenbefragung, Geschäftskartierung) stellten sie die Eingabegrößen für ein agentenbasiertes Modell der Einkaufsstättenwahl bei der Lebensmittelversorgung dar. Die Konsumentenbefragung stellte regressionsanalytische Abhängigkeiten zwischen sozioökonomischen Daten und Konsumpräferenzen bezüglich einzelner Geschäftsattribute (Preisniveau, Produktqualität, Sortimentsbreite, Service etc.) her, die gleichen Attribute wurden für die Geschäfte erhoben. Somit können Kaufkraftströme zwischen Einzelelementen der Nachfrage (individuelle Konsumenten) und des Angebots (einzelne Geschäftsstandorte) als individuell variierende Bewertung der Geschäfte durch die Agenten dargestellt werden. Da auf der Angebotsseite die Umsätze der Geschäfte ebenso bekannt sind, können die Summen der von den Agenten dort allozierten Kaufkraftbeträge mit denselbigen verglichen werden. Dies erlaubt die Quantifizierung einer Schätzgüte für die Geschäftsumsätze mittels eines Gütemaßes. Für die Geschäfte der gesamten Region konnten Gütemaßwerte bis 0,7 erreicht werden, für einzelne Betriebsformate auch über 0,9. Dies zeigt, dass auch bei der Verwendung individuenbezogener Modelle, die mit einer deutlich höheren Anzahl Freiheitsgraden behaftet sind als ihre aggregierten Gegenstücke, hohe Prognosequalitäten für Umsatzschätzungen von Standorten erreicht werden können. Gleichzeitig bietet der Agentenansatz die Möglichkeit, einzelne Simulationsobjekte bei ihrer Entscheidungsfindung und ihren Aktivitäten zu verfolgen. Dabei konnten ebenfalls plausible Einkaufsmuster abgebildet werden. Da die Distanz vom Wohn- bzw. Arbeitsort zum Geschäft Bestandteil des Modells ist, können auch die von den Einwohnern zum Zweck der Grundversorgung zu leistenden Distanzaufwände in verschiedenen Angebotssituationen analysiert werden. An agentenbasierte Simulationen werden in den Sozialwissenschaften große Erwartungen geknüpft, da sie erstmals ermöglichen, gesellschaftliche Phänomene auf der Ebene ihres Zustandekommens, dem Individuum, zu erfassen, sowie komplexe mentale Vorgänge des Handelns, Lernens und Kommunizierens auf einfache Weise in ein Modell zu integrieren. Mit der vorliegenden Arbeit wurde im Bereich der Konsumentenforschung erstmals ein solcher Ansatz auf regionaler Ebene angewendet, um zu planungsrelevanten Aussagen zu gelangen. In Kombination mit anderen Anwendungen im Bereich der Bevölkerungsprognose, des Verkehrs und der innerstädtischen Migration haben Agentensimulationen alle Voraussetzungen zu einem zukunftsweisenden Paradigma für die Raum- und Fachplanung. N2 - Concerning the development of their retail location structures, urban areas are increasingly faced with situations of competition between traditional inner-city and spontaneously emerging suburban forms of outlets, which can on one hand rather satisfy augmented demands on sales areas and productivity of retailers, while on the other hand citizens, politicians and established retailers fear the "death of the centre". To evaluate the consequences of planning decisions in that respect is gaining in complexity; this can be ascribed to a strong individualisation of consumption habits as well as an enhanced sensitivity towards exposure to emissions from traffic and land consumption. Social simulations can contribute to such decisions as they are able to demonstrate the implications thereof by undertaking prognoses in different planning frameworks and scenarios. In the past, estimations of buying power flows between elements of demand and supply have been modelled from aggregate input data utilising approaches characterized by analogies to laws from physical sciences or utility maximizing assumptions. This contribution is the first to use an agent-based approach, since it is capable of integrating individually differentiated variations of consumer behaviour and results can be depicted more effectively. This concept can be used as a modelling paradigm in the social sciences in so far as it reflects the idea of self-organization of human societies. Multi agent simulations are characterized by a distributed control and organisation of data enabling the representation of complex decision processes with a small number of specifications. With these features, agent-based approaches address many of the objections against analogy and choice models. The strictly individual viewpoint allows for a much better representation of individually variations of decision processes. For this research project, individual population data for a study area in Northern Sweden (functional region of Umea) were obtained. They included figures on age, sex, disposable income, coordinates of dwelling and workplace, and household structure for every individual in the region. Combined with empirical results from consumer and store surveys they constituted the data base for an agent-based model of store choice in grocery retailing. The consumer survey contributed regression analyses for individual preferences for store attributes such as price, size of assortment, quality of products, service, etc., dependant on socio-demographic characteristics of the sample. The same attributes were observed for the stores. Hence, the buying power flows between single elements of the demand side (individual consumers) and single elements of the supply side (individual stores) can be specified as individually varying evaluations of choice alternatives, by which the agents will distribute their buying power among the stores. By comparing the sums of buying power collected at the stores with their turnovers, a measure for the quality of the turnover estimation can be given. For all shops in the region, values of 0.7 for R(2) were achieved, for some store formats even up to 0.9. This demonstrates how individual decision based models of buying power allocation despite their fairly large number of degrees of freedom are suitable for turnover estimation and forecasts of individual stores. Simultaneously, the simulation objects, i.e. the individual agents can be observed on performing their shopping trips to ensure plausible results on the micro level as well. Since the distance between the places of dwelling and work and the location of the shop is part of the model, changes in transportation demand in different spatial structures of retail outlets can be analysed. Agent-based simulations are raising high expectations in the social sciences, as they are the first to allow to capture social phenomena on the level of their emergence, the individual, as well as to integrate complex cognitive processes such as motivations, learning and com-munication into such models. This study is the first to apply an agent-based approach in con-sumption research on a regional level in order to support planning decisions in a regional and urban context. Combined with further applications in the areas of population prognosis, transportation and intra-regional migration, social simulations are a promising tool for future challenges in regional and urban planning. KW - Umea KW - Mehragentensystem KW - Verbraucherverhalten KW - Handelsforschung KW - Geographische Handelsforschung KW - Multiagentensystem KW - Simulation KW - Konsumentenverhalten KW - Multi Agent System KW - Simulation KW - Consumer Behavior Y1 - 2006 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-22157 ER - TY - THES A1 - Schenk, Tilman A. T1 - Multiagentensysteme zur Simulation von Konsumentenentscheidungen N2 - Städte sehen sich in der Entwicklung ihres Einzelhandelsangebots zunehmend Konkurrenzsituationen zwischen traditionellen Innenstadt- und neu entstehenden Stadtrandlagen ausgesetzt, die einerseits die gestiegenen Flächen- und Produktivitätsansprüche der Unternehmen eher erfüllen, während andererseits Bürger, Politik und etablierter Handel ein ‚Aussterben’ der Innenstädte befürchten. Die Konsequenzen planerischer Entscheidungen in dieser Hinsicht abzuschätzen, wird zunehmend komplexer. Dafür sind ebenso eine stärkere Individualisierung des Konsumverhaltens verantwortlich, wie eine gestiegene Sensibilität gegenüber Verkehrs- und Emissionsbelastungen. Modellierungen und Simulationen können einen Beitrag zu fundierter Entscheidungsfindung leisten, indem sie durch Prognosen von Szenarien mit unterschiedlichen Rahmenbedingungen solche Auswirkungen aufzeigen. In der Vergangenheit wurden Kaufkraftströme durch Modelle abgebildet, die auf aggregierten Ausgangsdaten und Analogieschlüssen zu Naturgesetzen (Gravitations-, Potenzialansatz) oder nutzentheoretischen Annahmen (Diskreter Entscheidungsansatz) beruhten. In dieser Arbeit wird dafür erstmals ein agentenbasierter Ansatz angewendet, da sich so individuelle Ausdifferenzierungen des Konsumentenhandelns wesentlich leichter integrieren und Ergebnisse anschaulicher präsentieren lassen. Ursprünglich entstammt die Idee zur Agententechnologie einem Forschungsfeld der Informatik, der Künstlichen Intelligenz. Ziel war hier, Algorithmen zu entwickeln, die aus einer Menge von kleinen Softwarebausteinen bestehen, die zur Lösung eines Problems miteinander in Kommunikation treten und sich selbst zielbezogen anordnen. Somit schreibt sich der Algorithmus im Grunde selbst. Dieses Konzept kann in den Sozialwissenschaften als Modellierungsparadigma genutzt werden, insofern als dass sie der Idee der Selbstorganisation von Gesellschaften recht nahe kommt. Insbesondere zeichnen sich Multiagentensysteme durch eine dezentrale Kontrolle und Datenvorhaltung aus, die es darüber hinaus ermöglichen, auch komplexe Systeme von Entscheidungsprozessen mit wenigen Spezifikationen darzustellen. Damit begegnet der Agentenansatz vielen Einwänden gegen Analogie- und Entscheidungsmodelle. Durch die konsequente Einnahme einer individuenbezogenen Sichtweise ist die individuelle Ausdifferenzierung von Entscheidungsprozessen viel eher abbildbar. Für das Forschungsprojekt konnten für einenm ntersuchungsraum in Nordschweden (Funktionalregion Umeå, ca. 140.000 Einwohner) individuenbezogene Einwohnerdaten verfügbar gemacht werden. Diese enthielten u.a. Lagekoordinaten des Wohn- und Arbeitsorts, Alter, Geschlecht, verfügbares Einkommen und Angaben zur Haushaltsstruktur. Verbunden mit Erkenntnissen aus empirischen Untersuchungen (Konsumentenbefragung, Geschäftskartierung) stellten sie die Eingabegrößen für ein agentenbasiertes Modell der Einkaufsstättenwahl bei der Lebensmittelversorgung dar. Die Konsumentenbefragung stellte regressionsanalytische Abhängigkeiten zwischen sozioökonomischen Daten und Konsumpräferenzen bezüglich einzelner Geschäftsattribute (Preisniveau, Produktqualität, Sortimentsbreite, Service etc.) her, die gleichen Attribute wurden für die Geschäfte erhoben. Somit können Kaufkraftströme zwischen Einzelelementen der Nachfrage (individuelle Konsumenten) und des Angebots (einzelne Geschäftsstandorte) als individuell variierende Bewertung der Geschäfte durch die Agenten dargestellt werden, gemäß derer die Agenten ihre lebensmittelrelevante Kaufkraft auf die Geschäfte verteilen. Für die Geschäfte der gesamten Region konnten Gütemaßwerte bis 0,7 erreicht werden, für einzelne Betriebsformate auch über 0,9. Dies zeigt, dass auch bei der Verwendung individuenbezogener Modelle, die mit einer deutlich höheren Anzahl Freiheitsgraden behaftet sind als ihre aggregierten Gegenstücke, hohe Prognosequalitäten für Umsatzschätzungen von Standorten erreicht werden können. Gleichzeitig bietet der Agentenansatz die Möglichkeit, einzelne Simulationsobjekte bei ihrer Entscheidungsfindung und ihren Aktivitäten zu verfolgen. Dabei konnten ebenfalls plausible Einkaufsmuster abgebildet werden. Da die Distanz vom Wohn- bzw. Arbeitsort zum Geschäft Bestandteil des Modells ist, können auch die von den Einwohnern zum Zweck der Grundversorgung zu leistenden Distanzaufwände in verschiedenen Angebotssituationen analysiert werden. Als Fallstudie wurde ein Vergleich von zwei Situationen 1997 und 2004 vorgenommen. Während dieses Zeitraums haben im Untersuchungsgebiet grundlegende Veränderungen der Einzelhandelsstruktur stattgefunden, die zu einem weitgehenden Rückzug des Angebots aus den peripheren ländlichen Gebieten geführt haben. Die Ergebnisse zeigteneine hohe Übereinstimmung mit den auf nationaler Ebene erhobenen Mobilitätsdaten, ließen aber auch einen differenzierten Blick auf die unterschiedliche Betroffenheit der Einwohner der Region zu. An agentenbasierte Simulationen werden in den Sozialwissenschaften große Erwartungen geknüpft, da sie erstmals ermöglichen, gesellschaftliche Phänomene auf der Ebene ihres Zustandekommens, dem Individuum, zu erfassen, sowie komplexe mentale Vorgänge des Handelns, Lernens und Kommunizierens auf einfache Weise in ein Modell zu integrieren. Mit der vorliegenden Arbeit wurde im Bereich der Konsumentenforschung erstmals ein solcher Ansatz auf regionaler Ebene angewendet, um zu planungsrelevanten Aussagen zu gelangen. In Kombination mit anderen Anwendungen im Bereich der Bevölkerungsprognose, des Verkehrs und der innerstädtischen Migration haben Agentensimulationen alle Voraussetzungen zu einem zukunftsweisenden Paradigma für die Raum- und Fachplanung. T3 - Würzburger Geographische Arbeiten - 101 KW - Umeå KW - Kaufverhalten KW - Verbraucherverhalten KW - Agent KW - Simulation KW - Geografie Y1 - 2008 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-231722 ER - TY - THES A1 - Petri, Nils T1 - Verbessert Virtual-Reality-Simulationstraining die Fertigkeiten interventioneller Kardiologen? Eine stratifiziert randomisierte Studie T1 - Does Simulation-Based Training Improve Procedural Skills of Beginners in Interventional Cardiology? - A Stratified Randomized Study N2 - Im Rahmen dieser Studie sollte der Effekt von Virtual-Reality (VR)-Simulation auf die Untersuchungs¬qualität angehender interventioneller Kardiologen untersucht werden. Hierzu wurden 18 Studienteilnehmer rekrutiert, die mindestens 50 diagnostische Herzkatheteruntersuchungen, aber noch keine Intervention eigenständig durchgeführt hatten. Die Hälfte der Teilnehmer erhielt ein 7 ½ stündiges Training an drei VR-Simulatoren: Cath Lab VR (CAE), VIST-C (Mentice) und AngioMentor Express (Simbionix) (Gruppe S). Die andere Hälfte diente als Kontrollgruppe (Gruppe K) und erhielt lediglich eine theo-retische Wissensvermittlung. Die Evaluation der Probanden fand an einem pulsatilen Herzmodell im Katheterlabor statt (CoroSim™, Mecora). Das Modell weist eine hohe Konstruktvalidität auf, was im Rahmen dieser Studie dokumentiert werden konnte. Jeder Teilnehmer musste initial (Prä) und abschließend (Post) eine Intervention an die-sem Modell durchführen, wobei die Komplexität der zu behandelnden Koronarstenose von Prä zu Post anstieg. Jede Prozedur wurde auf Video aufgezeichnet und von 3 er-fahrenen interventionellen Kardiologen verblindet ausgewertet. Um die Leistung der Teilnehmer zu beurteilen, wurde ein Skills Score ermittelt, der 14 Einzelparameter umfasste (s. Tabelle, 5er Likert-Skala, Maximalpunktzahl 70). Zudem wurden die Kon-trastmittelmenge, die benötigte Zeit für die Intervention, die Durchleuchtungszeit und das Flächendosisprodukt gemessen. Zur Bestimmung der Konstruktvalidität nahmen 5 Experten an der Postevaluation teil. Bei vergleichbaren Ausgangswerten im Skills Score (S: 47,2±8,5 K: 50,3±4,5) verbesser-te sich die Simulationsgruppe um 5,8 Punkte auf 53,0±5,6, während sich die Kontroll-gruppe um 6,7 Punkte verschlechterte (K: 43,6±7,0). Dieser Unterschied zeigte sich statistisch signifikant (p=0,003) ANCOVA, abhängige Variable = Veränderung von Prä-zu Postevaluation; Gruppe als Faktor, Ausgangswerte als Kovariate. Schlussfolgerung: VR-Simulationstraining verbessert die kathetertechnischen Fertigkeiten angehender interventioneller Kardiologen. N2 - Objective: To assess whether mentored simulation-based-trai¬ning can improve the procedural skills of beginners in coronary interventional procedures a stratified randomized study was performed. Background: Simulation based-catheter training is a valuable tool to practice interventional procedures. Whether this type of training enhances the procedural skills of fellows learning percutaneous coronary interventions (PCI) has never been studied. Methods: 18 cardiology fellows were randomized either in¬to the simulation-based training (n=9) or the control group (n=9). The simulation group received 7.5 hours of VR simulation training, whereas the control group attended 4.5 hours of lectures. Each participant had to perform a simple (pre-evaluation) and a more complex (post-evaluation) catheter intervention on a pulsatile coronary flow model in a catheterization laboratory. All procedures were videotaped, analyzed and rated by three expert interventiona¬lists, who were blinded to the randomization. To assess the individual performance level, a skills-score was determined. This skills score consists of 14 performance characteristics (five-level Likert scale, maximum score of 70 points). Results: The skills score increased by 5.8±6.1 points in the simulation group and decreased by 6.7±8.4 in the control group (p=0.003) from the simple pre- to the more complex lesion at post-evaluation demonstrating the effectiveness of simulation-based training. KW - Simulation KW - Training KW - Herzkatheter KW - Virtual-reality KW - Simulationstraining KW - Koronarintervention Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-115285 ER - TY - THES A1 - Müller, Thomas M. T1 - Computergestütztes Materialdesign: Mikrostruktur und elektrische Eigenschaften von Zirkoniumdioxid–Aluminiumoxid Keramiken T1 - Computer-Aided Material Design: Microstructure and Electrical Properties of Zirconia-Alumina-Ceramics N2 - Die Mikrostruktur von Zirkonoxid–Aluminiumoxid Keramiken wurde im Rasterelektronenmikroskop (REM) untersucht und mittels quantitativer Bildanalyse weiter charakterisiert. Die so erhaltenen spezifischen morphologischen Kennwerte wurden mit denen, die an dreidimensionalen Modellstrukturen äquivalent gewonnen wurden, verglichen. Es wurden modifizierte Voronoistrukturen benutzt, um die beteiligten Phasen in repräsentativen Volumenelementen (RVE) auf Voxelbasis zu erzeugen. Poren wurden an den Ecken und Kanten dieser Strukturen nachträglich hinzugefüg. Nachdem alle relevanten Kennwerte der Modellstrukturen an die realen keramischen Mikrostrukturen angepasst wurden, musste das RVE für die Finite Element Simulationen (FES) geeignet vernetzt werden. Eine einfache Übernahme der Voxelstrukturen in hexaedrische Elemente führt zu sehr langen Rechenzeiten, und die erforderliche Genauigkeit der FES konnte nicht erreicht werden. Deshalb wurde zunächst eine adaptive Oberflächenvernetzung ausgehend von einem generally classed marching tetrahedra Algorithmus erzeugt. Dabei wurde besonderer Wert auf die Beibehaltung der zuvor angepassten Kennwerte gelegt. Um die Rechenzeiten zu verkürzen ohne die Genauigkeit der FES zu beeinträchtigen, wurden die Oberflächenvernetzungen dergestalt vereinfacht, dass eine hohe Auflösung an den Ecken und Kanten der Strukturen erhalten blieb, während sie an flachen Korngrenzen stark verringert wurde. Auf Basis dieser Oberflächenvernetzung wurden Volumenvernetzungen, inklusive der Abbildung der Korngrenzen durch Volumenelemente, erzeugt und für die FES benutzt. Dazu wurde ein FE-Modell zur Simulation der Impedanzspektren aufgestellt und validiert. Um das makroskopische elektrische Verhalten der polykristallinen Keramiken zu simulieren, mussten zunächst die elektrischen Eigenschaften der beteiligten Einzelphasen gemessen werden. Dazu wurde eine Anlage zur Impedanzspektroskopie bis 1000 °C aufgebaut und verwendet. Durch weitere Auswertung der experimentellen Daten unter besonderer Berücksichtigung der Korngrenzeffekte wurden die individuellen Phaseneigenschaften erhalten. Die Zusammensetzung der Mischkeramiken reichte von purem Zirkonoxid (3YSZ) bis zu purem Aluminiumoxid. Es wurde eine sehr gute Übereinstimmung zwischen den experimentellen und simulierten Werten bezüglich der betrachteten elektrischen, mechanischen und thermischen Eigenschaften erreicht. Die FES wurden verwendet, um die Einflüsse verschiedener mikrostruktureller Parameter, wie Porosität, Korngröße und Komposition, auf das makroskopische Materialverhalten näher zu untersuchen. N2 - The microstructures of zirconia–alumina ceramics are investigated by scanning electron microscopy (SEM) and further characterised by quantitative image analysis. This leads to specific morphological parameters which are compared with the same parameters derived from three-dimensional model structures generated in voxel-based representative volume elements (RVE). Modified Voronoi clusters are employed to represent alumina and zirconia phases. Pores are added at the grain corners and edges respectively. After adjusting all the relevant morphological parameters of the model to the real ceramics’ microstructure, the RVE has to be meshed for finite element simulations (FES). Hexahedral elements which simply use the voxel structure did not lead to sufficient accuracy of the FES. As a first step, an adapted surface tessellation is generated, using a generally classed marching tetrahedra method. Special care is taken to preserve the topology as well as the individual volumes and interfaces of the model. In terms of processing time and accuracy of the FES it is very important to simplify the initially generated surface mesh in a manner that preserves detailed resolution at corners and along edges, while decimating the number of surface elements in flat regions, i.e. at the grain boundaries. From the surface mesh an adequate tetrahedral volume tessellation, including solid elements representing the grain boundaries, is created, which is used for the FES. Therefore, a FE-model for the simulation of impedance spectra has been established and validated. To simulate the macroscopic electrical behaviour of polycrystalline ceramics, the electrical properties of the individual constituting phases need to be measured. This is done by impedance spectroscopy up to 1000 °C. Further analysis of the experimental data with special respect to the effect of the grain boundaries is carried out to obtain the individual phases’ properties. The sample composition was varied from pure zirconia to pure alumina. A very good agreement between experimental and simulated data was achieved in terms of electrical, thermal and mechanical properties. The FES were employed to scrutinize the effects of systematically varying microstructural properties, such as porosity, grain size and composition, on the macroscopic material behaviour. KW - Keramischer Werkstoff KW - Mikrostruktur–Eigenschafts–Korrelationen KW - Mikrostrukturmodellierung KW - Impedanzspektroskopie KW - Finite Element Simulationen KW - Microstructure–Property–Relationship KW - Microstructure Modelling KW - Impedance Spectroscopy KW - Finite Element Simulations KW - Mikrostruktur KW - Computersimulation KW - Finite-Elemente-Methode KW - Simulation KW - Dreidimensionales Modell KW - Gefügekunde Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-110942 ER - TY - THES A1 - Müller, Dominik Dennis T1 - Laborbasierte Nano-Computertomographie mit hoher Energie für die Materialcharakterisierung und Halbleiterprüfung in Simulation und Anwendung T1 - Laboratory Based Nano Computed Tomography with Higher Photon Energy for Materials Characterization and Semiconductor Analysis in Simulation and Practical Application N2 - Verschiedene Konzepte der Röntgenmikroskopie haben sich mittlerweile im Labor etabliert und ermöglichen heute aufschlussreiche Einblicke in eine Vielzahl von Probensystemen. Der „Labormaßstab“ bezieht sich dabei auf Analysemethoden, die in Form von einem eigenständigen Gerät betrieben werden können. Insbesondere sind sie unabhängig von der Strahlerzeugung an einer Synchrotron-Großforschungseinrichtung und einem sonst kilometergroßen Elektronen-speicherring. Viele der technischen Innovationen im Labor sind dabei ein Transfer der am Synchrotron entwickelten Techniken. Andere wiederum basieren auf der konsequenten Weiterentwicklung etablierter Konzepte. Die Auflösung allein ist dabei nicht entscheidend für die spezifische Eignung eines Mikroskopiesystems im Ganzen. Ebenfalls sollte das zur Abbildung eingesetzte Energiespektrum auf das Probensystem abgestimmt sein. Zudem muss eine Tomographieanalage zusätzlich in der Lage sein, die Abbildungsleistung bei 3D-Aufnahmen zu konservieren. Nach einem Überblick über verschiedene Techniken der Röntgenmikroskopie konzentriert sich die vorliegende Arbeit auf quellbasierte Nano-CT in Projektionsvergrößerung als vielversprechende Technologie zur Materialanalyse. Hier können höhere Photonenenergien als bei konkurrierenden Ansätzen genutzt werden, wie sie von stärker absorbierenden Proben, z. B. mit einem hohen Anteil von Metallen, zur Untersuchung benötigt werden. Das bei einem ansonsten idealen CT-Gerät auflösungs- und leistungsbegrenzende Bauteil ist die verwendete Röntgen-quelle. Durch konstruktive Innovationen sind hier die größten Leistungssprünge zu erwarten. In diesem Zuge wird erörtert, ob die Brillanz ein geeignetes Maß ist, um die Leistungsfähigkeit von Röntgenquellen zu evaluieren, welchen Schwierigkeiten die praktische Messung unterliegt und wie das die Vergleichbarkeit der Werte beeinflusst. Anhand von Monte-Carlo-Simulationen wird gezeigt, wie die Brillanz verschiedener Konstruktionen an Röntgenquellen theoretisch bestimmt und miteinander verglichen werden kann. Dies wird am Beispiel von drei modernen Konzepten von Röntgenquellen demonstriert, welche zur Mikroskopie eingesetzt werden können. Im Weiteren beschäftigt sich diese Arbeit mit den Grenzen der Leistungsfähigkeit von Transmissionsröntgenquellen. Anhand der verzahnten Simulation einer Nanofokus-Röntgenquelle auf Basis von Monte-Carlo und FEM-Methoden wird untersucht, ob etablierte Literatur¬modelle auf die modernen Quell-konstruktionen noch anwendbar sind. Aus den Simulationen wird dann ein neuer Weg abgeleitet, wie die Leistungsgrenzen für Nanofokus-Röntgenquellen bestimmt werden können und welchen Vorteil moderne strukturierte Targets dabei bieten. Schließlich wird die Konstruktion eines neuen Nano-CT-Gerätes im Labor-maßstab auf Basis der zuvor theoretisch besprochenen Nanofokus-Röntgenquelle und Projektionsvergrößerung gezeigt, sowie auf ihre Leistungsfähigkeit validiert. Es ist spezifisch darauf konzipiert, hochauflösende Messungen an Materialsystemen in 3D zu ermöglichen, welche mit bisherigen Methoden limitiert durch mangelnde Auflösung oder Energie nicht umsetzbar waren. Daher wird die praktische Leistung des Gerätes an realen Proben und Fragestellungen aus der Material¬wissenschaft und Halbleiterprüfung validiert. Speziell die gezeigten Messungen von Fehlern in Mikrochips aus dem Automobilbereich waren in dieser Art zuvor nicht möglich. N2 - Various concepts of X-ray microscopy have become established in laboratories. Nowadays, they allow insightful analysis of a wide range of sample systems. In this context, "laboratory scale" refers to the analytical methods that operate as a stand-alone instrument. They are independent from beam generation at a large-scale synchrotron research facility with a kilometer-sized electron storage ring. Many of the technical innovations in the laboratory are transferred techniques developed at the synchrotron. Others are based on the continuous further development of previously established concepts. By itself, resolution is not decisive for the specific suitability of a microscopy system in general. The energy spectrum used for imaging should also be matched to the specimen and a tomography system must be able to preserve the imaging performance for 3D images. After an overview of different X-ray microscopy techniques, this work examines how source-based nano-CT in projection magnification is a promising technology for materials analysis. Here, higher photon energies can be used than in competing approaches as required by more absorbent samples for examination, such as those with a high metal content. The core component limiting resolution and performance in an otherwise ideal CT device is the X-ray source used. The greatest leaps in imaging performance can be expected through design innovations in the X ray source. Therefore, In the course of this work, it is discussed when brilliance is and is not an appropriate measure to evaluate the performance of X-ray sources, what difficulties practical measurement is subject to and how this affects the comparability of values. Monte Carlo simulations show how the brilliance of different designs on X-ray sources can be theoretically determined and compared, and this is demonstrated by the example of three modern concepts of X-ray sources, which can be used for microscopy. Next, this thesis considers the limits of the performance of transmission X-ray sources. Using the coupled simulation of a nano focus X-ray source based on Monte Carlo and FEM methods, this thesis investigates whether established literature models are still applicable to these modern source designs. The simulations are then used to derive a new way to determine the performance limits for nano focus X-ray sources and the advantage of modern targets made of multiple layers. Then, a new laboratory-scale nano-CT device based on the nano focus X-ray source and projection magnification is theoretically discussed before it is presented with an evaluation of its performance. It is specifically designed to enable high-resolution measurements on material systems in 3D, which were not feasible with previous methods as they were limited by a lack of resolution or energy. Therefore, the practical performance of the device can finally be validated on real samples and issues from materials science and semiconductor inspection. The shown measurements of defects in automotive microchips in this way were not previously possible. KW - Computertomografie KW - Röntgenquelle KW - Mikroelektronik KW - Simulation KW - Nano-CT KW - Röntgenquellen KW - Materialuntersuchung KW - Geräteentwicklung KW - High Resolution KW - Monte-Carlo KW - Semiconductor KW - Material Science KW - Computed Tomography KW - X-Ray KW - CT Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-313380 ER - TY - THES A1 - Löffel, Stephan T1 - Untersuchung zur Akzeptanz einer Übergewichts-Simulation bei Kindern und Jugendlichen im Alter von 13 bis 16 Jahren T1 - Rate of acceptance of an overweight simulation for children and adolescents at the age of 13 to 16 years N2 - Die vorliegende Studie sollte die Erwartungshaltung, Akzeptanz sowie die physische und psychische Durchführbarkeit hinsichtlich einer Übergewichts-Simulation bei Kindern und Jugendlichen überprüfen. Die Teilnahme an der Simulation ermöglichte es den Proband*innen, typische Alltagsprobleme adipöser Menschen realitätsnah zu erfahren. Insgesamt 58 Schülerinnen und Schüler im Alter von 13 bis 16 Jahren nahmen an dem Projekt teil und durchliefen die Übergewichts-Simulation. Die Ergebnisse zeigten eine positive Erwartungshaltung gegenüber der Simulation. Zudem wurde verdeutlicht, dass der Kurs von der überwiegenden Mehrheit als positiv empfunden und somit akzeptiert wurde. Auch zeigte sich, dass die Übungen physisch und psychisch gut durchführbar waren. N2 - The present study aimed to assess expectations, the acceptance rate, as well as physical and psychological executability of an overweight simulation designed for children and adolescents. Participation in the simulation enabled the subjects to experience typical everyday problems of obese people in a realistic fashion. A total of 58 pupils (age, 13 – 16) participated in the established overweight simulation. The results showed positive expectations towards the simulation. The vast majority perceived the course as positive, supporting the notion that the tested overweight simulation was accepted by the participants. It was also shown that the exercises were easily to perform, on both a physical and mental level. KW - Akzeptanz KW - Übergewicht KW - Simulation KW - Kinder KW - Jugendliche KW - Übergewichts-Simulation KW - overweight simulation KW - Erwartungshaltung KW - expectations Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-214921 ER - TY - THES A1 - Löbbert, Anne-Katrin T1 - Führt VIRTUAL-REALITY-Simulationstraining zur Stressreduktion bei angehenden interventionellen Kardiologen? : eine stratifiziert randomisierte Studie T1 - Does training with virtual-reality-simulation reduce stress of interventional cardiologists? N2 - Die Simulationstechnologie in der Medizin hat in den letzten Jahren große Fortschritte gemacht. In der Zwischenzeit gibt es auch für Herzkatheteruntersuchungen und -interventionen „Virtual reality“ Simulatoren, die ein realistisches Training von Kathetereingriffen erlauben. Nicht geklärt ist bislang, ob Simulationstraining das Stressniveau des Untersuchers reduzieren kann. Im Rahmen dieser Studie wurde zur Beantwortung der genannten Fragestellung der Effekt von Virtual-Reality-Training auf das Stressniveau von Anfängern in der interventionellen Kardiologie untersucht. Hierzu wurde eine randomisiert-stratifizierte Studie bei 33 Anfängern in der interventionellen Kardiologie durchgeführt. Die Probanden wurden in eine Kontroll- und Simulationsgruppe aufgeteilt. Die Simulationsgruppe erhielt ein achtstündiges intensives Training an verschiedenen Simulatoren, während die Kontrollgruppe kein Simulationstraining, sondern lediglich eine theoretische Wissensvermittlung erhielt. Alle Teilnehmer mussten unter realitätsnahen Umständen im Herzkatheterlabor der Universitätsklinik Würzburg innerhalb von 30 Minuten eine PCI an einem pulsatilen Herzkreislaufmodell durchführen. Die Probanden dokumentierten vor und nach der Prä- und Postevaluation ihr aktuelles „Befinden“ anhand eines psychologi-schen Fragebogens PANAS. Ebenso wurden die Probanden hinsichtlich ihrer manuellen Fähigkeiten nach einem strukturierten Evaluationsbogen von einem interventionell tätigen Kardiologen bewertet Die Ergebnisse zeigten initial für die Parameter „aktiv, interessiert, freudig erregt, stark, angeregt, stolz, begeistert, wach, entschlossen und aufmerksam“ des Fragebogens PANAS keinen gruppenspezifischen Unterschied. Nach einem achtstündigen Simulationstraining gab die Simulationsgruppe eine signifikante Reduktion des Stressniveaus im Vergleich zur Kontrollgruppe an. Die aktuelle Studie zeigte, dass das Training an den Virtual Reality Simulatoren die herkömmliche Ausbildung in effektiver Weise ergänzen kann. Weitere Studien mit einer größeren und zugleich homogeneren Stichprobengröße sind nötig, um die genannten Hypothesen zu bestätigen. N2 - In the following study the effect of virtual-reality-training has been analyzed in a randomised controlled trial at the university hospital of Würzburg. The study was performed using two simulation systems CATHI (Catheter Instruction System) and Immersion (CAE) in 33 participants, who have been beginners in interventional cardiology. 16 cardiologists were given 8 hours of intensive training at both simulation systems (=simulation-group). 17 participants represented the conventional education without receiving simulation-training (=control-group). All participants completed a pre- and post-evaluation with questionnaire PANAS (Positive and Negative Affect Schedule). In the beginning differences between the groups couldn´t be documented. After the virtual-reality-training the simulation group has shown a significantly positive affect (PA). The results prove that virtual-reality-simulation is a valuable tool to improve stress reduction in addition to the conventional education. KW - Simulator KW - Simulation KW - Herzkatheter KW - Kardiologie KW - Virtuelle Realität KW - Virtual-Reality Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-99978 ER - TY - THES A1 - Klügl, Franziska T1 - Aktivitätsbasierte Verhaltensmodellierung und ihre Unterstützung bei Multiagentensimulationen T1 - "Activity"-based Modelling of Behaviour and its Support for Multi-Agent Simulation N2 - Durch Zusammenführung traditioneller Methoden zur individuenbasierten Simulation und dem Konzept der Multiagentensysteme steht mit der Multiagentensimulation eine Methodik zur Verfügung, die es ermöglicht, sowohl technisch als auch konzeptionell eine neue Ebene an Detaillierung bei Modellbildung und Simulation zu erreichen. Ein Modell beruht dabei auf dem Konzept einer Gesellschaft: Es besteht aus einer Menge interagierender, aber in ihren Entscheidungen autonomen Einheiten, den Agenten. Diese ändern durch ihre Aktionen ihre Umwelt und reagieren ebenso auf die für sie wahrnehmbaren Änderungen in der Umwelt. Durch die Simulation jedes Agenten zusammen mit der Umwelt, in der er "lebt", wird die Dynamik im Gesamtsystem beobachtbar. In der vorliegenden Dissertation wurde ein Repräsentationsschema für Multiagentensimulationen entwickelt werden, das es Fachexperten, wie zum Beispiel Biologen, ermöglicht, selbständig ohne traditionelles Programmieren Multiagentenmodelle zu implementieren und mit diesen Experimente durchzuführen. Dieses deklarative Schema beruht auf zwei Basiskonzepten: Der Körper eines Agenten besteht aus Zustandsvariablen. Das Verhalten des Agenten kann mit Regeln beschrieben werden. Ausgehend davon werden verschiedene Strukturierungsansätze behandelt. Das wichtigste Konzept ist das der "Aktivität", einer Art "Verhaltenszustand": Während der Agent in einer Aktivität A verweilt, führt er die zugehörigen Aktionen aus und dies solange, bis eine Regel feuert, die diese Aktivität beendet und eine neue Aktivität auswählt. Durch Indizierung dieser Regeln bei den zugehörigen Aktivitäten und Einführung von abstrakten Aktivitäten entsteht ein Schema für eine vielfältig strukturierbare Verhaltensbeschreibung. Zu diesem Schema wurde ein Interpreter entwickelt, der ein derartig repräsentiertes Modell ausführt und so Simulationsexperimente mit dem Multiagentenmodell erlaubt. Auf dieser Basis wurde die Modellierungs- und Experimentierumgebung SeSAm ("Shell für Simulierte Agentensysteme") entwickelt. Sie verwendet vorhandene Konzepte aus dem visuellen Programmieren. Mit dieser Umgebung wurden Anwendungsmodelle aus verschiedenen Domänen realisiert: Neben abstrakten Spielbeispielen waren dies vor allem Fragestellungen zu sozialen Insekten, z.B. zum Verhalten von Ameisen, Bienen oder der Interaktion zwischen Bienenvölkern und Milbenpopulationen. N2 - In this thesis a representational scheme for multi-agent simulations was developed. This framework enables domain experts - e.g. biologists - to build models and carry out experiments without having to understand and use traditional programming languages. The resulting declarative framework is based on two concepts: the body of an agent can be modelled by a set of state variables. The behaviour of the agents can be described best by using rules. With this as a starting point various approaches for structuring the description are examined. The most important concept is the concept of "activity" - a kind of "behavioural state": While the agent is in a certain activity A, it carries out the sequence of actions that is associated with A - and continues with it until a rule fires thus terminating the activity A and selecting a new one. By indexing these rules at the activity they are terminating and by introducing abstract activities, a framework for behaviour modelling emerges that can be structured in multifarious ways. An interpreter executing this representation scheme was developed in order to allow simulation experiments with such a multi-agent model. This simulator was integrated into a modelling and simulation environment, named SeSAm ("Shell for Simulated Agent-Systems"). Using this framework several models in different application domains are implemented: They are ranging from simple games to complex models, especially of social insects - e.g. the behaviour of ants or bees or the interactions between bee hives and mite populations. KW - Agent KW - Simulation KW - Computersimulation KW - Mehragentensystem KW - Simulation KW - Modellierung KW - Multiagentensystem KW - Regelbasiertes System KW - Simulation KW - Modelling KW - Multi-agent system KW - Rule-based Systems Y1 - 2000 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-2874 ER - TY - THES A1 - Kaußner, Armin T1 - Dynamische Szenerien in der Fahrsimulation T1 - Dynamic scenarios for driving simulation N2 - In der Arbeit wird ein neues Konzept für Fahrsimulator-Datenbasen vorgestellt. Der Anwender entwirft eine auf seine Fragestellung zugeschnittene Datenbasis mithilfe einer einfachen Skriptsprache. Das Straßennetzwerk wird auf einer topologischen Ebene repäsentiert. In jedem Simulationsschritt wird hieraus im Sichtbarkeitsbereich des Fahrers die geometrische Repäsentation berechnet. Die für den Fahrer unsichtbaren Teile des Straßenetzwerks können während der Simulation verändert werden. Diese Veränderungen können von der Route des Fahrers oder von den in der Simulation erhobenen Messerten abhängen. Zudem kann der Anwender das Straßennetzwerk interaktiv verändern. Das vorgestellte Konzept bietet zahlreiche Möglichkeiten zur Erzeugung reproduzierbarer Szenarien für Experimente in Fahrsimulatoren. N2 - This work presents a new concept for driving simulator databases. Using a simple scripting language the user defines a database tailored for his experiment. The road network is represented in a topological way. Through this the geometrical representation is computed during the simulation in a small area surrounding the driver, including all that is visible for the driver. The parts of the road network that are not visible for the driver can be changed during simulation. This modification can depend on the route the driver takes or on measures available in the simulation. Moreover, the user can change the road network interactively. The presented concept offers various advantages for the design of reproducible scenarios in driving simulators. KW - Straßenverkehr KW - Simulation KW - Fahrsimulator KW - Fahrsimulation KW - Datenbasis KW - Straßennetzwerk KW - Szenariogenerierung KW - driving simulation KW - database KW - road network KW - scenario creation Y1 - 2003 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-8286 ER - TY - THES A1 - Herrler, Rainer T1 - Agentenbasierte Simulation zur Ablaufoptimierung in Krankenhäusern und anderen verteilten, dynamischen Umgebungen T1 - Agent based simulation of processes in hospitals and other distributed, dynamic environments. N2 - Verteilte dynamische Systeme unter lokalen und globalen Gesichtspunkten zu optimieren ist eine schwierige Aufgabe. Zwar sind grundsätzliche Auswirkungen einzelner Maßnahmen häufig bekannt, durch widerstrebende Ziele, Wechselwirkungen zwischen Prozessen und Nebenwirkungen von Maßnahmen ist ein analytisches Vorgehen bei der Optimierung nicht möglich. Besonders schwierig wird es, wenn lokale Einheiten einerseits ihre Ziele und Autonomie behalten sollen, aber durch zentrale Vorgaben bzw. Anreize so gesteuert werden sollen, dass ein übergeordnetes Ziel erreicht wird. Ein praktisches Beispiel dieses allgemeinen Optimierungsproblems findet sich im Gesundheitswesen. Das Management von modernen Kliniken ist stets mit dem Problem konfrontiert, die Qualität der Pflege zu gewährleisten und gleichzeitig kosteneffizient zu arbeiten. Hier gilt es unter gegeben Rahmenbedingungen und bei Respektierung der Autonomie der Funktionseinheiten, Optimierungsmaßnahmen zu finden und durchzuführen. Vorhandene Werkzeuge zur Simulation und Modellierung bieten für diese Aufgabe keine ausreichend guten Vorgehensmodelle und Modellierungsmechanismen. Die agentenbasierte Simulation ermöglicht die Abbildung solcher Systeme und die Durchführung von Simulationsexperimenten zur Bewertung einzelner Maßnahmen. Es werden Lösungswege und Werkzeuge vorgestellt und evaluiert, die den Benutzer bei der Formalisierung des Wissens und der Modellierung solch komplexer Szenarien unterstützen und ein systematisches Vorgehen zur Optimierung ermöglichen. N2 - To optimize distributed dynamic systems or organizations under local and global constraints is a difficult task. Although basic effects of single improvement steps are often known, it is difficult to examine a complex system with conflicting goals, interdependent processes and sideeffects. A special situation occurs, when local entities are supposed to keep autonomy but should be directed by a central instance, to reach a global goal. A concrete example of this optimization problem can be found in health care. The management of modern hospitals has to ensure the quality of service and at the same time work cost efficient. They want to find improvement steps, which on the one hand respect the typical local autonomy of functional units and on the other hand reduce cost factors like the avarage stay duration of patients. Existing tools for modelling and simulation don't provide adequate methodologies and techniques for this problem. Agent based simulation allowes to realize suitable models and finding improvement steps in simulation studies. New approaches and tools are presented and evaluated, that support users in knowledge formalization and model building. KW - Simulation KW - Prozessoptimierung KW - Modellierung KW - Mehragentensystem KW - Krankenhaus KW - Simulation KW - Process Optimization KW - Agentbased System KW - Hospital Y1 - 2007 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-24483 ER - TY - THES A1 - Friedrich, Ulla T1 - Validierung und Educational Impact Study des Full-Procedural-High-Fidelity NANEP-Simulationsmodells zur offenen präperitonealen Netzimplantation bei Nabelhernien T1 - Validation and learning gain study of the NANEP simulation model for open preperitoneal mesh repair of umbilical hernia N2 - Diese Promotion befasst sich mit der Entwicklung eines neuartigen High-Fidelity, Full-Procedural Simulationsmodell für die Durchführung einer offenen Nabelhernienreparation mit präperitonealen Netzimplantation in Underlay-Position (NANEP-Modell). Das Übungsmodell setzten wir in einem eigens konstruierten Operationskurs in der Allgemein- und Viszeralchirugie der Universitätsklinik Würzburg ein. Ziel war die Validierung des Modells durch Untersuchung der Inhalts-Validität, der Konstrukt-Validität und der Differentiellen Validität. Die auf Video aufgezeichneten Operationen der Probanden wurden auf der Internetplattform Catlive mithilfe des Competency Assessment Tools bewertet. Der Lernzuwachs wurde gemessen und untersucht. Die operierten Modelle wurden zur Prüfung der Kriteriums-Validität autopsiert. N2 - We present a novel type of high-fidelity surgical simulator for open preperitoneal mesh repair of umbilical hernia, including development and implementation in a training course. Construct and content validity of the NANEP simulation model, learning gain on basis of structured competency assessment and autopsy data were analyzed. KW - Simulation KW - Nabelhernie KW - Nabelhernien-Operation KW - Simulationsmodell KW - Chirurgische Ausbildung KW - Bewertungsplattform KW - Ausbildungsforschung KW - Validation KW - Umbilical-hernia KW - Simulationmodel KW - Surgical education KW - Umbilical Hernia Operation Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-191375 ER - TY - THES A1 - Freiwald, Matthias T1 - Therapeutisches Zielorgan Lunge : Pharmakokinetische Untersuchungen am humanen Lungenperfusionsmodell T1 - Therapeutic target site lung: Pharmacokinetic investigations at the isolated reperfused and ventilated human lung N2 - Die humane Lunge kann bei der Pharmakotherapie einer Erkrankung entweder als betroffenes Organ Ziel eines verabreichten Arzneistoffes sein oder aber auch als Portal für diesen in die systemische Zirkulation fungieren. Wird ein Arzneistoff inhaliert, ist für dessen Nutzen-Risiko-Profil von zentraler Bedeutung, in welchem Ausmaß und mit welcher Geschwindigkeit dieser resorbiert und anschließend in die systemische Zirkulation umverteilt wird. Wenn bei der Behandlung einer Lungenerkrankung dagegen ein Arzneistoff z.B. nach peroraler Gabe erst in der systemischen Zirkulation anflutet, müssen ausreichend hohe Wirkstoffkonzentrationen in den betroffenen Gewebearealen sichergestellt werden. Ziel der vorliegenden Arbeit war es daher, Möglichkeiten zu finden, diese beiden Vorgänge in vitro möglichst realitätsnah messen zu können. Für die Simulation der pulmonalen Absorption nach inhalativer Applikation eines Arzneistoffs diente Beclomethasondipropionat (BDP), freigesetzt aus den handelsüblichen FCKW-freien Dosieraerosolen Sanasthmax® und Ventolair®, als Modellsubstanz. Es wurde zunächst ein einfaches Dialysemodell als Screeningverfahren entwickelt. Hier wurden BDP-Partikel unter Verwendung der beiden Dosieraerosole auf humanem Lungenhomogenat deponiert und nachfolgend die kombinierten Prozesse aus Auflösung und Umverteilung der Substanz in eine Dialyseflüssigkeit, die sich entweder aus salinem Puffer oder humanem Blutplasma zusammensetzte, untersucht. Anschließend wurde erstmals ein etabliertes humanes Lungenperfusionsmodell dahingehend modifiziert, dass eine Inhalation von BDP nach Applikation eines handelsüblichen Dosieraerosols nachgestellt werden konnte. Auf diese Weise konnte an diesem realitätsnahen Modell die initiale Phase der pulmonalen Absorption von BDP in der Perfusionsflüssigkeit verfolgt werden. Beide Modelle zeigten Unterschiede in der Auflösungs- bzw. Umverteilungskinetik von BDP in Abhängigkeit von der verwendeten Applikationsform auf. So schienen sich von Ventolair® erzeugte BDP-Partikel schneller und in größerer Menge aufzulösen als diejenige bei den Versuchen mit Sanasthmax®, was eine vermehrte Umverteilung der Substanz sowohl in die Dialyseflüssigkeit als auch Perfusionslösung zur Folge hatte. Die am Lungenperfusionsmodell beobachteten Verläufe der initialen pulmonalen Absorption von BDP nach Freisetzung aus den Dosieraerosolen Sanasthmax® oder Ventolair® korrelierten dabei sehr gut mit Daten aus einer entsprechenden Humanstudie mit gesunden Probanden. Auch standen die ermittelten Unterschiede in sinnvoller Übereinstimmung mit Untersuchungen der in den von Sanasthmax® oder Ventolair® versprühten Aerosolen enthaltenen Partikel hinsichtlich Größenverteilung, Morphologie und Lösungsverhalten in Bronchialsekret. Um die Umverteilung eines Wirkstoffs von der systemischen Zirkulation in lungenspezifisches Gewebe am humanen Lungenperfusionsmodell zu simulieren, wurden die Gewebekonzentrationen von Thalidomid (THAL) in peripherem Lungengewebe im Vergleich zu den korrespondierenden Spiegeln in einem Bronchialkarzinom erstmals mittels Mikrodialyse verfolgt. Hierzu wurde im Vorfeld für diese Substanz unter Einsatz des Komplexbildners (2 Hydroxypropyl)-beta-cyclodextrin (HPCD) ein bezüglich der Sensitivität und der zeitlichen Auflösung optimiertes Mikrodialysesystem etabliert und dessen Eigenschaften systematisch untersucht. Am Lungenperfusionsmodell wurde dann eine an klinisch relevante Plasmaspiegel angelehnte THAL-Konzentration in der Perfusionslösung vorgelegt und anschließend das Anfluten in den oben genannten Geweben mit Hilfe des entwickelten Mikrodialysesystems beobachtet. Durch Zugabe von HPCD in das Mikrodialyseperfusat konnte eine signifikante Erhöhung der Wiederfindungsrate im Dialysat (Relative Recovery) erreicht und damit ein Mikrodialysesystem etabliert werden, das neben hoher zeitlicher Auflösung eine ausreichende analytische Sensitivität für THAL aufwies. Allerdings wurden aufgrund dieses Perfusatzusatzes die Diffusionsvorgänge während der Mikrodialyse derart beeinflusst, dass übliche Methoden zur Sondenkalibrierung wie z.B. die Retrodialyse nicht mehr angewendet werden konnten, und daher in Hinblick auf die Messungen am Lungenperfusionsmodell bestehende Kalibrierverfahren modifiziert werden mussten. Bei der Untersuchung der Gewebepenetration am Lungenperfusionsmodell flutete THAL in Tumorgewebe langsamer an als in peripherem Lungengewebe, wo schnell ähnliche Konzentrationen wie in der Perfusionslösung gefunden wurden. Auch lagen die Gewebespiegel im Tumorgewebe stets unter dem ermittelten Niveau im Lungengewebe. Die erhaltenen Konzentrationsverhältnisse zwischen Perfusionslösung, peripherem Lungengewebe und Tumorgewebe deckten sich dabei mit Kenntnissen aus Humanstudien, in denen analog Plasmakonzentrationen von antineoplastischen Substanzen ebenfalls mittels Mikrodialyse in Relation zu deren Spiegeln in gesundem Gewebe und Tumorgewebe verschiedenster Ätiologie bestimmt wurden. N2 - In pharmacotherapy the human lung may either represent the therapeutic target site of an applied drug or be used as portal for systemic drug delivery. In case of inhalation of a drug the rate and extent of pulmonary drug absorption and subsequent distribution into systemic circulation is essential for the benefit-risk ratio. Otherwise, when a drug is systemically administered, e.g. by intravenous or oral route, to treat a lung disease and therefore first appears in the systemic circulation, sufficient drug concentrations have to be achieved in the affected tissue areals. Thus, the aim of this thesis was to find methods that allow to describe these two processes in vitro as close to reality as possible. Beclomethasone dipropionate (BDP) was chosen for the simulation of pulmonary drug absorption after administration of the two commercially available HFA-propelled metered dose inhalers (pMDI) Sanasthmax® and Ventolair®. Initially a simple dialysis model was established for screening tests. In this setting BDP particles were applied to human lung homogenate using those two inhalers and subsequently the combined processes of drug dissolution and distribution of the drug into dialysis fluid consisting of either saline buffer or human blood plasma were monitored. Then an established isolated reperfused und ventilated human lung setting was used to monitor the initial pulmonary absorption of BDP by measuring drug concentrations in the reperfusion fluid. For this purpose BDP particles containing aerosols delivered by commercially available pMDI for the first time were applied to an isolated reperfused human lung. Both models revealed differences in the combined processes of dissolution and distribution of BDP delivered by the two pMDI Sanasthmax® and Ventolair®. BDP particles delivered by Ventolair® apparently dissolved faster and to a greater extent than particles delivered by Sanasthmax®, resulting in an enhanced distribution both into dialysis fluid and into reperfusion fluid. The time course of initial pulmonary absorption of BDP delivered by the pMDI Sanasthmax® or Ventolair® observed at the isolated reperfused human lung exhibited high correlation with data from a corresponding clinical study with healthy volunteers. Furthermore, the obtained differences were consistent with results from investigations on the particles found in the aerosols produced by Sanasthmax® or Ventolair® regarding their size distribution, topology and dissolution behaviour in brochial fluid. To mimic the distribution of a drug from the systemic circulation into lung specific tissue employing the isolated reperfused and ventilated human lung setting, time course of tissue concentrations of thalidomide (THAL) in peripheral lung tissue in comparison with those in tumour tissue was determined for the first time by microdialysis. Firstly a microdialysis method optimised regarding sensitivity and time resolution by utilising the complexing agent (2 hydroxypropyl)-beta-cyclodextrin (HPCD) was developed and systematically evaluated. A THAL concentration derived from clinically relevant plasma concentrations was used in the reperfusion fluid and subsequently drug influx into tissue was monitored. By adding HPCD to the microdialysis perfusate a significant increase in the relative recovery was achieved enabling the establishment of a microdialysis method that exhibited high time resolution and appropriate analytical sensitivity. However, this perfusate additive strongly affected the diffusion processes during microdialysis so that common methods for microdialysis probe calibration, particularly the retrodialysis method, did not give accurate results. Therefore, a new calibration method suitable for the lung reperfusion experiments had to be explored. Tissue penetration evaluated in the lung reperfusion experiments revealed a slower distribution of THAL into tumour tissue than into peripheral lung tissue. In the latter concentrations similar to those detected in the reperfusion fluid were rapidly observed. Additionally, THAL concentrations achieved in tumour tissue were always lower than the corresponding levels in peripheral lung tissue. The resulting relationship between reperfusion fluid concentrations, concentrations in peripheral lung tissue, and concentrations in tumour tissue was highly correlated with data from clinical studies investigating the concentrations of antineoplastic agents in healthy and tumour tissue of various etiologies by microdialysis in relation to plasma concentrations. In conclusion, methods enabling both characterisation of the distribution of inhaled drugs from lung tissue into systemic circulation and determination of tissue penetration kinetics of systemically administered drugs into lung specific tissue were successfully established. These techniques simulating pulmonary drug distribution very closely to reality may significantly contribute to the understanding of pharmacokinetic processes in the lung. KW - Lunge KW - Perfusion KW - Simulation KW - Pharmakokinetik KW - Pharmakokinetik KW - Lungenperfusionsmodell KW - Thalidomid KW - Beclomethason KW - Beclomethasondipropionat KW - Pharmacokinetics KW - isolated reperfused lung KW - thalidomide KW - beclomethasone Y1 - 2006 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-21551 ER - TY - THES A1 - Fehler, Manuel T1 - Kalibrierung Agenten-basierter Simulationen T1 - Calibration of Agent-based Simulations N2 - In der vorliegenden Arbeit wird das Problem der Kalibrierung Agenten-basierter Simulationen (ABS) behandelt, also das Problem, die Parameterwerte eines Agenten-basierten Simulationsmodells so einzustellen, dass valides Simulationsverhalten erreicht wird. Das Kalibrierungsproblem für Simulationen an sich ist nicht neu und ist im Rahmen klassischer Simulationsparadigmen, wie z.B. der Makro-Simulation, fester Bestandteil der Forschung. Im Vergleich zu den dort betrachteten Kalibrierungsproblemen zeichnet sich das Kalibrierungsproblem für ABS jedoch durch eine Reihe zusätzlicher Herausforderungen aus, welche die direkte Anwendung existierender Kalibrierungsverfahren in begrenzter Zeit erschweren, bzw. nicht mehr sinnvoll zulassen. Die Lösung dieser Probleme steht im Zentrum dieser Dissertation: Das Ziel besteht darin, den Nutzer bei der Kalibrierung von ABS auf der Basis von unzureichenden, potentiell fehlerhaften Daten und Wissen zu unterstützen. Dabei sollen drei Hauptprobleme gelöst werden: 1)Vereinfachung der Kalibrierung großer Agenten-Parametermengen auf der Mikro- Ebene in Agenten-basierten Simulationen durch Ausnutzung der spezifischen Struktur von ABS (nämlich dem Aufbau aus einer Menge von Agentenmodellen). 2)Kalibrierung Agenten-basierter Simulationen, so dass auf allen relevanten Beobachtungsebenen valides Simulationsverhalten erzeugt wird (mindestens Mikro und Makro-Ebene). Als erschwerende Randbedingung muss die Kalibrierung unter der Voraussetzung einer Makro-Mikro-Wissenslücke durchgeführt werden. 3)Kalibrierung Agenten-basierter Simulationen auf der Mikro-Ebene unter der Voraussetzung, dass zur Kalibrierung einzelner Agentenmodelle nicht ausreichend und potentiell verfälschte Daten zur Verhaltensvalidierung zur Verfügung stehen. Hierzu wird in dieser Arbeit das sogenannte Makro-Mikro-Verfahren zur Kalibrierung von Agenten-basierten Simulationen entwickelt. Das Verfahren besteht aus einem Basisverfahren, das im Verlauf der Arbeit um verschiedene Zusatzverfahren erweitert wird. Das Makro-Mikro-Verfahren und seine Erweiterungen sollen dazu dienen, die Modellkalibrierung trotz stark verrauschter Daten und eingeschränktem Wissen über die Wirkungszusammenhänge im Originalsystem geeignet zu ermöglichen und dabei den Kalibrierungsprozess zu beschleunigen: 1) Makro-Mikro-Kalibrierungsverfahren: Das in dieser Arbeit entwickelte Makro- Mikro-Verfahren unterstützt den Nutzer durch eine kombinierte Kalibrierung auf der Mikro- und der Makro-Beobachtungsebene, die gegebenenfalls durch Zwischenebenen erweitert werden kann. Der Grundgedanke des Verfahrens besteht darin, das Kalibrierungsproblem in eines auf aggregierter Verhaltensebene und eines auf der Ebene des Mikro-Agentenverhaltens aufzuteilen. Auf der Makro-Ebene wird nach validen idealen aggregierten Verhaltensmodellen (IVM) der Agenten gesucht. Auf der Mikro-Ebene wird versucht die individuellen Modelle der Agenten auf Basis des erwünschten Gesamtverhaltens und der ermittelten IVM so zu kalibrieren, das insgesamt Simulationsverhalten entsteht, das sowohl auf Mikro- als auch auf Makro-Ebene valide ist. 2) Erweiterung 1: Robuste Kalibrierung: Um den Umgang mit potentiell verrauschten Validierungskriterien (d.h. mit verrauschten Daten über ein Originalsystem, auf denen die Validierungskriterien der Simulation beruhen) und Modellteilen während der Kalibrierung von ABS zu ermöglichen, wird eine robuste Kalibrierungstechnik zur Anwendung im Makro-Mikro-Verfahren entwickelt. 3) Erweiterung 2: Kalibrierung mit Heterogenitätssuche: Als zweite Erweiterung des Makro-Mikro-Verfahrens wird ein Verfahren entwickelt, das das Problem des unklaren Detaillierungsgrades von ABS auf der Ebene der Parameterwerte adressiert. Prinzipiell kann zwar jeder Agent unterschiedliche Parameterwerte verwenden, obwohl eine geringere Heterogenität zur Erzeugung validen Verhaltens ausreichend wäre. Die entwickelte Erweiterung versucht, während der Kalibrierung, eine geeignete Heterogenitätsausprägung für die Parameterwerte der Agenten zu ermitteln. Unter einer Heterogenitätsausprägung wird dabei eine Einteilung der simulierten Agenten in Gruppen mit jeweils gleichen Parameterwerten verstanden. Die Heterogenitätssuche dient dazu, einen Kompromiss zu finden zwischen der Notwendigkeit, sehr große Parametersuchräume durchsuchen zu müssen und gleichzeitig den Suchraum so klein wie möglich halten zu wollen. N2 - In this doctoral thesis the problem of calibrating agent-based simulations (ABS) is treated, i.e. the problem to adjust the parameter values of an agent-based simulation model to achieve valid simulation behavior. The calibration problem for simulations per se is not new and is an active part of research in the context of traditional simulation paradigms, such as the macro-simulation. Compared to the problems considered there the problems for ABS can be distinguished by several additional challenges that complicate the direct application of existing calibration procedures in a limited time, or challenges that do not allow applying existing procedures at all. The goal of this thesis is to assist the user in the calibration of ABS on the basis of incomplete and potentially noisy data or knowledge and in dealing with large amounts of parameter values if an ABS with many individual agents needs to be calibrated. The thesis covers the following three main topics: 1) Simplification of the calibration of many agent parameter values on the micro-level in ABS. This is done by exploiting the specific structure of ABS (i.e. that an ABS constitutes of a lattice of agent models). 2) Calibration of agent-based simulations, so that valid simulation behavior is created on all relevant behavior observation levels (at least micro- and macro-level). This needs to be possible without having full knowledge about how the macro observation level behavior constitutes from the modeled micro behavior. 3) Calibration of agent-based simulations on the micro-level under the constraint that only partial and potentially noisy data for testing and validation of single individual agent models is available. To achieve this the so-called “Macro-Micro Procedure” for calibrating agent-based simulations is developed. The approach consists of a basic procedure that is extended in the course of the work with various additional techniques: 1)Macro-Micro-Calibration Procedure: The Macro-Micro Procedure supports the user by applying a combined calibration on the micro and the macro-observation level, which can optionally be expanded using additional intermediate levels. The basic idea of the procedure consists of separating the calibration problem into one at the aggregate behavior level and one at the level of the micro-agent behavior. At the macro level, valid simulation behavior for ideal aggregate behavior models (IAM) of agents is being determined. At the micro level, the goal is to calibrate the models of the individual agents based on the desired overall behavior and the determined IAM from the macro level. Upon completion the simulation behavior created shall be valid both at the micro and also at a macro level. 2)Extension 1: Robust Calibration: In order to deal with potentially noisy validation criteria and model parts (i.e. with noisy data about the original system from which the validation criteria of the simulation are created) a robust calibration technique is developed that can be used as part of the Macro-Micro-Procedure. 3)Extension 2: Calibration with heterogeneity search: The second extension of the Macro-Micro-Procedure addresses the problem of an unclear level of detail on the level of the parameter values. Theoretically it is possible to use different parameter values for each individual simulated agent which leads to a huge parameter search space. Often it is however sufficient to use a lower heterogeneity in the parameter values to generate valid behavior which would allow calibration in a smaller search space. The developed extension attempts to determine such a suitable heterogeneity manifestation for the parameter values of the agents as part of the calibration process itself. A heterogeneity manifestation is performed by dividing the agents into groups of agents with homogenous parameter values. The developed heterogeneity search offers a compromise between the necessity of having to search very large parameter search spaces and the goal to keep the search space as small as possible during the calibration. KW - Computersimulation KW - Mehrebenensimulation KW - Autonomer Agent KW - Agenten-basierte Simulation KW - Multiagentensimulation KW - Parameterkalibrierung KW - Hierarchische Simulation KW - Simulation KW - Agent KW - Calibration KW - Optimization KW - Agent-based Simulation KW - Multi-Agent-Simulation Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-64762 ER - TY - THES A1 - Coburger, Jan T1 - Evaluierung des PCI-Simulators CathI T1 - Evaluation of the PCI-Simulator CathI N2 - Die Ausbildung im Herzkatheterlabor hat sich seit Etablierung der interventionellen Kardiologie kaum verändert. Wie auch in anderen Bereichen der Medizin steht schon seit einiger Zeit die Frage nach der ethischen Vertretbarkeit des „see one, do one, teach one“ Prinzips im Raum. Das Dilemma zwischen der Sicherheit des Patienten und einer adäquaten Ausbildung der Assistenten führte schon früh zum Ruf nach Simulationssystemen für die Medizin. Heute existieren Geräte, die die technischen Voraussetzungen erfüllen, um die komplizierte menschliche Physiologie und Pathophysiologie zu simulieren. Eine gründliche wissenschaftliche Evaluation dieser Systeme ist die notwendige Basis, um die Ausbildung in der Medizin zu verbessern. Zur Validation des PCI-Simulators CathI wurde an der Medizinischen Klinik der Universität Würzburg eine formative und summative Evaluation durchgeführt. Als erster Schritt wurden die Lerneffekte zweier randomisierter Laiengruppen, einer am CathI-System (n=7) und einer an einem Computerprogramm trainierten Gruppe(n=6) während eines viertägigen Trainings untersucht. Nach Ablauf des Trainings wurden die Ergebnisse zur Überprüfung der konkurrenten Validität und der Eignung des Systems als Assessment-Tool, mit einer Expertengruppe verglichen. Als letzten Schritt testete man die am CathI-System erworbenen interventionellen Fähigkeiten im Herzkatheterlabor. Hierbei wurde eine am CathI-System trainierte (n=6), mit einer computerbasiert trainierten Gruppe (n=6) während einer Intervention an einem pulsatilen röntgenfähigen Herzmodell verglichen. Die Evaluation erfolgte an Hand objektiver Standardparameter und mittels eines Fähigkeiten-Scores. Als eines der wichtigsten Ergebnisse konnte gezeigt werden, dass Probanden durch Training am CathI-Simulator besser auf kardiologische Grundfähigkeiten vorbereitet werden als eine vergleichbare Gruppe durch Ausbildung an einer Computersimulation. Das CathI-System führt zu einem risikoärmeren Verhalten im Herzkatheterlabor. Man kann daraus folgern, dass das CathI-System eine überlegene Ausbildungsmöglichkeit für die Vorbereitung auf eine Intervention am Patienten darstellt. Der CathI-Simulator ermöglicht es Experten, basierend auf ihren Fähigkeiten in der interventionellen Kardiologie auch die Simulation mit hoher Qualität zu absolvieren. Es kann konkurrente Validität für das Trainingsgerät angenommen werden. Dem Simulationssystem CathI ist es möglich, die Expertise des Anwenders realitätsnah einzuschätzen. Es kann spezifisch kognitive und motorische Fähigkeiten testen. Das Simulationssystem CathI erwies sich als effektives Werkzeug zur Schulung der diagnostischen Koronarangiographie und der PCI. N2 - Background: The virtual performance of carotid stenting became an integral part of the resident training, which was just recently recognised by the Federal Drug Administration in the United States. It just a matter of time until this requirements are extended to the coronary angiography and the PTCA. Even more important is a sufficiently validated simulation system as a base for excellent and continuous education. The purpose of this study therefore was to evaluate the construct and concurrent validity of the CathI PCI Simulator. Methods: For evaluating the concurrent validity a novice group of 7 volunteering final year medical students was trained for 4 consecutive days performing three standardised procedures each day. On day 4 the performance of the novices was compared with an experts group, consisting of 6 experienced interventionists. The construct validity was evaluated by assessing the intervention of two novice groups of 5 participants each on a pulsating heard model. Each of them received a similar training schedule of 4 days. One Group was trained on the CathI-System (CATHI) the other performed the same tasks using a standard computer interface (PC). Their performance was evaluated using a skill-score as well as by assessing objective parameters like interventional or fluoroscopy time. Results: The experts showed significant superiority for the overall procedure time with the highest difference for the diagnostic time. Significantly less contrast agent was used by the experts, while there was no difference for the usage of fluoroscopy and the frequency of “perforating” the end of a vessel. The comparison of the two novice groups in the cardiac suite showed a significant higher score of the CATHI group. With regard to the single components of the score there was significantly handling skill and a better risk awareness of the CATHI group. The assessed objective parameters showed no significant difference. Conclusions: We could show concurrent and construct validity of the CathI Simulator. Traing with the CathI-Simulator teaches the basic skills for the PCI and leads to a risk reduction in the cardiac-suite. It is an adequate tool to teach the PCI and to assess the level of experience of its user. KW - CathI KW - Simulation KW - Evaluation KW - Herzkatheter KW - PCI KW - CathI KW - Simulation KW - Evaluation KW - PCI KW - cardiac intervention Y1 - 2005 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-18753 ER - TY - THES A1 - Barthel, Laura T1 - Vierschrittmethode nach Peyton versus „See one, do one“: eine randomisiert-kontrollierte Studie zum Erlernen der Naht von Platzwunden an Lippe und Augenbraue T1 - Comparison of Peyton's four step approach to the teaching method "See one, do one": a randomized controlled trial for the treatment of lip and eyebrow wounds N2 - Einleitung Platzwunden im Gesicht machen nahezu ein Drittel aller Platzwunden in der Notaufnahme aus (Singer et al., 2006). Diese werden zum Großteil nicht von Plastischen Chirurginnen und Chirurgen versorgt (Lee, Cho, et al., 2015), weshalb eine gute Grundausbildung junger Ärztinnen und Ärzte unabdingbar ist. Eine gängige Lehrmethode zur Vermittlung praktischer Fertigkeiten ist der konventionelle Ansatz „see one, do one“, welcher oft als unzureichend bewertet wird (Zahiri et al., 2015). Hingegen sind für die Vierschrittmethode nach Peyton zahlreiche Vorzüge dokumentiert (Herrmann-Werner et al., 2013; Krautter et al., 2015). Anhand eines eigens entwickelten Gesichtsmodells aus Silikon wurden beide Lehrmethoden im Hinblick auf ihren Lernerfolg bezüglich kommunikativer Fähigkeiten und handwerklicher Fertigkeiten, die Verankerung im Langzeitgedächtnis, die Dauer des Eingriffs sowie eine korrekte prozedurale Abfolge beim Versorgen von Gesichtswunden überprüft. Material und Methoden Zum Zeitpunkt der Teilnahme an der Studie befanden sich die Studierenden (n=20 bei einer Power von 0,8) entweder im Praktischen Jahr (11./12. Fachsemester) (n=10) oder im Blockpraktikum (10. Fachsemester) (n=10). Ausschlusskriterium war eine bereits selbstständig durchgeführte ambulante Naht im Gesichtsbereich. Die Kohorte der konventionellen Methode als Kontrollgruppe (KG) und die der Peyton Methode als Experimentalgruppe (EG) wurden mittels Video-Tutorial angeleitet, bevor sie die Naht in Lokalanästhesie am Gesichtsmodell durchführten. Nach 7 Tagen erfolgte die Operation ein zweites Mal ohne Anleitung. Die Operationen wurden gefilmt und durch drei verblindete Bewertende anhand der Skalen „Instrumentengebrauch“, „Umgang mit dem Gewebe“, „Knappe Versäumnisse und Fehler“ sowie „Qualität des Endergebnisses“ des Competency Assessment Tools (CAT) bewertet (1 = Anfänger/in bis 4 = Erfahrene/r), welche wiederum in 12 Items eingeteilt waren (Miskovic et al., 2013). Die Berechnung der Unterschiede bezog handwerkliche Fertigkeiten, die Verankerung im Langzeitgedächtnis, die Kommunikation sowie Unterschiede zwischen den Ausbildungsständen ein. Zusätzlich wurde das Einhalten des korrekten prozeduralen Ablaufes überprüft, sowie die Zeit zur Durchführung gemessen und zwischen den Lehrmethoden verglichen. Zur Validierung des CAT wurde die Reliabilität der Skalen und die Interrater-Reliabilität berechnet. Ergebnisse Sowohl die Reliabilität der Skalen als auch die Interrater-Reliabilität zeigten zufriedenstellende Ergebnisse. Bezüglich der Unterschiede auf Skalenebene zeigte die EG im Vergleich zur KG signifikant bessere Ergebnisse für die Mittelwerte aller vier Skalen (p < 0,05). Diese Ergebnisse bestätigten sich auch bei der Analyse einzelner Items. Bei Betrachtung der Unterschiede zwischen den OP Tagen zeigte sich bei der EG ein signifikanter Zuwachs der Leistung (p < 0,05). Bezüglich der kommunikativen Fähigkeiten berechnete sich für eines der beiden zugehörigen Items eine Überlegenheit der EG (p < 0,05). Bei detaillierter Betrachtung des Ausbildungsstandes ließ sich ein insgesamt besseres Abschneiden der Studierenden im Praktischen Jahr verglichen zu jenen im Blockpraktikum feststellen. Außerdem hielt die Kohorte der EG signifikant häufiger eine korrekte prozedurale Abfolge ein (p < 0,05) und benötigte deskriptiv weniger Zeit zur Durchführung der Prozedur. Fazit Die Peyton-Methode zeigte sich der konventionellen Methode im Hinblick auf das Erlernen einer Gesichtsnaht sowohl in der Qualität als auch in Bezug auf das Durchführen der Schritte in korrekter Reihenfolge überlegen. Zudem gibt es Evidenz, dass die Peyton Methode eine Verankerung des Gelernten im Langzeitgedächtnis fördert und die Durchführungsgeschwindigkeit erhöht. Die Ergebnisse sprechen somit für den Einsatz der Peyton Methode beim Erlernen komplexer chirurgischer Fähigkeiten. Ausblick Zukünftig könnte die feste Integration der Peyton Methode in das Curriculum die ärztliche Ausbildung verbessern. Insbesondere im Hinblick auf nachhaltiges und (Zeit-) effizientes Lernen besteht weiterer Forschungsbedarf. Außerdem wären weitere Untersuchungen zum Erlernen von Kommunikation mittels Vierschrittmethode nach Peyton wünschenswert. N2 - Introduction The incidence of facial laceration approximately is one third of all lacerations treated in Emergency Departments (Singer et al., 2006). The majority of these wounds are not treated by plastic surgeons (Lee, Cho, et al., 2015). Subsequently fundamental training for young doctors is very important. A common teaching method for procedural skills is the traditional „see one, do one“ approach which is regarded rather inefficient (Zahiri et al., 2015). On the other hand many studies have demonstrated benefits of Peyton‘s four step approach (Herrmann-Werner et al., 2013; Krautter et al., 2015). In this study, the two teaching methods were compared. Outcome variables were learning success for communicational and procedural skills, embedment in long-term memory and a correct procedural order in treatment of facial wounds. Furthermore, the time needed to treat the “patient” was measured. Surgery was performed employing a novel silicone face model. Materials and methods At the time of participation, students (n = 20, power 0,8) were either attending the 11th/12th semester (n = 10) or the 10th semester (n = 10). An autonomously performed ambulant surgery of facial wounds was defined as an exclusion criterion for participation. The traditional teaching method served as control group (CG), Peyton’s four step approach as experimental group (EG). Prior to performing the ambulant surgery under local anesthesia using the face model, both groups were instructed by video tutorials. Surgery was repeated 7 days later without any instruction. Every performance was video recorded and evaluated by three blinded raters. The evaluation criteria (scales) using the Competency Assessment Tool (CAT) were: „instrument use“, „tissue handling“, „near misses and errors“ and „end-product quality“, rated from 1 = novice to 4 = proficient (Miskovic et al., 2013). Each scale consisted of three items. Scales’ psychometric quality was investigated by means of descriptives, reliability and interrater reliability. CG and EG were compared regarding procedural and communicational skills, embedment in long-term memory, as well as the time needed for treatment and a correct procedural order. The impact of educational levels was considered as well. Results Reliability of scales as well as interrater reliability showed satisfactory results. Significant differences in mean rating were found in favor of the EG for all four evaluation criteria (p < 0,05). This result was confirmed when analysis was forth carried on item level. The EG improved their procedural as well as communicational skills significantly from day 1 to day 2 (p < 0,05). Stratified by educational level, students attending the 11th/12th semester showed superior performance to those attending the 10th semester. In addition, participants of the EG followed the right procedural order significantly more often than the CG (p < 0,05) and improved regarding the time required for treatment. Conclusion Peyton’s four step approach is superior to the traditional approach in performing a facial suture concerning quality as well as following the correct procedural order. Furthermore, this study shows evidence that Peyton’s four step approach helps embedding the learning success in long-term memory. It may also lead to a faster treatment of patients. Thus Peyton’s four step approach is recommendable for teaching complex surgical skills Perspective Integration of Peyton’s four step approach in the curriculum could improve medical education. Further research is particularly required to scrutinize the effect of Peyton’s four step approach on long-term and (time) efficient learning. Studies investigating the effect of Peyton’s four step approach on learning communicational skills are also considered desirable. KW - Simulation KW - Peyton-Methode KW - Medizinische Lehre KW - Kommunikation KW - Platzwunden KW - Chirurgie Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-225797 ER - TY - THES A1 - Backhaus, Birte T1 - Können mit Virtual-Reality-Simulationstraining die manuellen Fertigkeiten interventioneller Kardiologen verbessert werden? T1 - Does training with virtual-reality-simulation improve manual skills of interventional cardiologists? N2 - Durch Fortschritte in der Technologie haben interventionelle Eingriffe am Herzen in den letzten Jahrzehnten einen herausragenden Stellenwert entwickelt und zu einer Reduktion von aufwendigen Operationen am Herzen geführt. Die Ausbildung im Herzkatheterlabor, die nach dem konservativen „appreticeship-model“ erfolgt, gerät in Anbetracht der sinkenden finanziellen Mittel, Zeitmangel und der ethischen Fragen bezüglich Patientensicherheit immer mehr in Diskussion. Die Entwicklung der Virtual-Reality-Simulatoren für Kathetereingriffe bietet hier durch die Realitätsnähe einen Ansatzpunkt für die Möglichkeit eines individuell angepassten, repetitiven Trainings ohne die Gefährdung eines Patienten. Standardsituationen als auch seltene Komplikationen können nachgestellt werden. Diese Studie weist nach, dass Training an den Virtual-Reality-Simulatoren CATHI und Immersion zu einer Risikoreduktioin bei der Durchführung einer perkutanen Coronarintervention führt. Zur Untersuchung der Effekte von Virtual-Reality-Training auf die Performance einer perkutanen Coronarintervention wurde an der medizinischen Klinik Wuerzburg eine kontrolliert-radnomisierte Studie mit 33 Anfängern in der interventionellen Kardiologie durchgeführt. 16 Teilnehmer (Simulationsgruppe) erhielten ein intensives acht-stuendiges Simulationstraining an zwei verschiedenen Virtual-Reality-Simulatoren (CATHI und Immersion), 17 Teilnehmer bildeten die Kontrollgruppe, die den konservativen Ausbildungsgang repräsentierte und kein Simulationstraining erhielt. Alle Teilnehmer mussten in Form einer Prä- und Postevaluation unter realitätsnahen Umständen im Herzkatheterlabor der Uniklinik Würzburg innerhalb von 30 Minuten eine perkutane Coronarintervention an einem pulsatilen Herzkreislaufmodell aus Silikon (CoroSim) eigenständig vornehmen. Dabei musste eine an einer Aufteilung lokalisierte hochgradige Stenose ohne Abgänge mit einer Länge von 10mm und einem Gefäßdurchmesser von 4mm eröffnet werden. Die Ergebnisse zeigten für die Präevaluation keine gruppenspezifischen Unterschiede. Nach dem Simulationstraining zeigte sich eine signifikante Verbesserung der Simulationsgruppe bei der Risikominimierung in Bezug auf Sicherheit bei der Anwendung des Führungskatheters, des Koronardrahts, des Ballon/Stents und bei der KM-Injektion, während sich die Kontrollgruppe in diesen Punkten nicht verbessern konnte. Die aktuelle Studie zeigt, dass Training an den Virtual-Reality-Simulatoren, als Ergänzung zur herkömmlichen Ausbildung, ein hohes Potential für die Optimierung von interventionellen Herzkathetereingriffen verfügt. N2 - Annually more than 800.000 diagnostic procedures and 300.000 percutaneous coronary interventions are performed in Germany. The need of interventional cardiologists is growing continuously. The education is following the "appranticeship-model" which means that trainees arrange procedures with the guidance of an experienced teacher. But this way of education is exposed to several problems like personnel and financial restrictions as well as ethical criticism. The development of realistic virtual-reality-simulation-systems could be a possible solution for this dilemma. It provides repetitive, individual, riskfree training of standard and also of rare situations. In the following study the effect of virtual-reality-training has been analyzed in a randomised controlled trial at the university hospital of Wuerzburg. The study was performed with the two simulation systems CATHI and Immersion and 33 participants, who who have been beginners in interventional cardiology. 16 cardiologists were given 8 hours of intensive training at both simulation systems (=simulation-group). 17 participants representated the conventional education without receiving simulation-training (=control-group). All particpants completed an pre- and postevaluation. At the beginning no differences between the groups could be documentated. After the virtual-reality-training the simulation-group could significantly improve the risk awareness in catheter-/ balloon- and stent-handling during a percutaneous coronarintervention. The results prove that virtual-reality-simulation is a valuable tool to improve risk awareness in interventional cardiology in addition to the conventional education. KW - Virtuelle Realitaet KW - Simulation KW - Kardiologie KW - Herzkatheter KW - virtual-reality KW - simulation KW - cardiology Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-72654 ER -