TY - THES A1 - Audretsch, Christof T1 - Analysing Quorum Sensing and Biofilm formation in Staphylococcus aureus T1 - Untersuchungen des Quorum-Sensing und der Biofilm-Bildung in Staphylokokkus aureus N2 - Staphylococcus aureus (SA) causes nosocomial infections including life threatening sepsis by multi-resistant strains (MRSA). It has the ability to form biofilms to protect it from the host immune system and from anti staphylococcal drugs. Biofilm and planctonic life style is regulated by a complex Quorum-Sensing (QS) system with agr as a central regulator. To study biofilm formation and QS mechanisms in SA a Boolean network was build (94 nodes, 184 edges) including two different component systems such as agr, sae and arl. Important proteins such as Sar, Rot and SigB were included as further nodes in the model. System analysis showed there are only two stable states biofilm forming versus planctonic with clearly different subnetworks turned on. Validation according to gene expression data confirmed this. Network consistency was tested first according to previous knowledge and literature. Furthermore, the predicted node activity of different in silico knock-out strains agreed well with corresponding micro array experiments and data sets. Additional validation included the expression of further nodes (Northern blots) and biofilm production compared in different knock-out strains in biofilm adherence assays. The model faithfully reproduces the behaviour of QS signalling mutants. The integrated model allows also prediction of various other network mutations and is supported by experimental data from different strains. Furthermore, the well connected hub proteins elucidate how integration of different inputs is achieved by the QS network. For in silico as well as in vitro experiments it was found that the sae-locus is also a central modulator of biofilm production. Sae knock-out strains showed stronger biofilms. Wild type phenotype was rescued by sae complementation. To elucidate the way in which sae takes influence on biofilm formation the network was used and Venn-diagrams were made, revealing nodes regulated by sae and changed in biofilms. In these Venn-diagrams nucleases and extracellular proteins were found to be promising nodes. The network revealed DNAse to be of great importance. Therefore qualitatively the DNAse amount, produced by different SA mutants was measured, it was tried to dissolve biofilms with according amounts of DNAse and the concentration of nucleic acids, proteins and polysaccharides were measured in biofilms of different SA mutants. With its thorough validation the network model provides a powerful tool to study QS and biofilm formation in SA, including successful predictions for different knock-out mutant behaviour, QS signalling and biofilm formation. This includes implications for the behaviour of MRSA strains and mutants. Key regulatory mutation combinations (agr–, sae–, sae–/agr–, sigB+, sigB+/sae–) were directly tested in the model but also in experiments. High connectivity was a good guide to identify master regulators, whose detailed behaviour was studied both in vitro and in the model. Together, both lines of evidence support in particular a refined regulatory role for sae and agr with involvement in biofilm repression and/or SA dissemination. With examination of the composition of different mutant biofilms as well as with the examination of the reaction cascade that connects sae to the biofilm forming ability of SA and also by postulating that nucleases might play an important role in that, first steps were taken in proving and explaining regulatory links leading from sae to biofilms. Furthermore differences in biofilms of different mutant SA strains were found leading us in perspective towards a new understanding of biofilms including knowledge how to better regulate, fight and use its different properties. N2 - Staphylococcus aureus (SA) ist Auslöser nosocomialer Infektionen, darunter auch die, durch multiresistente Stämme (MRSA) verursachte, lebensbedrohliche Sepsis. Er hat die Fähigkeit Biofilme zu bilden, um sich vor dem Immunsystem des Wirtes und vor Antibiotika zu schützen. Biofilm und planktonische Lebensweise werden durch ein komplexes Quorum-Sensing (QS) System mit agr als zentralem Regulator gesteuert. Um die Biofilm Bildung und QS Mechanismen in SA zu untersuchen, wurde ein Boole´sches Netzwerk erstellt (94 Knoten, 184 Kanten) das verschiedene Zwei-Komponenten-Systeme wie agr, sae und arl mit einschließt. Wichtige Proteine wie Sar, Rot und SigB wurden als weitere Knoten im Modell eingefügt. Die Systemanalyse zeigte, dass es nur zwei stabile Zustände gibt, Biofilm bildend versus planktonisch, in denen deutlich unterschiedliche Subnetzwerke angeschaltet sind. Überprüfungen anhand von Gen-Expressions-Daten bestätigten dies. Die Netzwerkstabilität wurde zuerst an Hand von bestehendem Wissen und Literatur getestet. Zudem stimmte die vorhergesagte Aktivität der Knoten in verschiedenen in silico Knock-out Stämmen sehr gut mit den zugehörigen Micro-array Experimenten und Daten überein. Zusätzliche Validierungen schlossen die Expression weiterer Knoten (Northern Blots) und die Biofilm Produktion, verglichen durch Biofilm adherence assays, in verschiedenen Knock-out Stämmen mit ein. Das Modell spiegelt zuverlässig das Verhalten von QS-Signal Mutanten wieder. Das integrierte Modell erlaubt auch Vorhersagen von diversen anderen Netzwerk Mutationen und wird durch experimentelle Daten unterschiedlicher Stämme gestützt. Außerdem zeigen die gut vernetzten Hubproteine im Detail auf, wie die Verarbeitung unterschiedlicher Eingangssignale durch das QS-Netzwerk erreicht wird. Sowohl für in silico als auch für in vitro Experimente konnte gezeigt werden, dass der sae-Locus auch einen zentralen Modulator der Biofilm Produktion darstellt, sae Knock-out Stämme zeigten stärkere Biofilme. Der Wildtyp Phänotyp wurde durch sae Komplementierung wiederhergestellt. Um die Art und Weise, mit der sae Einfluss auf die Biofilm Bildung nimmt, aufzuklären wurde das Netzwerk genutzt und Venn-Diagramme angefertigt, welche Knoten aufzeigten, die durch sae reguliert- und in Biofilmen verändert sind. In den Venn-Diagrammen wurden Nucleasen und extrazelluläre Proteine als vielversprechende Knoten gefunden. Das Netzwerk zeigte, dass DNAse von großer Bedeutung ist. Deswegen wurde qualitativ die, durch unterschiedliche SA Mutanten produzierte, DNAse-Menge gemessen, es wurde versucht den Biofilm mit vergleichbaren DNAse-Mengen aufzulösen und die Konzentration von Nukleinsäuren, Proteinen und Polysacchariden wurde in Biofilmen unterschiedlicher SA Mutanten gemessen. Aufgrund seiner sorgfältigen Überprüfung stellt das Netzwerk-Modell ein mächtiges Werkzeug zur Untersuchung von QS und Biofilm Bildung in SA dar, erfolgreiche Vorhersagen über das Verhalten unterschiedlicher Knock-out Mutanten, QS Signale und Biofilm Bildung eingeschlossen. Dies beinhaltet Prognosen für das Verhalten von MRSA Stämmen und Mutanten. Zentrale regulatorische Mutationskombinationen (agr–, sae–, sae–/agr–, sigB+, sigB+/sae–) wurden direkt im Model aber auch in Experimenten getestet. Hohe Konektivität war ein guter Anhaltspunkt, um Hauptregulatoren zu identifizieren, deren Verhalten in vitro und im Modell untersucht wurde. Zusammen unterstützen beide Beweisführungen im Besonderen eine präzise regulatorische Rolle von sae und agr in Bezug auf Biofilm Unterdrückung und/oder SA Ausbreitung. Mit der Untersuchung der Zusammensetzung von Biofilmen unterschiedlicher Mutanten, ebenso wie mit der Untersuchung der Reaktionskaskade die sae mit der Biofilm Bildungsfähigkeit von SA verbindet und auch dem Überprüfen der Annahme, dass Nukleasen eine bedeutende Rolle hierin spielen könnten, wurden erste Schritte unternommen, um regulatoische Interaktionen zwischen sae und Biofilmen zu belegen und zu untersuchen. Des Weiteren wurden Unterschiede in Biofilmen verschiedener mutierter SA Stämme gefunden, die uns voraussichtlich zu einem neuem Verständnis von Biofilmen und damit zu Wissen führen, wie ihre Eigenschaften reguliert, bekämpft und genutzt werden können. KW - Staphylococcus aureus KW - Biofilm KW - Simulation KW - Staphylococcus aureus KW - Quorum-Sensing KW - Simulation KW - Biofilm KW - sae KW - agr KW - sar KW - DNAse Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-92189 ER - TY - THES A1 - Backhaus, Birte T1 - Können mit Virtual-Reality-Simulationstraining die manuellen Fertigkeiten interventioneller Kardiologen verbessert werden? T1 - Does training with virtual-reality-simulation improve manual skills of interventional cardiologists? N2 - Durch Fortschritte in der Technologie haben interventionelle Eingriffe am Herzen in den letzten Jahrzehnten einen herausragenden Stellenwert entwickelt und zu einer Reduktion von aufwendigen Operationen am Herzen geführt. Die Ausbildung im Herzkatheterlabor, die nach dem konservativen „appreticeship-model“ erfolgt, gerät in Anbetracht der sinkenden finanziellen Mittel, Zeitmangel und der ethischen Fragen bezüglich Patientensicherheit immer mehr in Diskussion. Die Entwicklung der Virtual-Reality-Simulatoren für Kathetereingriffe bietet hier durch die Realitätsnähe einen Ansatzpunkt für die Möglichkeit eines individuell angepassten, repetitiven Trainings ohne die Gefährdung eines Patienten. Standardsituationen als auch seltene Komplikationen können nachgestellt werden. Diese Studie weist nach, dass Training an den Virtual-Reality-Simulatoren CATHI und Immersion zu einer Risikoreduktioin bei der Durchführung einer perkutanen Coronarintervention führt. Zur Untersuchung der Effekte von Virtual-Reality-Training auf die Performance einer perkutanen Coronarintervention wurde an der medizinischen Klinik Wuerzburg eine kontrolliert-radnomisierte Studie mit 33 Anfängern in der interventionellen Kardiologie durchgeführt. 16 Teilnehmer (Simulationsgruppe) erhielten ein intensives acht-stuendiges Simulationstraining an zwei verschiedenen Virtual-Reality-Simulatoren (CATHI und Immersion), 17 Teilnehmer bildeten die Kontrollgruppe, die den konservativen Ausbildungsgang repräsentierte und kein Simulationstraining erhielt. Alle Teilnehmer mussten in Form einer Prä- und Postevaluation unter realitätsnahen Umständen im Herzkatheterlabor der Uniklinik Würzburg innerhalb von 30 Minuten eine perkutane Coronarintervention an einem pulsatilen Herzkreislaufmodell aus Silikon (CoroSim) eigenständig vornehmen. Dabei musste eine an einer Aufteilung lokalisierte hochgradige Stenose ohne Abgänge mit einer Länge von 10mm und einem Gefäßdurchmesser von 4mm eröffnet werden. Die Ergebnisse zeigten für die Präevaluation keine gruppenspezifischen Unterschiede. Nach dem Simulationstraining zeigte sich eine signifikante Verbesserung der Simulationsgruppe bei der Risikominimierung in Bezug auf Sicherheit bei der Anwendung des Führungskatheters, des Koronardrahts, des Ballon/Stents und bei der KM-Injektion, während sich die Kontrollgruppe in diesen Punkten nicht verbessern konnte. Die aktuelle Studie zeigt, dass Training an den Virtual-Reality-Simulatoren, als Ergänzung zur herkömmlichen Ausbildung, ein hohes Potential für die Optimierung von interventionellen Herzkathetereingriffen verfügt. N2 - Annually more than 800.000 diagnostic procedures and 300.000 percutaneous coronary interventions are performed in Germany. The need of interventional cardiologists is growing continuously. The education is following the "appranticeship-model" which means that trainees arrange procedures with the guidance of an experienced teacher. But this way of education is exposed to several problems like personnel and financial restrictions as well as ethical criticism. The development of realistic virtual-reality-simulation-systems could be a possible solution for this dilemma. It provides repetitive, individual, riskfree training of standard and also of rare situations. In the following study the effect of virtual-reality-training has been analyzed in a randomised controlled trial at the university hospital of Wuerzburg. The study was performed with the two simulation systems CATHI and Immersion and 33 participants, who who have been beginners in interventional cardiology. 16 cardiologists were given 8 hours of intensive training at both simulation systems (=simulation-group). 17 participants representated the conventional education without receiving simulation-training (=control-group). All particpants completed an pre- and postevaluation. At the beginning no differences between the groups could be documentated. After the virtual-reality-training the simulation-group could significantly improve the risk awareness in catheter-/ balloon- and stent-handling during a percutaneous coronarintervention. The results prove that virtual-reality-simulation is a valuable tool to improve risk awareness in interventional cardiology in addition to the conventional education. KW - Virtuelle Realitaet KW - Simulation KW - Kardiologie KW - Herzkatheter KW - virtual-reality KW - simulation KW - cardiology Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-72654 ER - TY - THES A1 - Barthel, Laura T1 - Vierschrittmethode nach Peyton versus „See one, do one“: eine randomisiert-kontrollierte Studie zum Erlernen der Naht von Platzwunden an Lippe und Augenbraue T1 - Comparison of Peyton's four step approach to the teaching method "See one, do one": a randomized controlled trial for the treatment of lip and eyebrow wounds N2 - Einleitung Platzwunden im Gesicht machen nahezu ein Drittel aller Platzwunden in der Notaufnahme aus (Singer et al., 2006). Diese werden zum Großteil nicht von Plastischen Chirurginnen und Chirurgen versorgt (Lee, Cho, et al., 2015), weshalb eine gute Grundausbildung junger Ärztinnen und Ärzte unabdingbar ist. Eine gängige Lehrmethode zur Vermittlung praktischer Fertigkeiten ist der konventionelle Ansatz „see one, do one“, welcher oft als unzureichend bewertet wird (Zahiri et al., 2015). Hingegen sind für die Vierschrittmethode nach Peyton zahlreiche Vorzüge dokumentiert (Herrmann-Werner et al., 2013; Krautter et al., 2015). Anhand eines eigens entwickelten Gesichtsmodells aus Silikon wurden beide Lehrmethoden im Hinblick auf ihren Lernerfolg bezüglich kommunikativer Fähigkeiten und handwerklicher Fertigkeiten, die Verankerung im Langzeitgedächtnis, die Dauer des Eingriffs sowie eine korrekte prozedurale Abfolge beim Versorgen von Gesichtswunden überprüft. Material und Methoden Zum Zeitpunkt der Teilnahme an der Studie befanden sich die Studierenden (n=20 bei einer Power von 0,8) entweder im Praktischen Jahr (11./12. Fachsemester) (n=10) oder im Blockpraktikum (10. Fachsemester) (n=10). Ausschlusskriterium war eine bereits selbstständig durchgeführte ambulante Naht im Gesichtsbereich. Die Kohorte der konventionellen Methode als Kontrollgruppe (KG) und die der Peyton Methode als Experimentalgruppe (EG) wurden mittels Video-Tutorial angeleitet, bevor sie die Naht in Lokalanästhesie am Gesichtsmodell durchführten. Nach 7 Tagen erfolgte die Operation ein zweites Mal ohne Anleitung. Die Operationen wurden gefilmt und durch drei verblindete Bewertende anhand der Skalen „Instrumentengebrauch“, „Umgang mit dem Gewebe“, „Knappe Versäumnisse und Fehler“ sowie „Qualität des Endergebnisses“ des Competency Assessment Tools (CAT) bewertet (1 = Anfänger/in bis 4 = Erfahrene/r), welche wiederum in 12 Items eingeteilt waren (Miskovic et al., 2013). Die Berechnung der Unterschiede bezog handwerkliche Fertigkeiten, die Verankerung im Langzeitgedächtnis, die Kommunikation sowie Unterschiede zwischen den Ausbildungsständen ein. Zusätzlich wurde das Einhalten des korrekten prozeduralen Ablaufes überprüft, sowie die Zeit zur Durchführung gemessen und zwischen den Lehrmethoden verglichen. Zur Validierung des CAT wurde die Reliabilität der Skalen und die Interrater-Reliabilität berechnet. Ergebnisse Sowohl die Reliabilität der Skalen als auch die Interrater-Reliabilität zeigten zufriedenstellende Ergebnisse. Bezüglich der Unterschiede auf Skalenebene zeigte die EG im Vergleich zur KG signifikant bessere Ergebnisse für die Mittelwerte aller vier Skalen (p < 0,05). Diese Ergebnisse bestätigten sich auch bei der Analyse einzelner Items. Bei Betrachtung der Unterschiede zwischen den OP Tagen zeigte sich bei der EG ein signifikanter Zuwachs der Leistung (p < 0,05). Bezüglich der kommunikativen Fähigkeiten berechnete sich für eines der beiden zugehörigen Items eine Überlegenheit der EG (p < 0,05). Bei detaillierter Betrachtung des Ausbildungsstandes ließ sich ein insgesamt besseres Abschneiden der Studierenden im Praktischen Jahr verglichen zu jenen im Blockpraktikum feststellen. Außerdem hielt die Kohorte der EG signifikant häufiger eine korrekte prozedurale Abfolge ein (p < 0,05) und benötigte deskriptiv weniger Zeit zur Durchführung der Prozedur. Fazit Die Peyton-Methode zeigte sich der konventionellen Methode im Hinblick auf das Erlernen einer Gesichtsnaht sowohl in der Qualität als auch in Bezug auf das Durchführen der Schritte in korrekter Reihenfolge überlegen. Zudem gibt es Evidenz, dass die Peyton Methode eine Verankerung des Gelernten im Langzeitgedächtnis fördert und die Durchführungsgeschwindigkeit erhöht. Die Ergebnisse sprechen somit für den Einsatz der Peyton Methode beim Erlernen komplexer chirurgischer Fähigkeiten. Ausblick Zukünftig könnte die feste Integration der Peyton Methode in das Curriculum die ärztliche Ausbildung verbessern. Insbesondere im Hinblick auf nachhaltiges und (Zeit-) effizientes Lernen besteht weiterer Forschungsbedarf. Außerdem wären weitere Untersuchungen zum Erlernen von Kommunikation mittels Vierschrittmethode nach Peyton wünschenswert. N2 - Introduction The incidence of facial laceration approximately is one third of all lacerations treated in Emergency Departments (Singer et al., 2006). The majority of these wounds are not treated by plastic surgeons (Lee, Cho, et al., 2015). Subsequently fundamental training for young doctors is very important. A common teaching method for procedural skills is the traditional „see one, do one“ approach which is regarded rather inefficient (Zahiri et al., 2015). On the other hand many studies have demonstrated benefits of Peyton‘s four step approach (Herrmann-Werner et al., 2013; Krautter et al., 2015). In this study, the two teaching methods were compared. Outcome variables were learning success for communicational and procedural skills, embedment in long-term memory and a correct procedural order in treatment of facial wounds. Furthermore, the time needed to treat the “patient” was measured. Surgery was performed employing a novel silicone face model. Materials and methods At the time of participation, students (n = 20, power 0,8) were either attending the 11th/12th semester (n = 10) or the 10th semester (n = 10). An autonomously performed ambulant surgery of facial wounds was defined as an exclusion criterion for participation. The traditional teaching method served as control group (CG), Peyton’s four step approach as experimental group (EG). Prior to performing the ambulant surgery under local anesthesia using the face model, both groups were instructed by video tutorials. Surgery was repeated 7 days later without any instruction. Every performance was video recorded and evaluated by three blinded raters. The evaluation criteria (scales) using the Competency Assessment Tool (CAT) were: „instrument use“, „tissue handling“, „near misses and errors“ and „end-product quality“, rated from 1 = novice to 4 = proficient (Miskovic et al., 2013). Each scale consisted of three items. Scales’ psychometric quality was investigated by means of descriptives, reliability and interrater reliability. CG and EG were compared regarding procedural and communicational skills, embedment in long-term memory, as well as the time needed for treatment and a correct procedural order. The impact of educational levels was considered as well. Results Reliability of scales as well as interrater reliability showed satisfactory results. Significant differences in mean rating were found in favor of the EG for all four evaluation criteria (p < 0,05). This result was confirmed when analysis was forth carried on item level. The EG improved their procedural as well as communicational skills significantly from day 1 to day 2 (p < 0,05). Stratified by educational level, students attending the 11th/12th semester showed superior performance to those attending the 10th semester. In addition, participants of the EG followed the right procedural order significantly more often than the CG (p < 0,05) and improved regarding the time required for treatment. Conclusion Peyton’s four step approach is superior to the traditional approach in performing a facial suture concerning quality as well as following the correct procedural order. Furthermore, this study shows evidence that Peyton’s four step approach helps embedding the learning success in long-term memory. It may also lead to a faster treatment of patients. Thus Peyton’s four step approach is recommendable for teaching complex surgical skills Perspective Integration of Peyton’s four step approach in the curriculum could improve medical education. Further research is particularly required to scrutinize the effect of Peyton’s four step approach on long-term and (time) efficient learning. Studies investigating the effect of Peyton’s four step approach on learning communicational skills are also considered desirable. KW - Simulation KW - Peyton-Methode KW - Medizinische Lehre KW - Kommunikation KW - Platzwunden KW - Chirurgie Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-225797 ER - TY - THES A1 - Coburger, Jan T1 - Evaluierung des PCI-Simulators CathI T1 - Evaluation of the PCI-Simulator CathI N2 - Die Ausbildung im Herzkatheterlabor hat sich seit Etablierung der interventionellen Kardiologie kaum verändert. Wie auch in anderen Bereichen der Medizin steht schon seit einiger Zeit die Frage nach der ethischen Vertretbarkeit des „see one, do one, teach one“ Prinzips im Raum. Das Dilemma zwischen der Sicherheit des Patienten und einer adäquaten Ausbildung der Assistenten führte schon früh zum Ruf nach Simulationssystemen für die Medizin. Heute existieren Geräte, die die technischen Voraussetzungen erfüllen, um die komplizierte menschliche Physiologie und Pathophysiologie zu simulieren. Eine gründliche wissenschaftliche Evaluation dieser Systeme ist die notwendige Basis, um die Ausbildung in der Medizin zu verbessern. Zur Validation des PCI-Simulators CathI wurde an der Medizinischen Klinik der Universität Würzburg eine formative und summative Evaluation durchgeführt. Als erster Schritt wurden die Lerneffekte zweier randomisierter Laiengruppen, einer am CathI-System (n=7) und einer an einem Computerprogramm trainierten Gruppe(n=6) während eines viertägigen Trainings untersucht. Nach Ablauf des Trainings wurden die Ergebnisse zur Überprüfung der konkurrenten Validität und der Eignung des Systems als Assessment-Tool, mit einer Expertengruppe verglichen. Als letzten Schritt testete man die am CathI-System erworbenen interventionellen Fähigkeiten im Herzkatheterlabor. Hierbei wurde eine am CathI-System trainierte (n=6), mit einer computerbasiert trainierten Gruppe (n=6) während einer Intervention an einem pulsatilen röntgenfähigen Herzmodell verglichen. Die Evaluation erfolgte an Hand objektiver Standardparameter und mittels eines Fähigkeiten-Scores. Als eines der wichtigsten Ergebnisse konnte gezeigt werden, dass Probanden durch Training am CathI-Simulator besser auf kardiologische Grundfähigkeiten vorbereitet werden als eine vergleichbare Gruppe durch Ausbildung an einer Computersimulation. Das CathI-System führt zu einem risikoärmeren Verhalten im Herzkatheterlabor. Man kann daraus folgern, dass das CathI-System eine überlegene Ausbildungsmöglichkeit für die Vorbereitung auf eine Intervention am Patienten darstellt. Der CathI-Simulator ermöglicht es Experten, basierend auf ihren Fähigkeiten in der interventionellen Kardiologie auch die Simulation mit hoher Qualität zu absolvieren. Es kann konkurrente Validität für das Trainingsgerät angenommen werden. Dem Simulationssystem CathI ist es möglich, die Expertise des Anwenders realitätsnah einzuschätzen. Es kann spezifisch kognitive und motorische Fähigkeiten testen. Das Simulationssystem CathI erwies sich als effektives Werkzeug zur Schulung der diagnostischen Koronarangiographie und der PCI. N2 - Background: The virtual performance of carotid stenting became an integral part of the resident training, which was just recently recognised by the Federal Drug Administration in the United States. It just a matter of time until this requirements are extended to the coronary angiography and the PTCA. Even more important is a sufficiently validated simulation system as a base for excellent and continuous education. The purpose of this study therefore was to evaluate the construct and concurrent validity of the CathI PCI Simulator. Methods: For evaluating the concurrent validity a novice group of 7 volunteering final year medical students was trained for 4 consecutive days performing three standardised procedures each day. On day 4 the performance of the novices was compared with an experts group, consisting of 6 experienced interventionists. The construct validity was evaluated by assessing the intervention of two novice groups of 5 participants each on a pulsating heard model. Each of them received a similar training schedule of 4 days. One Group was trained on the CathI-System (CATHI) the other performed the same tasks using a standard computer interface (PC). Their performance was evaluated using a skill-score as well as by assessing objective parameters like interventional or fluoroscopy time. Results: The experts showed significant superiority for the overall procedure time with the highest difference for the diagnostic time. Significantly less contrast agent was used by the experts, while there was no difference for the usage of fluoroscopy and the frequency of “perforating” the end of a vessel. The comparison of the two novice groups in the cardiac suite showed a significant higher score of the CATHI group. With regard to the single components of the score there was significantly handling skill and a better risk awareness of the CATHI group. The assessed objective parameters showed no significant difference. Conclusions: We could show concurrent and construct validity of the CathI Simulator. Traing with the CathI-Simulator teaches the basic skills for the PCI and leads to a risk reduction in the cardiac-suite. It is an adequate tool to teach the PCI and to assess the level of experience of its user. KW - CathI KW - Simulation KW - Evaluation KW - Herzkatheter KW - PCI KW - CathI KW - Simulation KW - Evaluation KW - PCI KW - cardiac intervention Y1 - 2005 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-18753 ER - TY - THES A1 - Fehler, Manuel T1 - Kalibrierung Agenten-basierter Simulationen T1 - Calibration of Agent-based Simulations N2 - In der vorliegenden Arbeit wird das Problem der Kalibrierung Agenten-basierter Simulationen (ABS) behandelt, also das Problem, die Parameterwerte eines Agenten-basierten Simulationsmodells so einzustellen, dass valides Simulationsverhalten erreicht wird. Das Kalibrierungsproblem für Simulationen an sich ist nicht neu und ist im Rahmen klassischer Simulationsparadigmen, wie z.B. der Makro-Simulation, fester Bestandteil der Forschung. Im Vergleich zu den dort betrachteten Kalibrierungsproblemen zeichnet sich das Kalibrierungsproblem für ABS jedoch durch eine Reihe zusätzlicher Herausforderungen aus, welche die direkte Anwendung existierender Kalibrierungsverfahren in begrenzter Zeit erschweren, bzw. nicht mehr sinnvoll zulassen. Die Lösung dieser Probleme steht im Zentrum dieser Dissertation: Das Ziel besteht darin, den Nutzer bei der Kalibrierung von ABS auf der Basis von unzureichenden, potentiell fehlerhaften Daten und Wissen zu unterstützen. Dabei sollen drei Hauptprobleme gelöst werden: 1)Vereinfachung der Kalibrierung großer Agenten-Parametermengen auf der Mikro- Ebene in Agenten-basierten Simulationen durch Ausnutzung der spezifischen Struktur von ABS (nämlich dem Aufbau aus einer Menge von Agentenmodellen). 2)Kalibrierung Agenten-basierter Simulationen, so dass auf allen relevanten Beobachtungsebenen valides Simulationsverhalten erzeugt wird (mindestens Mikro und Makro-Ebene). Als erschwerende Randbedingung muss die Kalibrierung unter der Voraussetzung einer Makro-Mikro-Wissenslücke durchgeführt werden. 3)Kalibrierung Agenten-basierter Simulationen auf der Mikro-Ebene unter der Voraussetzung, dass zur Kalibrierung einzelner Agentenmodelle nicht ausreichend und potentiell verfälschte Daten zur Verhaltensvalidierung zur Verfügung stehen. Hierzu wird in dieser Arbeit das sogenannte Makro-Mikro-Verfahren zur Kalibrierung von Agenten-basierten Simulationen entwickelt. Das Verfahren besteht aus einem Basisverfahren, das im Verlauf der Arbeit um verschiedene Zusatzverfahren erweitert wird. Das Makro-Mikro-Verfahren und seine Erweiterungen sollen dazu dienen, die Modellkalibrierung trotz stark verrauschter Daten und eingeschränktem Wissen über die Wirkungszusammenhänge im Originalsystem geeignet zu ermöglichen und dabei den Kalibrierungsprozess zu beschleunigen: 1) Makro-Mikro-Kalibrierungsverfahren: Das in dieser Arbeit entwickelte Makro- Mikro-Verfahren unterstützt den Nutzer durch eine kombinierte Kalibrierung auf der Mikro- und der Makro-Beobachtungsebene, die gegebenenfalls durch Zwischenebenen erweitert werden kann. Der Grundgedanke des Verfahrens besteht darin, das Kalibrierungsproblem in eines auf aggregierter Verhaltensebene und eines auf der Ebene des Mikro-Agentenverhaltens aufzuteilen. Auf der Makro-Ebene wird nach validen idealen aggregierten Verhaltensmodellen (IVM) der Agenten gesucht. Auf der Mikro-Ebene wird versucht die individuellen Modelle der Agenten auf Basis des erwünschten Gesamtverhaltens und der ermittelten IVM so zu kalibrieren, das insgesamt Simulationsverhalten entsteht, das sowohl auf Mikro- als auch auf Makro-Ebene valide ist. 2) Erweiterung 1: Robuste Kalibrierung: Um den Umgang mit potentiell verrauschten Validierungskriterien (d.h. mit verrauschten Daten über ein Originalsystem, auf denen die Validierungskriterien der Simulation beruhen) und Modellteilen während der Kalibrierung von ABS zu ermöglichen, wird eine robuste Kalibrierungstechnik zur Anwendung im Makro-Mikro-Verfahren entwickelt. 3) Erweiterung 2: Kalibrierung mit Heterogenitätssuche: Als zweite Erweiterung des Makro-Mikro-Verfahrens wird ein Verfahren entwickelt, das das Problem des unklaren Detaillierungsgrades von ABS auf der Ebene der Parameterwerte adressiert. Prinzipiell kann zwar jeder Agent unterschiedliche Parameterwerte verwenden, obwohl eine geringere Heterogenität zur Erzeugung validen Verhaltens ausreichend wäre. Die entwickelte Erweiterung versucht, während der Kalibrierung, eine geeignete Heterogenitätsausprägung für die Parameterwerte der Agenten zu ermitteln. Unter einer Heterogenitätsausprägung wird dabei eine Einteilung der simulierten Agenten in Gruppen mit jeweils gleichen Parameterwerten verstanden. Die Heterogenitätssuche dient dazu, einen Kompromiss zu finden zwischen der Notwendigkeit, sehr große Parametersuchräume durchsuchen zu müssen und gleichzeitig den Suchraum so klein wie möglich halten zu wollen. N2 - In this doctoral thesis the problem of calibrating agent-based simulations (ABS) is treated, i.e. the problem to adjust the parameter values of an agent-based simulation model to achieve valid simulation behavior. The calibration problem for simulations per se is not new and is an active part of research in the context of traditional simulation paradigms, such as the macro-simulation. Compared to the problems considered there the problems for ABS can be distinguished by several additional challenges that complicate the direct application of existing calibration procedures in a limited time, or challenges that do not allow applying existing procedures at all. The goal of this thesis is to assist the user in the calibration of ABS on the basis of incomplete and potentially noisy data or knowledge and in dealing with large amounts of parameter values if an ABS with many individual agents needs to be calibrated. The thesis covers the following three main topics: 1) Simplification of the calibration of many agent parameter values on the micro-level in ABS. This is done by exploiting the specific structure of ABS (i.e. that an ABS constitutes of a lattice of agent models). 2) Calibration of agent-based simulations, so that valid simulation behavior is created on all relevant behavior observation levels (at least micro- and macro-level). This needs to be possible without having full knowledge about how the macro observation level behavior constitutes from the modeled micro behavior. 3) Calibration of agent-based simulations on the micro-level under the constraint that only partial and potentially noisy data for testing and validation of single individual agent models is available. To achieve this the so-called “Macro-Micro Procedure” for calibrating agent-based simulations is developed. The approach consists of a basic procedure that is extended in the course of the work with various additional techniques: 1)Macro-Micro-Calibration Procedure: The Macro-Micro Procedure supports the user by applying a combined calibration on the micro and the macro-observation level, which can optionally be expanded using additional intermediate levels. The basic idea of the procedure consists of separating the calibration problem into one at the aggregate behavior level and one at the level of the micro-agent behavior. At the macro level, valid simulation behavior for ideal aggregate behavior models (IAM) of agents is being determined. At the micro level, the goal is to calibrate the models of the individual agents based on the desired overall behavior and the determined IAM from the macro level. Upon completion the simulation behavior created shall be valid both at the micro and also at a macro level. 2)Extension 1: Robust Calibration: In order to deal with potentially noisy validation criteria and model parts (i.e. with noisy data about the original system from which the validation criteria of the simulation are created) a robust calibration technique is developed that can be used as part of the Macro-Micro-Procedure. 3)Extension 2: Calibration with heterogeneity search: The second extension of the Macro-Micro-Procedure addresses the problem of an unclear level of detail on the level of the parameter values. Theoretically it is possible to use different parameter values for each individual simulated agent which leads to a huge parameter search space. Often it is however sufficient to use a lower heterogeneity in the parameter values to generate valid behavior which would allow calibration in a smaller search space. The developed extension attempts to determine such a suitable heterogeneity manifestation for the parameter values of the agents as part of the calibration process itself. A heterogeneity manifestation is performed by dividing the agents into groups of agents with homogenous parameter values. The developed heterogeneity search offers a compromise between the necessity of having to search very large parameter search spaces and the goal to keep the search space as small as possible during the calibration. KW - Computersimulation KW - Mehrebenensimulation KW - Autonomer Agent KW - Agenten-basierte Simulation KW - Multiagentensimulation KW - Parameterkalibrierung KW - Hierarchische Simulation KW - Simulation KW - Agent KW - Calibration KW - Optimization KW - Agent-based Simulation KW - Multi-Agent-Simulation Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-64762 ER - TY - THES A1 - Fischer, Mathias T1 - Transient Phenomena and Ionic Kinetics in Hybrid Metal Halide Perovskite Solar Cells T1 - Transiente Phänomene und ionische Kinetik in Hybrid-Metallhalogenid- Perowskit-Solarzellen N2 - The fact that photovoltaics is a key technology for climate-neutral energy production can be taken as a given. The question to what extent perovskite will be used for photovoltaic technologies has not yet been fully answered. From a photophysical point of view, however, it has the potential to make a useful contribution to the energy sector. However, it remains to be seen whether perovskite-based modules will be able to compete with established technologies in terms of durability and cost efficiency. The additional aspect of ionic migration poses an additional challenge. In the present work, primarily the interaction between ionic redistribution, capacitive properties and recombination dynamics was investigated. This was done using impedance spectroscopy, OCVD and IV characteristics as well as extensive numerical drift-diffusion simulations. The combination of experimental and numerical methods proved to be very fruitful. A suitable model for the description of solar cells with respect to mobile ions was introduced in chapter 4.4. The formal mathematical description of the model was transferred by a non-dimensionalization and suitable numerically solvable form. The implementation took place in the Julia language. By intelligent use of structural properties of the sparse systems of equations, automatic differentiation and the use of efficient integration methods, the simulation tool is not only remarkably fast in finding the solution, but also scales quasi-linearly with the grid resolution. The software package was released under an open source license. In conventional semiconductor diodes, capacitance measurements are often used to determine the space charge density. In the first experimental chapter 5, it is shown that although this is also possible for the ionic migration present in perovskites, it cannot be directly understood as doping related, since the space charge distribution strongly depends on the preconditions and can be manipulated by an externally applied voltage. The exact form of this behavior depends on the perovskite composition. This shows, among other things, that experimental results can only be interpreted within the framework of conventional semiconductors to a very limited extent. Nevertheless, the built-in 99 potential of the solar cell can be determined if the experiments are carried out properly. A statement concerning the type and charge of the mobile ions is not possible without further effort, while their number can be determined. The simulations were applied to experimental data in chapter 6. Thus, it could be shown that mobile ions make a significant contribution to the OCVD of perovskite solar cells. j-V characteristics and OCVD transients measured as a function of temperature and illumination intensities could be quantitatively modeled simultaneously using a single global set of parameters. By the simulations it was further possible to derive a simple experimental procedure to determine the concentration and the diffusivity of the mobile ions. The possibility of describing different experiments in a uniform temperaturedependent manner strongly supports the model of mobile ions in perovskites. In summary, this work has made an important contribution to the elucidation of ionic contributions to the (photo)electrical properties of perovskite solar cells. Established experimental techniques for conventional semiconductors have been reinterpreted with respect to ionic mass transport and new methods have been proposed to draw conclusions on the properties for ionic transport. As a result, the published simulation tools can be used for a number of further studies. N2 - Dass die Photovoltaik eine Schlüsseltechnologie für die klimaneutrale Energieerzeu- gung ist, kann als gegeben angesehen werden. Die Frage, inwieweit Perowskit für Photovoltaik-Technologien eingesetzt werden wird, ist noch nicht abschließend geklärt. Aus photophysikalischer Sicht hat es jedoch das Potenzial, einen sinnvollen Beitrag im Energiesektor zu leisten. Es bleibt jedoch abzuwarten, ob Module auf Perowskitbasis in Bezug auf Haltbarkeit und Kosteneffizienz mit den etablierten Technologien konkurrieren können. Der zusätzliche Aspekt der Ionenmigration stellt eine weitere Herausforderung im Bezug zu Degeneration und MPP-tracking dar. In der vorliegenden Arbeit wurde vor allem die Wechselwirkung zwischen Ionenumverteilung, kapazitiven Eigenschaften und Rekombinationsdynamik untersucht. Dazu wurden Impedanzspektroskopie, OCVD- und IV-Kennlinien sowie umfangreiche numerische Drift-Diffusions-Simulationen eingesetzt. Die Kombination von experimentellen und numerischen Methoden erwies sich als sehr fruchtbar. Ein geeignetes Modell zur Beschreibung von Solarzellen im Hinblick auf mobile Ionen wurde in Kapitel 4.4 vorgestellt. Die formale mathematische Beschreibung des Modells wurde durch eine Nichtdimensionalisierung und geeignete numerisch lösbare Form umgesetzt. Die Implementierung erfolgte in der Sprache Julia. Durch intelligente Ausnutzung struktureller Eigenschaften der dünn besetzten Gleichungssysteme, automatische Differenzierung und den Einsatz effizienter Integrationsmethoden ist das Simulationswerkzeug nicht nur bemerkenswert schnell in der Lösungsfindung, sondern skaliert auch quasi-linear mit der Gitterauflösung. Das Softwarepaket wurde unter einer Open- Source-Lizenz veröffentlicht. Bei herkömmlichen Halbleiterdioden werden häufig Kapazitätsmessungen zur Bestim- mung der Raumladungsdichte verwendet. Im ersten experimentellen Kapitel 5 wird gezeigt, dass dies zwar auch für die in Perowskiten vorhandene Ionenwanderung möglich ist, aber nicht direkt als dopingbedingt verstanden werden kann, da die Raum- ladungsverteilung stark von den Voraussetzungen abhängt und durch eine extern angelegte Spannung manipuliert werden kann. Die genaue Form dieses Verhaltens hängt von der Zusammensetzung des Perowskits ab. Dies zeigt u.a., dass experimentelle Ergebnisse nur sehr eingeschränkt im Rahmen konventioneller Halbleiter interpretiert werden können. Dennoch lässt sich das eingebaute Potenzial der Solarzelle bestimmen, wenn die Experimente richtig durchgeführt werden. Eine Aussage über die Art und Ladung der beweglichen Ionen ist ohne weiteren Aufwand nicht möglich, während ihre Anzahl bestimmt werden kann. Die Simulationen wurden in Kapitel 6 auf experimentelle Daten angewandt. So konnte gezeigt werden, dass mobile Ionen einen wesentlichen Beitrag zur OCVD von Perowskit-Solarzellen leisten. j-V -Charakteristika und OCVD-Transienten, die in Abhängigkeit von Temperatur und Beleuchtungsintensität gemessen wurden, konnten mit einem einzigen globalen Parametersatz gleichzeitig quantitativ modelliert werden. Durch die Simulationen war es ferner möglich, ein einfaches experimentelles Verfahren zur Bestim- mung der Konzentration und des Diffusionsvermögens der mobilen Ionen abzuleiten. Die Möglichkeit, verschiedene Experimente einheitlich und temperaturabhängig zu beschreiben, unterstützt das Modell der mobilen Ionen in Perowskiten sehr. Zusammenfassend kann gesagt werden, dass diese Arbeit einen wichtigen Beitrag zur Aufklärung der ionischen Beiträge zu den (photo)elektrischen Eigenschaften von Perowskit-Solarzellen geleistet hat. Etablierte experimentelle Techniken für konventionelle Halbleiter wurden im Hinblick auf den ionischen Massentransport neu interpretiert, und es wurden neue Methoden vorgeschlagen, um Rückschlüsse auf die für den ionischen Transport charakteristischen Eigenschaften zu ziehen. Das Ergebnis ist, dass die veröffentlichten Simulationswerkzeuge für eine Reihe weiterer Studien genutzt werden können. KW - Simulation KW - Perowskit KW - Dünnschichtsolarzelle KW - Fotovoltaik KW - Drift-Diffusion KW - Photoviltaics KW - Simulation KW - Perovskite KW - Solar-Cell Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-322204 ER - TY - THES A1 - Freiwald, Matthias T1 - Therapeutisches Zielorgan Lunge : Pharmakokinetische Untersuchungen am humanen Lungenperfusionsmodell T1 - Therapeutic target site lung: Pharmacokinetic investigations at the isolated reperfused and ventilated human lung N2 - Die humane Lunge kann bei der Pharmakotherapie einer Erkrankung entweder als betroffenes Organ Ziel eines verabreichten Arzneistoffes sein oder aber auch als Portal für diesen in die systemische Zirkulation fungieren. Wird ein Arzneistoff inhaliert, ist für dessen Nutzen-Risiko-Profil von zentraler Bedeutung, in welchem Ausmaß und mit welcher Geschwindigkeit dieser resorbiert und anschließend in die systemische Zirkulation umverteilt wird. Wenn bei der Behandlung einer Lungenerkrankung dagegen ein Arzneistoff z.B. nach peroraler Gabe erst in der systemischen Zirkulation anflutet, müssen ausreichend hohe Wirkstoffkonzentrationen in den betroffenen Gewebearealen sichergestellt werden. Ziel der vorliegenden Arbeit war es daher, Möglichkeiten zu finden, diese beiden Vorgänge in vitro möglichst realitätsnah messen zu können. Für die Simulation der pulmonalen Absorption nach inhalativer Applikation eines Arzneistoffs diente Beclomethasondipropionat (BDP), freigesetzt aus den handelsüblichen FCKW-freien Dosieraerosolen Sanasthmax® und Ventolair®, als Modellsubstanz. Es wurde zunächst ein einfaches Dialysemodell als Screeningverfahren entwickelt. Hier wurden BDP-Partikel unter Verwendung der beiden Dosieraerosole auf humanem Lungenhomogenat deponiert und nachfolgend die kombinierten Prozesse aus Auflösung und Umverteilung der Substanz in eine Dialyseflüssigkeit, die sich entweder aus salinem Puffer oder humanem Blutplasma zusammensetzte, untersucht. Anschließend wurde erstmals ein etabliertes humanes Lungenperfusionsmodell dahingehend modifiziert, dass eine Inhalation von BDP nach Applikation eines handelsüblichen Dosieraerosols nachgestellt werden konnte. Auf diese Weise konnte an diesem realitätsnahen Modell die initiale Phase der pulmonalen Absorption von BDP in der Perfusionsflüssigkeit verfolgt werden. Beide Modelle zeigten Unterschiede in der Auflösungs- bzw. Umverteilungskinetik von BDP in Abhängigkeit von der verwendeten Applikationsform auf. So schienen sich von Ventolair® erzeugte BDP-Partikel schneller und in größerer Menge aufzulösen als diejenige bei den Versuchen mit Sanasthmax®, was eine vermehrte Umverteilung der Substanz sowohl in die Dialyseflüssigkeit als auch Perfusionslösung zur Folge hatte. Die am Lungenperfusionsmodell beobachteten Verläufe der initialen pulmonalen Absorption von BDP nach Freisetzung aus den Dosieraerosolen Sanasthmax® oder Ventolair® korrelierten dabei sehr gut mit Daten aus einer entsprechenden Humanstudie mit gesunden Probanden. Auch standen die ermittelten Unterschiede in sinnvoller Übereinstimmung mit Untersuchungen der in den von Sanasthmax® oder Ventolair® versprühten Aerosolen enthaltenen Partikel hinsichtlich Größenverteilung, Morphologie und Lösungsverhalten in Bronchialsekret. Um die Umverteilung eines Wirkstoffs von der systemischen Zirkulation in lungenspezifisches Gewebe am humanen Lungenperfusionsmodell zu simulieren, wurden die Gewebekonzentrationen von Thalidomid (THAL) in peripherem Lungengewebe im Vergleich zu den korrespondierenden Spiegeln in einem Bronchialkarzinom erstmals mittels Mikrodialyse verfolgt. Hierzu wurde im Vorfeld für diese Substanz unter Einsatz des Komplexbildners (2 Hydroxypropyl)-beta-cyclodextrin (HPCD) ein bezüglich der Sensitivität und der zeitlichen Auflösung optimiertes Mikrodialysesystem etabliert und dessen Eigenschaften systematisch untersucht. Am Lungenperfusionsmodell wurde dann eine an klinisch relevante Plasmaspiegel angelehnte THAL-Konzentration in der Perfusionslösung vorgelegt und anschließend das Anfluten in den oben genannten Geweben mit Hilfe des entwickelten Mikrodialysesystems beobachtet. Durch Zugabe von HPCD in das Mikrodialyseperfusat konnte eine signifikante Erhöhung der Wiederfindungsrate im Dialysat (Relative Recovery) erreicht und damit ein Mikrodialysesystem etabliert werden, das neben hoher zeitlicher Auflösung eine ausreichende analytische Sensitivität für THAL aufwies. Allerdings wurden aufgrund dieses Perfusatzusatzes die Diffusionsvorgänge während der Mikrodialyse derart beeinflusst, dass übliche Methoden zur Sondenkalibrierung wie z.B. die Retrodialyse nicht mehr angewendet werden konnten, und daher in Hinblick auf die Messungen am Lungenperfusionsmodell bestehende Kalibrierverfahren modifiziert werden mussten. Bei der Untersuchung der Gewebepenetration am Lungenperfusionsmodell flutete THAL in Tumorgewebe langsamer an als in peripherem Lungengewebe, wo schnell ähnliche Konzentrationen wie in der Perfusionslösung gefunden wurden. Auch lagen die Gewebespiegel im Tumorgewebe stets unter dem ermittelten Niveau im Lungengewebe. Die erhaltenen Konzentrationsverhältnisse zwischen Perfusionslösung, peripherem Lungengewebe und Tumorgewebe deckten sich dabei mit Kenntnissen aus Humanstudien, in denen analog Plasmakonzentrationen von antineoplastischen Substanzen ebenfalls mittels Mikrodialyse in Relation zu deren Spiegeln in gesundem Gewebe und Tumorgewebe verschiedenster Ätiologie bestimmt wurden. N2 - In pharmacotherapy the human lung may either represent the therapeutic target site of an applied drug or be used as portal for systemic drug delivery. In case of inhalation of a drug the rate and extent of pulmonary drug absorption and subsequent distribution into systemic circulation is essential for the benefit-risk ratio. Otherwise, when a drug is systemically administered, e.g. by intravenous or oral route, to treat a lung disease and therefore first appears in the systemic circulation, sufficient drug concentrations have to be achieved in the affected tissue areals. Thus, the aim of this thesis was to find methods that allow to describe these two processes in vitro as close to reality as possible. Beclomethasone dipropionate (BDP) was chosen for the simulation of pulmonary drug absorption after administration of the two commercially available HFA-propelled metered dose inhalers (pMDI) Sanasthmax® and Ventolair®. Initially a simple dialysis model was established for screening tests. In this setting BDP particles were applied to human lung homogenate using those two inhalers and subsequently the combined processes of drug dissolution and distribution of the drug into dialysis fluid consisting of either saline buffer or human blood plasma were monitored. Then an established isolated reperfused und ventilated human lung setting was used to monitor the initial pulmonary absorption of BDP by measuring drug concentrations in the reperfusion fluid. For this purpose BDP particles containing aerosols delivered by commercially available pMDI for the first time were applied to an isolated reperfused human lung. Both models revealed differences in the combined processes of dissolution and distribution of BDP delivered by the two pMDI Sanasthmax® and Ventolair®. BDP particles delivered by Ventolair® apparently dissolved faster and to a greater extent than particles delivered by Sanasthmax®, resulting in an enhanced distribution both into dialysis fluid and into reperfusion fluid. The time course of initial pulmonary absorption of BDP delivered by the pMDI Sanasthmax® or Ventolair® observed at the isolated reperfused human lung exhibited high correlation with data from a corresponding clinical study with healthy volunteers. Furthermore, the obtained differences were consistent with results from investigations on the particles found in the aerosols produced by Sanasthmax® or Ventolair® regarding their size distribution, topology and dissolution behaviour in brochial fluid. To mimic the distribution of a drug from the systemic circulation into lung specific tissue employing the isolated reperfused and ventilated human lung setting, time course of tissue concentrations of thalidomide (THAL) in peripheral lung tissue in comparison with those in tumour tissue was determined for the first time by microdialysis. Firstly a microdialysis method optimised regarding sensitivity and time resolution by utilising the complexing agent (2 hydroxypropyl)-beta-cyclodextrin (HPCD) was developed and systematically evaluated. A THAL concentration derived from clinically relevant plasma concentrations was used in the reperfusion fluid and subsequently drug influx into tissue was monitored. By adding HPCD to the microdialysis perfusate a significant increase in the relative recovery was achieved enabling the establishment of a microdialysis method that exhibited high time resolution and appropriate analytical sensitivity. However, this perfusate additive strongly affected the diffusion processes during microdialysis so that common methods for microdialysis probe calibration, particularly the retrodialysis method, did not give accurate results. Therefore, a new calibration method suitable for the lung reperfusion experiments had to be explored. Tissue penetration evaluated in the lung reperfusion experiments revealed a slower distribution of THAL into tumour tissue than into peripheral lung tissue. In the latter concentrations similar to those detected in the reperfusion fluid were rapidly observed. Additionally, THAL concentrations achieved in tumour tissue were always lower than the corresponding levels in peripheral lung tissue. The resulting relationship between reperfusion fluid concentrations, concentrations in peripheral lung tissue, and concentrations in tumour tissue was highly correlated with data from clinical studies investigating the concentrations of antineoplastic agents in healthy and tumour tissue of various etiologies by microdialysis in relation to plasma concentrations. In conclusion, methods enabling both characterisation of the distribution of inhaled drugs from lung tissue into systemic circulation and determination of tissue penetration kinetics of systemically administered drugs into lung specific tissue were successfully established. These techniques simulating pulmonary drug distribution very closely to reality may significantly contribute to the understanding of pharmacokinetic processes in the lung. KW - Lunge KW - Perfusion KW - Simulation KW - Pharmakokinetik KW - Pharmakokinetik KW - Lungenperfusionsmodell KW - Thalidomid KW - Beclomethason KW - Beclomethasondipropionat KW - Pharmacokinetics KW - isolated reperfused lung KW - thalidomide KW - beclomethasone Y1 - 2006 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-21551 ER - TY - THES A1 - Friedrich, Ulla T1 - Validierung und Educational Impact Study des Full-Procedural-High-Fidelity NANEP-Simulationsmodells zur offenen präperitonealen Netzimplantation bei Nabelhernien T1 - Validation and learning gain study of the NANEP simulation model for open preperitoneal mesh repair of umbilical hernia N2 - Diese Promotion befasst sich mit der Entwicklung eines neuartigen High-Fidelity, Full-Procedural Simulationsmodell für die Durchführung einer offenen Nabelhernienreparation mit präperitonealen Netzimplantation in Underlay-Position (NANEP-Modell). Das Übungsmodell setzten wir in einem eigens konstruierten Operationskurs in der Allgemein- und Viszeralchirugie der Universitätsklinik Würzburg ein. Ziel war die Validierung des Modells durch Untersuchung der Inhalts-Validität, der Konstrukt-Validität und der Differentiellen Validität. Die auf Video aufgezeichneten Operationen der Probanden wurden auf der Internetplattform Catlive mithilfe des Competency Assessment Tools bewertet. Der Lernzuwachs wurde gemessen und untersucht. Die operierten Modelle wurden zur Prüfung der Kriteriums-Validität autopsiert. N2 - We present a novel type of high-fidelity surgical simulator for open preperitoneal mesh repair of umbilical hernia, including development and implementation in a training course. Construct and content validity of the NANEP simulation model, learning gain on basis of structured competency assessment and autopsy data were analyzed. KW - Simulation KW - Nabelhernie KW - Nabelhernien-Operation KW - Simulationsmodell KW - Chirurgische Ausbildung KW - Bewertungsplattform KW - Ausbildungsforschung KW - Validation KW - Umbilical-hernia KW - Simulationmodel KW - Surgical education KW - Umbilical Hernia Operation Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-191375 ER - TY - THES A1 - Geißler, Stefan T1 - Performance Evaluation of Next-Generation Data Plane Architectures and their Components T1 - Leistungsbewertung von Data Plane Architekturen der Nächsten Generation sowie ihrer Einzelkomponenten N2 - In this doctoral thesis we cover the performance evaluation of next generation data plane architectures, comprised of complex software as well as programmable hardware components that allow fine granular configuration. In the scope of the thesis we propose mechanisms to monitor the performance of singular components and model key performance indicators of software based packet processing solutions. We present novel approaches towards network abstraction that allow the integration of heterogeneous data plane technologies into a singular network while maintaining total transparency between control and data plane. Finally, we investigate a full, complex system consisting of multiple software-based solutions and perform a detailed performance analysis. We employ simulative approaches to investigate overload control mechanisms that allow efficient operation under adversary conditions. The contributions of this work build the foundation for future research in the areas of network softwarization and network function virtualization. N2 - Diese Doktorarbeit behandelt die Leistungsbewertung von Data Plane Architekturen der nächsten Generation, die aus komplexen Softwarelösungen sowie programmierbaren Hardwarekomponenten bestehen. Hierbei werden Mechanismen entwickelt, die es ermöglichen, die Leistungsfähigkeit einzelner Komponenten zu messen und zentrale Leistungsindikatoren softwarebasierter Systeme zur Verarbeitung von Datenpaketen zu modellieren. Es werden neuartige Ansätze zur Netzabstraktion entworfen, die eine vollständig transparente Integration heterogener Technologien im selben Netz ermöglichen. Schließlich wird eine umfassende Leistungsbewertung eines komplexen Systems, das aus einer Vielzahl softwarebasierter Netzfunktionen besteht, durchgeführt. Anhand simulativer Modelle werden Überlastkontrollmechanismen entwickelt, die es dem System erlauben auch unter Überlast effizient zu arbeiten. Die Beiträge dieser Arbeit bilden die Grundlage weiterer Forschungen im Bereich der Softwarisierung von Netzen sowie der Virtualisierung von Netzfunktionen. T3 - Würzburger Beiträge zur Leistungsbewertung Verteilter Systeme - 02/21 KW - Leistungsbewertung KW - Simulation KW - Zeitdiskretes System KW - Implementierung KW - performance evaluation KW - simulation KW - discrete-time analysis KW - network softwarization KW - mobile networks Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-260157 SN - 1432-8801 ER - TY - THES A1 - Heiligenthal, Sven T1 - Strong and Weak Chaos in Networks of Semiconductor Lasers with Time-Delayed Couplings T1 - Starkes und Schwaches Chaos in Netzwerken aus Halbleiterlasern mit zeitverzögerten Kopplungen N2 - This thesis deals with the chaotic dynamics of nonlinear networks consisting of semiconductor lasers which have time-delayed self-feedbacks or mutual couplings. These semiconductor lasers are simulated numerically by the Lang-Kobayashi equations. The central issue is how the chaoticity of the lasers, measured by the maximal Lyapunov exponent, changes when the delay time is changed. It is analysed how this change of chaoticity with increasing delay time depends on the reflectivity of the mirror for the self-feedback or the strength of the mutal coupling, respectively. The consequences of the different types of chaos for the effect of chaos synchronization of mutually coupled semiconductor lasers are deduced and discussed. At the beginning of this thesis, the master stability formalism for the stability analysis of nonlinear networks with delay is explained. After the description of the Lang-Kobayashi equations and their linearizations as a model for the numerical simulation of semiconductor lasers with time-delayed couplings, the artificial sub-Lyapunov exponent $\lambda_{0}$ is introduced. It is explained how the sign of the sub-Lyapunov exponent can be determined by experiments. The notions of "strong chaos" and "weak chaos" are introduced and distinguished by their different scaling properties of the maximal Lyapunov exponent with the delay time. The sign of the sub-Lyapunov exponent $\lambda_{0}$ is shown to determine the occurence of strong or weak chaos. The transition sequence "weak to strong chaos and back to weak chaos" upon monotonically increasing the coupling strength $\sigma$ of a single laser's self-feedback is shown for numerical calculations of the Lang-Kobayashi equations. At the transition between strong and weak chaos, the sub-Lyapunov exponent vanishes, $\lambda_{0}=0$, resulting in a special scaling behaviour of the maximal Lyapunov exponent with the delay time. Transitions between strong and weak chaos by changing $\sigma$ can also be found for the Rössler and Lorenz dynamics. The connection between the sub-Lyapunov exponent and the time-dependent eigenvalues of the Jacobian for the internal laser dynamics is analysed. Counterintuitively, the difference between strong and weak chaos is not directly visible from the trajectory although the difference of the trajectories induces the transitions between the two types of chaos. In addition, it is shown that a linear measure like the auto-correlation function cannot unambiguously reveal the difference between strong and weak chaos either. Although the auto-correlations after one delay time are significantly higher for weak chaos than for strong chaos, it is not possible to detect a qualitative difference. If two time-scale separated self-feedbacks are present, the shorter feedback has to be taken into account for the definition of a new sub-Lyapunov exponent $\lambda_{0,s}$, which in this case determines the occurence of strong or weak chaos. If the two self-feedbacks have comparable delay times, the sub-Lyapunov exponent $\lambda_{0}$ remains the criterion for strong or weak chaos. It is shown that the sub-Lyapunov exponent scales with the square root of the effective pump current $\sqrt{p-1}$, both in its magnitude and in the position of the critical coupling strengths. For networks with several distinct sub-Lyapunov exponents, it is shown that the maximal sub-Lyapunov exponent of the network determines whether the network's maximal Lyapunov exponent scales strongly or weakly with increasing delay time. As a consequence, complete synchronization of a network is excluded for arbitrary networks which contain at least one strongly chaotic laser. Furthermore, it is demonstrated that the sub-Lyapunov exponent of a driven laser depends on the number of the incoherently superimposed inputs from unsynchronized input lasers. For networks of delay-coupled lasers operating in weak chaos, the condition $|\gamma_{2}|<\mathrm{e}^{-\lambda_{\mathrm{m}}\,\tau}$ for stable chaos synchronization is deduced using the master stability formalism. Hence, synchronization of any network depends only on the properties of a single laser with self-feedback and the eigenvalue gap of the coupling matrix. The characteristics of the master stability function for the Lang-Kobayashi dynamics is described, and consequently, the master stability function is refined to allow for precise practical prediction of synchronization. The prediction of synchronization with the master stability function is demonstrated for bidirectional and unidirectional networks. Furthermore, the master stability function is extended for two distinct delay times. Finally, symmetries and resonances for certain values of the ratio of the delay times are shown for the master stability function of the Lang-Kobyashi equations. N2 - Die vorliegende Arbeit beschäftigt sich mit der chaotischen Dynamik von nichtlinearen Netzwerken, die aus Halbleiterlasern bestehen, welche ihrerseits eine zeitverzögerte Selbstrückkopplung oder gegenseitige Kopplungen aufweisen. Diese Halbleiterlaser werden numerisch mit Hilfe der Lang-Kobayashi-Gleichungen simuliert. Die zentrale Fragestellung ist dabei, wie sich die Chaotizität der Laser, die in Form des größten Lyanpunov-Exponenten gemessen wird, mit der Verzögerungszeit ändert. Des Weiteren wird untersucht, wie diese Veränderung der Chaotizität bei Zunahme der zeitlichen Verzögerung entweder von der Reflektivität des Spiegels der Selbstrückkopplung oder aber von der Stärke der gegenseitigen Kopplungen abhängt. Die Folgen der unterschiedlichen Arten von Chaos für den Effekt der Chaossynchronisation gegenseitig gekoppelter Halbleiterlaser werden hergeleitet und diskutiert. Zu Beginn dieser Arbeit wird zunächst der Master-Stability-Formalismus für die Stabilitätsanalyse von nichtlinearen Netzwerken mit Zeitverzögerung erklärt. Nach der Beschreibung der Lang-Kobayshi-Gleichungen und deren Linearisierungen als Modell für die numerische Simulation von Halbleiterlasern mit zeitverzögerten Kopplungen wird der künstliche Sub-Lyapunov-Exponent $\lambda_{0}$ eingeführt. Es wird erläutert, wie das Vorzeichen des Sub-Lyapunov-Exponenten in Experimenten bestimmt werden kann. Die Termini "starkes Chaos" und "schwaches Chaos" werden eingeführt. Diese werden auf Basis der unterschiedlichen Skalierungseigenschaften des größten Lyapunov-Exponenten mit der Verzögerungszeit unterschieden. Es wird gezeigt, dass das Vorzeichen des Sub-Lyapunov-Exponenten $\lambda_{0}$ das Auftreten von starkem oder schwachem Chaos bestimmt. Die Übergangssequenz "schwaches zu starkem Chaos und wieder zurück zu schwachem Chaos" bei monotoner Erhöhung der Kopplungsstärke $\sigma$ eines einzelnen Lasers mit Selbstrückkopplung wird für numerische Berechnungen der Lang-Kobayashi-Gleichungen dargestellt. Beim Übergang zwischen starkem und schwachem Chaos verschwindet der Sub-Lyapunov-Exponent, $\lambda_{0}=0$, was zu einem speziellen Skalierungsverhalten des größten Lyapunov-Exponenten mit der Verzögerungszeit führt. Übergänge zwischen starkem und schwachem Chaos durch Änderung von $\sigma$ können auch für die Rössler- und Lorenz-Dynamik gefunden werden. Der Zusammenhang zwischen dem Sub-Lyapunov-Exponenten und den zeitabhängigen Eigenwerten der Jacobi-Matrix der internen Laserdynamik wird analysiert. Anders als intuitiv erwartet, ist der Unterschied zwischen starkem und schwachem Chaos nicht unmittelbar anhand der Trajektorie ersichtlich, obwohl der Unterschied der Trajektorien die Übergänge zwischen den beiden Chaosarten induziert. Darüber hinaus wird gezeigt, dass ein lineares Maß wie die Autokorrelationsfunktion den Unterschied zwischen starkem und schwachem Chaos auch nicht eindeutig aufzeigen kann. Obwohl die um eine Verzögerungszeit verschobenen Autokorrelationen für schwaches Chaos signifikant größer als für starkes Chaos sind, ist es nicht möglich, einen qualitativen Unterschied festzustellen. Bei Vorliegen zweier zeitskalenseparierter Selbstrückkopplungen muss die kürzere Rückkopplung bei der Definition eines neuen Sub-Lyapunov-Exponenten $\lambda_{0,s}$ berücksichtigt werden, welcher dann das Auftreten von starkem oder schwachem Chaos bestimmt. Falls die beiden Selbstrückkopplungen vergleichbare Verzögerungszeiten aufweisen, so ist der Sub-Lyapunov-Exponent $\lambda_{0}$ nach wie vor das Kriterium für starkes oder schwaches Chaos. Es wird gezeigt, dass der Sub-Lyapunov-Exponent mit der Quadratwurzel des effektiven Pumpstroms $\sqrt{p-1}$ skaliert, und zwar sowohl bezüglich seiner Größe als auch bezüglich der Position der kritischen Kopplungsstärken. Für Netzwerke mit mehreren unterschiedlichen Sub-Lyapunov-Exponenten wird gezeigt, dass der größte Sub-Lyapunov-Exponent des Netzwerks bestimmt, ob der größte Lyapunov-Exponent des Netzwerks mit zunehmender Verzögerungszeit stark oder schwach skaliert. Folglich ist vollständige Synchronisation eines Netzwerks für beliebige Netzwerke, die wenigstens einen stark chaotischen Laser beinhalten, ausgeschlossen. Zudem wird gezeigt, dass der Sub-Lyapunov-Exponent eines getriebenen Lasers von der Anzahl der inkohärent superponierten Eingangssignale der nicht synchronisierten Eingangslaser abhängt. Für Netzwerke aus zeitverzögert gekoppelten Lasern, die im schwachen Chaos betrieben werden, wird die Bedingung $|\gamma_{2}|<\mathrm{e}^{-\lambda_{\mathrm{m}}\,\tau}$ für stabile Chaossynchronisation mit Hilfe des Master-Stability-Formalismus hergeleitet. Folglich hängt die Synchronisation eines jeden Netzwerks nur von den Eigenschaften eines einzelnen Lasers mit Selbstrückkopplung und von der Eigenwertlücke der Kopplungsmatrix ab. Die spezifischen Eigenschaften der Master-Stability-Funktion der Lang-Kobayashi-Dynamik werden beschrieben, und dementsprechend wird die Master-Stability-Funktion angepasst, um eine präzise praktische Vorhersage von Synchronisation zu ermöglichen. Die Vorhersage von Synchronisation mittels der Master-Stability-Funktion wird für bidirektionale und unidirektionale Netzwerke demonstriert. Ferner wird die Master-Stability-Funktion für den Fall zweier unterschiedlicher Verzögerungszeiten erweitert. Schließlich werden Symmetrien und Resonanzen bei bestimmten Werten des Verhältnisses der Verzögerungszeiten für die Master-Stability-Funktion der Lang-Kobyashi-Gleichungen aufgezeigt. KW - Halbleiterlaser KW - Nichtlineares dynamisches System KW - Chaotisches System KW - Nonlinear Dynamics KW - Chaos KW - Synchronization KW - Networks KW - Delay-Differential Equations KW - Semiconductor Lasers KW - Simulation KW - Chaostheorie KW - Nichtlineares System KW - Dynamisches System KW - Synchronisierung KW - Netzwerk Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-77958 ER - TY - THES A1 - Herok, Christoph T1 - Quantum Chemical Exploration of Potential Energy Surfaces: Reaction Cycles and Luminescence Phenomena T1 - Quantenchemische Erforschung von Energiehyperflächen: Reaktionszyklen und Lumineszenzphänomene N2 - This work aims at elucidating chemical processes involving homogeneous catalysis and photo–physical relaxation of excited molecules in the solid state. Furthermore, compounds with supposedly small singlet–triplet gaps and therefore biradicaloid character are investigated with respect to their electro–chemical behavior. The work on hydroboration catalysis via a reduced 9,10–diboraanthracene (DBA) was preformed in collaboration with the Wagner group in Frankfurt, more specifically Dr. Sven Prey, who performed all laboratory experiments. The investigation of delayed luminescence properties in arylboronic esters in their solid state was conducted in collaboration with the Marder group in Würzburg. The author of this work took part in the synthesis of the investigated compounds while being supervised by Dr. Zhu Wu. The final project was a collaboration with the group of Anukul Jana from Hyderabad, India who provided the experimental data. N2 - Ziel dieser Arbeit ist die Aufklärung chemischer Prozesse, die homogene Katalyse und photophysikalische Relaxation angeregter Moleküle im Festkörper beinhalten. Darüber hinaus werden Verbindungen mit vermeintlich kleinen Singulett-Triplett-Lücken und damit biradikaloidem Charakter auf ihr elektrochemisches Verhalten hin untersucht. Die Arbeiten zur Hydroborierungskatalyse mit einem reduzierten 9,10-Diboraanthracen (DBA) wurden in Zusammenarbeit mit der Wagner-Gruppe in Frankfurt durchgeführt, genauer gesagt mit Dr. Sven Prey, der alle Laborexperimente durchführte. Die Untersuchung der verzögerten Lumineszenzeigenschaften von Arylborsäureestern im Festkörper wurde in Zusammenarbeit mit der Marder Gruppe in Würzburg durchgeführt. Der Autor dieser Arbeit war an der Synthese der untersuchten Verbindungen beteiligt und wurde dabei von Dr. Zhu Wu betreut. Das abschließende Projekt war eine Zusammenarbeit mit der Gruppe von Anukul Jana aus Hyderabad, Indien, die die experimentellen Daten zur Verfügung stellte. KW - Simulation KW - Quantum Chemistry KW - Reaction Mechanism KW - Fluorescence KW - Phosphoresence KW - Chemie KW - Katalyse KW - Lumineszenz KW - chemistry KW - simulation KW - catalysis KW - mechanism KW - luminescence KW - Energiehyperfläche Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-352185 ER - TY - THES A1 - Herrler, Rainer T1 - Agentenbasierte Simulation zur Ablaufoptimierung in Krankenhäusern und anderen verteilten, dynamischen Umgebungen T1 - Agent based simulation of processes in hospitals and other distributed, dynamic environments. N2 - Verteilte dynamische Systeme unter lokalen und globalen Gesichtspunkten zu optimieren ist eine schwierige Aufgabe. Zwar sind grundsätzliche Auswirkungen einzelner Maßnahmen häufig bekannt, durch widerstrebende Ziele, Wechselwirkungen zwischen Prozessen und Nebenwirkungen von Maßnahmen ist ein analytisches Vorgehen bei der Optimierung nicht möglich. Besonders schwierig wird es, wenn lokale Einheiten einerseits ihre Ziele und Autonomie behalten sollen, aber durch zentrale Vorgaben bzw. Anreize so gesteuert werden sollen, dass ein übergeordnetes Ziel erreicht wird. Ein praktisches Beispiel dieses allgemeinen Optimierungsproblems findet sich im Gesundheitswesen. Das Management von modernen Kliniken ist stets mit dem Problem konfrontiert, die Qualität der Pflege zu gewährleisten und gleichzeitig kosteneffizient zu arbeiten. Hier gilt es unter gegeben Rahmenbedingungen und bei Respektierung der Autonomie der Funktionseinheiten, Optimierungsmaßnahmen zu finden und durchzuführen. Vorhandene Werkzeuge zur Simulation und Modellierung bieten für diese Aufgabe keine ausreichend guten Vorgehensmodelle und Modellierungsmechanismen. Die agentenbasierte Simulation ermöglicht die Abbildung solcher Systeme und die Durchführung von Simulationsexperimenten zur Bewertung einzelner Maßnahmen. Es werden Lösungswege und Werkzeuge vorgestellt und evaluiert, die den Benutzer bei der Formalisierung des Wissens und der Modellierung solch komplexer Szenarien unterstützen und ein systematisches Vorgehen zur Optimierung ermöglichen. N2 - To optimize distributed dynamic systems or organizations under local and global constraints is a difficult task. Although basic effects of single improvement steps are often known, it is difficult to examine a complex system with conflicting goals, interdependent processes and sideeffects. A special situation occurs, when local entities are supposed to keep autonomy but should be directed by a central instance, to reach a global goal. A concrete example of this optimization problem can be found in health care. The management of modern hospitals has to ensure the quality of service and at the same time work cost efficient. They want to find improvement steps, which on the one hand respect the typical local autonomy of functional units and on the other hand reduce cost factors like the avarage stay duration of patients. Existing tools for modelling and simulation don't provide adequate methodologies and techniques for this problem. Agent based simulation allowes to realize suitable models and finding improvement steps in simulation studies. New approaches and tools are presented and evaluated, that support users in knowledge formalization and model building. KW - Simulation KW - Prozessoptimierung KW - Modellierung KW - Mehragentensystem KW - Krankenhaus KW - Simulation KW - Process Optimization KW - Agentbased System KW - Hospital Y1 - 2007 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-24483 ER - TY - THES A1 - Jöstingmeier, Martin T1 - On the competition of superconductivity, antiferromagnetism and charge order in the high-Tc compounds T1 - Über das Wechselspiel von Supraleitung, Antiferromagnetismus und Ladungsordung in den Kuprat-Supraleitern N2 - Diese Arbeit läßt sich in zwei grobe Abschnitte gliedern. Der erste Teil umfaßt die Kapitel 1-3, in denen drei verschiedene Konzepte beschrieben werden, die zum Verständis stark korrelierter Vielteilchen-Systeme dienen. Dies sind zunächst einmal die SO(5)-Theorie in Kapitel 3, die den allgemeinen Rahmen vorgibt und auf der numerischen Seite die Stochastische Reihen Entwicklung (SSE) in Kapitel 1 und der Contractor Renormierungsgruppen Ansatz (CORE), s.Kapitel 2). Die zentrale Idee dieser Dissertationsschrift besteht darin, diese verschiedenen Konzepte zu kombinieren, um ein besseres Verständnis der Hochtemperatursupraleiter zu erhalten. Im zweiten Teil dieser Arbeit (Kap. 4 und Kap. 5) werden die so gewonnenen Ergebnisse dargestellt. Die zentrale Idee dieser Arbeit, d.h. die Kombination der SO(5)-Theorie mit den Fähigkeiten bosonischer Quanten-Monte-Carlo Verfahren und den überlegungen der Renormierungsgruppe, hat sich sich am Beispiel der Physik der Hochtemperatur-Supraleiter als sehr tragfähig erwiesen. Die numerischen Simulationen reproduzieren bei den behandelten Modelle eine Reihe wichtiger experimenteller Daten. Die Grundlage für eine künftige weitere schrittweise Erweiterung des Modells wurde so geschaffen. Eine offene Frage ist z.B. die Restaurierung der SO(5)-Symmetrie an einem multi-kritischen Punkt, wenn die längerreichweitigen Wechselwirkungen mit in das Modell einbezogen sind. N2 - This thesis contains two major parts: The first part introduces the reader into three independent concepts of treating strongly correlated many body physics. These are, on the analytical side the SO(5)-theory (Chap.3), which poses the general frame. On the numerical side these are the Stochastic Series Expansion (SSE) (Chap.1) and the Contractor Renormalization Group (CORE) approach (Chap. 2}). The central idea of this thesis was to combine these above concepts, in order to achieve a better understanding of the high-T_c superconductors (HTSC). The results obtained by this combination can be found in the second major part of this thesis (chapters 4 and 5). The main idea of this thesis, i.e., to combine the SO(5)-theory with the capabilities of bosonic Quantum-Monte Carlo simulations and those of the CORE approach, has been proven to be a very successful Ansatz. Two different approaches, one based on symmetry and one on renormalization-group arguments, motivate an effective bosonic Hamiltonian. In a subsequent step the effective Hamiltonian has been simulated efficiently using the SSE. The results reproduce salient experiments on high-T_c superconductors. In addition, it has been shown that the model can be extended to capture also charge ordering. These results also form a profound basis for further studies, for example one could address the open question of SO(5)-symmetry restoration at a multicritical point in the extended pSO(5) model, where longer ranged interactions are included. KW - Hochtemperatursupraleitung KW - Simulation KW - Numerisches Verfahren KW - Supraleitung KW - Antiferromagnetismus KW - Ladungsordung KW - Kuprat-Supraleiter KW - SO(5)-Theorie der Supraleitung KW - superconductivity KW - antiferromagnetism KW - charge density waves KW - cuprate-superconductor KW - SO(5)-theory of superconductivity Y1 - 2005 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-13036 ER - TY - THES A1 - Kaußner, Armin T1 - Dynamische Szenerien in der Fahrsimulation T1 - Dynamic scenarios for driving simulation N2 - In der Arbeit wird ein neues Konzept für Fahrsimulator-Datenbasen vorgestellt. Der Anwender entwirft eine auf seine Fragestellung zugeschnittene Datenbasis mithilfe einer einfachen Skriptsprache. Das Straßennetzwerk wird auf einer topologischen Ebene repäsentiert. In jedem Simulationsschritt wird hieraus im Sichtbarkeitsbereich des Fahrers die geometrische Repäsentation berechnet. Die für den Fahrer unsichtbaren Teile des Straßenetzwerks können während der Simulation verändert werden. Diese Veränderungen können von der Route des Fahrers oder von den in der Simulation erhobenen Messerten abhängen. Zudem kann der Anwender das Straßennetzwerk interaktiv verändern. Das vorgestellte Konzept bietet zahlreiche Möglichkeiten zur Erzeugung reproduzierbarer Szenarien für Experimente in Fahrsimulatoren. N2 - This work presents a new concept for driving simulator databases. Using a simple scripting language the user defines a database tailored for his experiment. The road network is represented in a topological way. Through this the geometrical representation is computed during the simulation in a small area surrounding the driver, including all that is visible for the driver. The parts of the road network that are not visible for the driver can be changed during simulation. This modification can depend on the route the driver takes or on measures available in the simulation. Moreover, the user can change the road network interactively. The presented concept offers various advantages for the design of reproducible scenarios in driving simulators. KW - Straßenverkehr KW - Simulation KW - Fahrsimulator KW - Fahrsimulation KW - Datenbasis KW - Straßennetzwerk KW - Szenariogenerierung KW - driving simulation KW - database KW - road network KW - scenario creation Y1 - 2003 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-8286 ER - TY - THES A1 - Klügl, Franziska T1 - Aktivitätsbasierte Verhaltensmodellierung und ihre Unterstützung bei Multiagentensimulationen T1 - "Activity"-based Modelling of Behaviour and its Support for Multi-Agent Simulation N2 - Durch Zusammenführung traditioneller Methoden zur individuenbasierten Simulation und dem Konzept der Multiagentensysteme steht mit der Multiagentensimulation eine Methodik zur Verfügung, die es ermöglicht, sowohl technisch als auch konzeptionell eine neue Ebene an Detaillierung bei Modellbildung und Simulation zu erreichen. Ein Modell beruht dabei auf dem Konzept einer Gesellschaft: Es besteht aus einer Menge interagierender, aber in ihren Entscheidungen autonomen Einheiten, den Agenten. Diese ändern durch ihre Aktionen ihre Umwelt und reagieren ebenso auf die für sie wahrnehmbaren Änderungen in der Umwelt. Durch die Simulation jedes Agenten zusammen mit der Umwelt, in der er "lebt", wird die Dynamik im Gesamtsystem beobachtbar. In der vorliegenden Dissertation wurde ein Repräsentationsschema für Multiagentensimulationen entwickelt werden, das es Fachexperten, wie zum Beispiel Biologen, ermöglicht, selbständig ohne traditionelles Programmieren Multiagentenmodelle zu implementieren und mit diesen Experimente durchzuführen. Dieses deklarative Schema beruht auf zwei Basiskonzepten: Der Körper eines Agenten besteht aus Zustandsvariablen. Das Verhalten des Agenten kann mit Regeln beschrieben werden. Ausgehend davon werden verschiedene Strukturierungsansätze behandelt. Das wichtigste Konzept ist das der "Aktivität", einer Art "Verhaltenszustand": Während der Agent in einer Aktivität A verweilt, führt er die zugehörigen Aktionen aus und dies solange, bis eine Regel feuert, die diese Aktivität beendet und eine neue Aktivität auswählt. Durch Indizierung dieser Regeln bei den zugehörigen Aktivitäten und Einführung von abstrakten Aktivitäten entsteht ein Schema für eine vielfältig strukturierbare Verhaltensbeschreibung. Zu diesem Schema wurde ein Interpreter entwickelt, der ein derartig repräsentiertes Modell ausführt und so Simulationsexperimente mit dem Multiagentenmodell erlaubt. Auf dieser Basis wurde die Modellierungs- und Experimentierumgebung SeSAm ("Shell für Simulierte Agentensysteme") entwickelt. Sie verwendet vorhandene Konzepte aus dem visuellen Programmieren. Mit dieser Umgebung wurden Anwendungsmodelle aus verschiedenen Domänen realisiert: Neben abstrakten Spielbeispielen waren dies vor allem Fragestellungen zu sozialen Insekten, z.B. zum Verhalten von Ameisen, Bienen oder der Interaktion zwischen Bienenvölkern und Milbenpopulationen. N2 - In this thesis a representational scheme for multi-agent simulations was developed. This framework enables domain experts - e.g. biologists - to build models and carry out experiments without having to understand and use traditional programming languages. The resulting declarative framework is based on two concepts: the body of an agent can be modelled by a set of state variables. The behaviour of the agents can be described best by using rules. With this as a starting point various approaches for structuring the description are examined. The most important concept is the concept of "activity" - a kind of "behavioural state": While the agent is in a certain activity A, it carries out the sequence of actions that is associated with A - and continues with it until a rule fires thus terminating the activity A and selecting a new one. By indexing these rules at the activity they are terminating and by introducing abstract activities, a framework for behaviour modelling emerges that can be structured in multifarious ways. An interpreter executing this representation scheme was developed in order to allow simulation experiments with such a multi-agent model. This simulator was integrated into a modelling and simulation environment, named SeSAm ("Shell for Simulated Agent-Systems"). Using this framework several models in different application domains are implemented: They are ranging from simple games to complex models, especially of social insects - e.g. the behaviour of ants or bees or the interactions between bee hives and mite populations. KW - Agent KW - Simulation KW - Computersimulation KW - Mehragentensystem KW - Simulation KW - Modellierung KW - Multiagentensystem KW - Regelbasiertes System KW - Simulation KW - Modelling KW - Multi-agent system KW - Rule-based Systems Y1 - 2000 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-2874 ER - TY - THES A1 - Kubisch, Alexander T1 - Range border formation in the light of dispersal evolution T1 - Die Ausbildung von Verbreitungsgrenzen unter Berücksichtigung der Evolution des Ausbreitungsverhaltens N2 - Understanding the emergence of species' ranges is one of the most fundamental challenges in ecology. Early on, geographical barriers were identified as obvious natural constraints to the spread of species. However, many range borders occur along gradually changing landscapes, where no sharp barriers are obvious. Mechanistic explanations for this seeming contradiction incorporate environmental gradients that either affect the spatio-temporal variability of conditions or the increasing fragmentation of habitat. Additionally, biological mechanisms like Allee effects (i.e. decreased growth rates at low population sizes or densities), condition-dependent dispersal, and biological interactions with other species have been shown to severely affect the location of range margins. The role of dispersal has been in the focus of many studies dealing with range border formation. Dispersal is known to be highly plastic and evolvable, even over short ecological time-scales. However, only few studies concentrated on the impact of evolving dispersal on range dynamics. This thesis aims at filling this gap. I study the influence of evolving dispersal rates on the persistence of spatially structured populations in environmental gradients and its consequences for the establishment of range borders. More specially I investigate scenarios of range formation in equilibrium, periods of range expansion, and range shifts under global climate change ... N2 - Die Frage nach den Ursachen für die Ausbildung von Verbreitungsgrenzen ist ein zentrales Thema ökologischer Forschung. Dabei wurde die Bedeutung geographischer Barrieren als natürliche Grenzen der Ausbreitung von Populationen früh erkannt. Jedoch findet man oft auch in sich graduell ändernden Landschaften, in denen keine Barrieren zu finden sind, sehr scharfe Verbreitungsgrenzen. Mechanistische Erklärungen hierfür unterscheiden zwischen solchen Umweltgradienten, welche entweder die Variabilität der biotischen und abiotischen Umgebung in Raum und Zeit oder die Fragmentierung von Habitat beeinflussen. Dabei wird die spezifische Lage der Verbreitungsgrenze von weiteren Mechanismen beeinflusst, wie Allee-Effekten (d.h. verringerte Wachstumsraten bei kleiner Populationsgröße oder -dichte), zustands- bzw. kontextabhängigem Dispersal und biologischen Interaktionen. Dispersal, das heißt Ausbreitung im Raum mit potentiellen Konsequenzen für den Genaustausch zwischen Populationen, stand im Fokus vieler Studien, die sich mit der Ausbildung von Verbreitungsgrenzen beschäftigt haben. Es ist bekannt, dass das Ausbreitungsverhalten von Populationen sehr variabel ist und selbst innerhalb kurzer Zeit evolvieren kann. Trotzdem haben sich erst wenige Studien mit den Folgen der Evolution des Ausbreitungsverhaltens für biogeographische Muster befasst. Die vorliegende Dissertation verfolgt das Ziel, diese Lücke zu füllen. Ich untersuche den Einfluss evolvierender Emigrationsraten auf das Überleben von räumlich strukturierten Populationen, sowie dessen Konsequenzen für die Etablierung und Dynamik von Verbreitungsgebieten. Dafür ziehe ich verschiedene Szenarien heran. Diese bilden die Verbreitung von Arten im Gleichgewicht, während Phasen der Expansion des Verbreitungsgebietes, sowie im Kontext des globalen Klimawandels ab ... KW - Areal KW - Verhalten KW - Evolution KW - Simulation KW - Verbreitungsgrenzen KW - Ausbreitung KW - Invasion KW - range formation KW - dispersal KW - evolution KW - individual-based simulation Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-70639 ER - TY - THES A1 - Kurrek, Matthias M. T1 - Simulation To Establish Benchmark Outcome Measures T1 - Simulation zur Erstellung von Benchmarks für Outcomes N2 - Following the early experiences in aviation, medical simulation has rapidly evolved into one of the most novel educational tools of the last three decades. In addition to its use in training individuals or teams in crisis resource management, simulation has been studied as a tool to evaluate technical and non-technical skills of individuals as well as, more recently, entire medical teams. It is usually fairly difficult to obtain clinical reference data from critical events to refute claims that the management of actual events fell below what could reasonably be expected and we demonstrated the use of rank order statistics to calculate quantiles with confidence limits for management times of critical obstetrical events using data from realistic simulation. This approach could be used to describe the distribution of treatment times in order to assist in deciding what performance may constitute an outlier. It can also identify particular challenges of clinical practice and allow the development of educational curricula. While the information derived from simulation has to be interpreted with a high degree of caution for a clinical context, it may represent a further ‘added value’ or important step in establishing simulation as a training tool and to provide information that could be used in an appropriate clinical context for adverse events. Large amounts of data (such as from a simulation registry) would allow the calculation of acceptable confidence intervals for the required outcome parameters as well as actual tolerance limits. N2 - Es ist auf Grund der Rarität von vielen Notfällen normalerweise nicht möglich genug klinische Daten zur Auswertung zur Verfügung zu haben, um sagen zu können, ob das Management eines bestimmten Falles innerhalb von ‚normalen’ Grenzwerten fällt. In dieser wissenschaftlichen Arbeit zeigten wir das ‚Rank Order Statistiks’ dafür benutzt werden könnten, die Resultate von simulierten Notfällen in der Geburtshilfe als Bandbreite von ‚normalen’ klinischen Leistungen darzustellen. Dieses Vorgehen würde es erlauben, eine klinische Leistung mit einer Datenbank von vergleichbaren simulierten Zwischenfällen abzugleichen, um entscheiden zu können, ob die klinische Leistung innerhalb von ‚normalen’ Werten ausgefallen ist. Dieses Vorgehen verschafft außerdem Einblick, welche Probleme besondere Schwierigkeiten bereiten sodass ggf. gezielte Fortbildungen vorbereitet werden könnten. Obwohl die Daten der Simulation mit gewisser Vorsicht zu interpretieren sind, repräsentiert dieses Vorgehen eine neue Anwendung von Simulation, die für die Auswertung von klinischen Notfällen von großer Bedeutung sein könnte. Es wird in diesem Zusammenhang allerdings notwendig sein, relativ große Datenbanken von vielen simulierten Notfällen zu erstellen und auszuwerten, um die gesuchten Werte mit genug Genauigkeit kalkulieren zu können. KW - Simulation Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-143882 ER - TY - THES A1 - Leidinger, Ludwig Klaus Theodor T1 - How genomic and ecological traits shape island biodiversity - insights from individual-based models T1 - Einflüsse genomischer und ökologischer Arteigenschaften auf die Biodiversität von Inseln - Erkenntnisse aus individuenbasierten Modellen N2 - Life on oceanic islands provides a playground and comparably easy\-/studied basis for the understanding of biodiversity in general. Island biota feature many fascinating patterns: endemic species, species radiations and species with peculiar trait syndromes. However, classic and current island biogeography theory does not yet consider all the factors necessary to explain many of these patterns. In response to this, there is currently a shift in island biogeography research to systematically consider species traits and thus gain a more functional perspective. Despite this recent development, a set of species characteristics remains largely ignored in island biogeography, namely genomic traits. Evidence suggests that genomic factors could explain many of the speciation and adaptation patterns found in nature and thus may be highly informative to explain the fascinating and iconic phenomena known for oceanic islands, including species radiations and susceptibility to biotic invasions. Unfortunately, the current lack of comprehensive meaningful data makes studying these factors challenging. Even with paleontological data and space-for-time rationales, data is bound to be incomplete due to the very environmental processes taking place on oceanic islands, such as land slides and volcanism, and lacks causal information due to the focus on correlative approaches. As promising alternative, integrative mechanistic models can explicitly consider essential underlying eco\-/evolutionary mechanisms. In fact, these models have shown to be applicable to a variety of different systems and study questions. In this thesis, I therefore examined present mechanistic island models to identify how they might be used to address some of the current open questions in island biodiversity research. Since none of the models simultaneously considered speciation and adaptation at a genomic level, I developed a new genome- and niche-explicit, individual-based model. I used this model to address three different phenomena of island biodiversity: environmental variation, insular species radiations and species invasions. Using only a single model I could show that small-bodied species with flexible genomes are successful under environmental variation, that a complex combination of dispersal abilities, reproductive strategies and genomic traits affect the occurrence of species radiations and that invasions are primarily driven by the intensity of introductions and the trait characteristics of invasive species. This highlights how the consideration of functional traits can promote the understanding of some of the understudied phenomena in island biodiversity. The results presented in this thesis exemplify the generality of integrative models which are built on first principles. Thus, by applying such models to various complex study questions, they are able to unveil multiple biodiversity dynamics and patterns. The combination of several models such as the one I developed to an eco\-/evolutionary model ensemble could further help to identify fundamental eco\-/evolutionary principles. I conclude the thesis with an outlook on how to use and extend my developed model to investigate geomorphological dynamics in archipelagos and to allow dynamic genomes, which would further increase the model's generality. N2 - Inseln sind nützliche Modellsysteme für das Verständnis von Biodiversität im Allgemeinen. Dies wird verstärkt durch den Umstand, dass Flora und Fauna auf Inseln eine Vielzahl einzigartiger Phänomene aufweisen: von endemischen Arten über Artenradiationen bis hin zu außergewöhnlichen Arteigenschaften. Bisherige Theorien der Inselbiogeographie berücksichtigen jedoch nicht alle Faktoren, die nötig wären, um solche Phänomene zu erklären. Derzeitige Bemühungen zielen daher darauf ab, Arteigenschaften systematisch mit bestehenden Theorien zu vereinen. Trotz dieser Entwicklung werden genomische Arteigenschaften bislang in solch einer funktionalen Inselbiogeographie weitestgehend ignoriert, obwohl es Hinweise darauf gibt, dass genomische Faktoren einige der faszinierenden Diversifizierungsmuster einschließlich Artenradiationen erklären könnten. Die Erforschung dieser Faktoren gestaltet sich aufgrund des Mangels an umfangreichen, aussagekräftigen Daten jedoch als schwierig. Selbst unter Zuhilfenahme von paläontologischen Daten und substituierten Daten aus vergleichbaren Systemen lassen sich Unvollständigkeiten in den Daten und das Problem fehlender Kausalzusammenhänge schwer überwinden. Eine vielversprechende Alternative stellen mechanistische Modelle dar, von denen einige bereits für eine Vielzahl von Systemen und Forschungsprojekten eingesetzt wurden. In dieser Dissertation wurden daher mechanistische Inselmodelle untersucht, um herauszufinden, inwiefern sich diese für derzeitige offene Fragen in der Inselbiogeographie eignen würden. Da keines der untersuchten Modelle gleichzeitig Artbildung and Anpassung unter Berücksichtigung von genomischen Faktoren abbildet, wurde ein neues genom- und nischenexplizites, individuenbasiertes Modell entwickelt. Dieses wurde benutzt, um drei verschiedene Phänomene im Kontext der Inselbiogeographie zu untersuchen: die Anpassung an Umweltvariation, Artenradiationen und Invasionen durch exotische Arten. Mit diesem neuentwickeltem Modell konnte gezeigt werden, dass kleinere Arten mit flexiblen Genomen unter variablen Umwelteigenschaften erfolgreicher sind, dass eine komplexe Kombination aus Ausbreitungsfähigkeiten, Fortpflanzungsstrategien und genomischen Arteigenschaften das Entstehen von Artenradiationen beeinflussen und dass Invasionen vor allem von der Einführungsintensität und den Arteigenschaften exotischer Arten getrieben sind. Diese Ergebnisse demonstrieren, wie die Berücksichtigung funktionaler Arteigenschaften dabei helfen kann, einige bislang wenig untersuchte Phänomene der Inselbiogeographie zu verstehen. Die Ergebnisse dieser Dissertation stehen beispielhaft für die Allgemeingültigkeit integrativer, auf Grundzusammenhängen aufbauender Modelle. Dies wird durch die Aufdeckung diverser Biodiversitätsmuster und -dynamiken im Rahmen der Bearbeitung verschiedener komplexer Fragestellungen hervorgehoben. Weitere Modelle, wie das hier beschriebene, könnten sogar in einem Modellensemble kombiniert werden, um öko-evolutionare Grundprinzipien zu identifizieren. Abschließend wird ein Ausblick auf die Möglichkeit gewährt, das Modell weiterzunutzen und zu erweitern, um beispielsweise geomorphologische Archipeldynamiken oder dynamische Genome abzubilden, und damit die Allgemeingültigkeit des Modells noch zu erweitern. KW - Inselbiogeografie KW - Simulation KW - Biodiversität KW - Genetik KW - Mikroevolution KW - island biogeography KW - mechanistic models KW - genetic architecture KW - eco-evolutionary feedbacks Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-207300 ER - TY - THES A1 - Loh, Frank T1 - Monitoring the Quality of Streaming and Internet of Things Applications T1 - Monitoring der Qualität von Video Streaming und Internet der Dingen Anwendungen N2 - The ongoing and evolving usage of networks presents two critical challenges for current and future networks that require attention: (1) the task of effectively managing the vast and continually increasing data traffic and (2) the need to address the substantial number of end devices resulting from the rapid adoption of the Internet of Things. Besides these challenges, there is a mandatory need for energy consumption reduction, a more efficient resource usage, and streamlined processes without losing service quality. We comprehensively address these efforts, tackling the monitoring and quality assessment of streaming applications, a leading contributor to the total Internet traffic, as well as conducting an exhaustive analysis of the network performance within a Long Range Wide Area Network (LoRaWAN), one of the rapidly emerging LPWAN solutions. N2 - Die fortlaufende und sich weiterentwickelnde Nutzung von Netzwerken stellt zwei entscheidende Herausforderungen für aktuelle und zukünftige Netzwerke dar, die Aufmerksamkeit erfordern: (1) die Aufgabe, den enormen und kontinuierlich wachsenden Datenverkehr effektiv zu verwalten, und (2) die Notwendigkeit, die durch die Einführung des Internets der Dinge resultierende große Anzahl von Endgeräten zu bewältigen. Neben diesen Herausforderungen besteht ein zwingender Bedarf an einer Reduzierung des Energieverbrauchs, einer effizienteren Ressourcennutzung und von optimierten Prozessen ohne Einbußen bei der Servicequalität. Wir gehen diese Bemühungen umfassend an und befassen uns mit der Überwachung und Qualitätsbewertung von Streaming-Anwendungen, die einen wesentlichen Beitrag zum gesamten Internetverkehr leisten, sowie mit der Durchführung einer generellen Analyse der Netzwerkleistung innerhalb eines Long Range Wide Area Network (LoRaWAN), einer der am schnellsten wachsenden LPWAN-Lösungen. T3 - Würzburger Beiträge zur Leistungsbewertung Verteilter Systeme - 01/24 KW - Leistungsbewertung KW - Simulation KW - LoRaWAN KW - Quality of Experience KW - Streaming KW - Leistungsbewertung KW - Simulation KW - LoRaWAN KW - Quality of Experience KW - Video Streaming Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-350969 SN - 1432-8801 N1 - Formal korrigierte, inhaltlich identische Version zur Dissertation unter https://doi.org/10.25972/OPUS-34783. ET - korrigierte Version ER - TY - THES A1 - Loh, Frank T1 - Monitoring the Quality of Streaming and Internet of Things Applications T1 - Monitoring der Qualität von Video Streaming und Internet der Dingen Anwendungen N2 - The ongoing and evolving usage of networks presents two critical challenges for current and future networks that require attention: (1) the task of effectively managing the vast and continually increasing data traffic and (2) the need to address the substantial number of end devices resulting from the rapid adoption of the Internet of Things. Besides these challenges, there is a mandatory need for energy consumption reduction, a more efficient resource usage, and streamlined processes without losing service quality. We comprehensively address these efforts, tackling the monitoring and quality assessment of streaming applications, a leading contributor to the total Internet traffic, as well as conducting an exhaustive analysis of the network performance within a Long Range Wide Area Network (LoRaWAN), one of the rapidly emerging LPWAN solutions. N2 - Die fortlaufende und sich weiterentwickelnde Nutzung von Netzwerken stellt zwei entscheidende Herausforderungen für aktuelle und zukünftige Netzwerke dar, die Aufmerksamkeit erfordern: (1) die Aufgabe, den enormen und kontinuierlich wachsenden Datenverkehr effektiv zu verwalten, und (2) die Notwendigkeit, die durch die Einführung des Internets der Dinge resultierende große Anzahl von Endgeräten zu bewältigen. Neben diesen Herausforderungen besteht ein zwingender Bedarf an einer Reduzierung des Energieverbrauchs, einer effizienteren Ressourcennutzung und von optimierten Prozessen ohne Einbußen bei der Servicequalität. Wir gehen diese Bemühungen umfassend an und befassen uns mit der Überwachung und Qualitätsbewertung von Streaming-Anwendungen, die einen wesentlichen Beitrag zum gesamten Internetverkehr leisten, sowie mit der Durchführung einer generellen Analyse der Netzwerkleistung innerhalb eines Long Range Wide Area Network (LoRaWAN), einer der am schnellsten wachsenden LPWAN-Lösungen. T3 - Würzburger Beiträge zur Leistungsbewertung Verteilter Systeme - 01/24 KW - Leistungsbewertung KW - Simulation KW - LoRaWAN KW - Quality of Experience KW - Streaming KW - Video Streaming KW - Energy Efficiency Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-347831 SN - 1432-8801 N1 - Eine formal korrigierte, inhaltlich identische Version dieser Dissertation ist unter https://doi.org/10.25972/OPUS-35096 erschienen. ER -