Refine
Has Fulltext
- yes (46)
Year of publication
Document Type
- Doctoral Thesis (43)
- Journal article (2)
- Book (1)
Keywords
- Simulation (46) (remove)
Institute
- Institut für Informatik (8)
- Institut für Theoretische Physik und Astrophysik (5)
- Medizinische Klinik und Poliklinik I (5)
- Physikalisches Institut (5)
- Klinik und Poliklinik für Allgemein-, Viszeral-, Gefäß- und Kinderchirurgie (Chirurgische Klinik I) (3)
- Graduate School of Science and Technology (2)
- Institut für Geographie und Geologie (2)
- Institut für Mathematik (2)
- Betriebswirtschaftliches Institut (1)
- Center for Computational and Theoretical Biology (1)
Sonstige beteiligte Institutionen
ResearcherID
- D-1250-2010 (1)
Verteilte dynamische Systeme unter lokalen und globalen Gesichtspunkten zu optimieren ist eine schwierige Aufgabe. Zwar sind grundsätzliche Auswirkungen einzelner Maßnahmen häufig bekannt, durch widerstrebende Ziele, Wechselwirkungen zwischen Prozessen und Nebenwirkungen von Maßnahmen ist ein analytisches Vorgehen bei der Optimierung nicht möglich. Besonders schwierig wird es, wenn lokale Einheiten einerseits ihre Ziele und Autonomie behalten sollen, aber durch zentrale Vorgaben bzw. Anreize so gesteuert werden sollen, dass ein übergeordnetes Ziel erreicht wird. Ein praktisches Beispiel dieses allgemeinen Optimierungsproblems findet sich im Gesundheitswesen. Das Management von modernen Kliniken ist stets mit dem Problem konfrontiert, die Qualität der Pflege zu gewährleisten und gleichzeitig kosteneffizient zu arbeiten. Hier gilt es unter gegeben Rahmenbedingungen und bei Respektierung der Autonomie der Funktionseinheiten, Optimierungsmaßnahmen zu finden und durchzuführen. Vorhandene Werkzeuge zur Simulation und Modellierung bieten für diese Aufgabe keine ausreichend guten Vorgehensmodelle und Modellierungsmechanismen. Die agentenbasierte Simulation ermöglicht die Abbildung solcher Systeme und die Durchführung von Simulationsexperimenten zur Bewertung einzelner Maßnahmen. Es werden Lösungswege und Werkzeuge vorgestellt und evaluiert, die den Benutzer bei der Formalisierung des Wissens und der Modellierung solch komplexer Szenarien unterstützen und ein systematisches Vorgehen zur Optimierung ermöglichen.
Aktivitätsbasierte Verhaltensmodellierung und ihre Unterstützung bei Multiagentensimulationen
(2000)
Durch Zusammenführung traditioneller Methoden zur individuenbasierten Simulation und dem Konzept der Multiagentensysteme steht mit der Multiagentensimulation eine Methodik zur Verfügung, die es ermöglicht, sowohl technisch als auch konzeptionell eine neue Ebene an Detaillierung bei Modellbildung und Simulation zu erreichen. Ein Modell beruht dabei auf dem Konzept einer Gesellschaft: Es besteht aus einer Menge interagierender, aber in ihren Entscheidungen autonomen Einheiten, den Agenten. Diese ändern durch ihre Aktionen ihre Umwelt und reagieren ebenso auf die für sie wahrnehmbaren Änderungen in der Umwelt. Durch die Simulation jedes Agenten zusammen mit der Umwelt, in der er "lebt", wird die Dynamik im Gesamtsystem beobachtbar. In der vorliegenden Dissertation wurde ein Repräsentationsschema für Multiagentensimulationen entwickelt werden, das es Fachexperten, wie zum Beispiel Biologen, ermöglicht, selbständig ohne traditionelles Programmieren Multiagentenmodelle zu implementieren und mit diesen Experimente durchzuführen. Dieses deklarative Schema beruht auf zwei Basiskonzepten: Der Körper eines Agenten besteht aus Zustandsvariablen. Das Verhalten des Agenten kann mit Regeln beschrieben werden. Ausgehend davon werden verschiedene Strukturierungsansätze behandelt. Das wichtigste Konzept ist das der "Aktivität", einer Art "Verhaltenszustand": Während der Agent in einer Aktivität A verweilt, führt er die zugehörigen Aktionen aus und dies solange, bis eine Regel feuert, die diese Aktivität beendet und eine neue Aktivität auswählt. Durch Indizierung dieser Regeln bei den zugehörigen Aktivitäten und Einführung von abstrakten Aktivitäten entsteht ein Schema für eine vielfältig strukturierbare Verhaltensbeschreibung. Zu diesem Schema wurde ein Interpreter entwickelt, der ein derartig repräsentiertes Modell ausführt und so Simulationsexperimente mit dem Multiagentenmodell erlaubt. Auf dieser Basis wurde die Modellierungs- und Experimentierumgebung SeSAm ("Shell für Simulierte Agentensysteme") entwickelt. Sie verwendet vorhandene Konzepte aus dem visuellen Programmieren. Mit dieser Umgebung wurden Anwendungsmodelle aus verschiedenen Domänen realisiert: Neben abstrakten Spielbeispielen waren dies vor allem Fragestellungen zu sozialen Insekten, z.B. zum Verhalten von Ameisen, Bienen oder der Interaktion zwischen Bienenvölkern und Milbenpopulationen.
Staphylococcus aureus (SA) causes nosocomial infections including life threatening sepsis by multi-resistant strains (MRSA). It has the ability to form biofilms to protect it from the host immune system and from anti staphylococcal drugs. Biofilm and planctonic life style is regulated by a complex Quorum-Sensing (QS) system with agr as a central regulator. To study biofilm formation and QS mechanisms in SA a Boolean network was build (94 nodes, 184 edges) including two different component systems such as agr, sae and arl. Important proteins such as Sar, Rot and SigB were included as further nodes in the model. System analysis showed there are only two stable states biofilm forming versus planctonic with clearly different subnetworks turned on. Validation according to gene expression data confirmed this. Network consistency was tested first according to previous knowledge and literature. Furthermore, the predicted node activity of different in silico knock-out strains agreed well with corresponding micro array experiments and data sets. Additional validation included the expression of further nodes (Northern blots) and biofilm production compared in different knock-out strains in biofilm adherence assays. The model faithfully reproduces the behaviour of QS signalling mutants. The integrated model allows also prediction of various other network mutations and is supported by experimental data from different strains. Furthermore, the well connected hub proteins elucidate how integration of different inputs is achieved by the QS network. For in silico as well as in vitro experiments it was found that the sae-locus is also a central modulator of biofilm production. Sae knock-out strains showed stronger biofilms. Wild type phenotype was rescued by sae complementation. To elucidate the way in which sae takes influence on biofilm formation the network was used and Venn-diagrams were made, revealing nodes regulated by sae and changed in biofilms. In these Venn-diagrams nucleases and extracellular proteins were found to be promising nodes. The network revealed DNAse to be of great importance. Therefore qualitatively the DNAse amount, produced by different SA mutants was measured, it was tried to dissolve biofilms with according amounts of DNAse and the concentration of nucleic acids, proteins and polysaccharides were measured in biofilms of different SA mutants.
With its thorough validation the network model provides a powerful tool to study QS and biofilm formation in SA, including successful predictions for different knock-out mutant behaviour, QS signalling and biofilm formation. This includes implications for the behaviour of MRSA strains and mutants. Key regulatory mutation combinations (agr–, sae–, sae–/agr–, sigB+, sigB+/sae–) were directly tested in the model but also in experiments. High connectivity was a good guide to identify master regulators, whose detailed behaviour was studied both in vitro and in the model. Together, both lines of evidence support in particular a refined regulatory role for sae and agr with involvement in biofilm repression and/or SA dissemination. With examination of the composition of different mutant biofilms as well as with the examination of the reaction cascade that connects sae to the biofilm forming ability of SA and also by postulating that nucleases might play an important role in that, first steps were taken in proving and explaining regulatory links leading from sae to biofilms. Furthermore differences in biofilms of different mutant SA strains were found leading us in perspective towards a new understanding of biofilms including knowledge how to better regulate, fight and use its different properties.
Die Mikrostruktur von Zirkonoxid–Aluminiumoxid Keramiken wurde im Rasterelektronenmikroskop (REM) untersucht und mittels quantitativer Bildanalyse weiter charakterisiert. Die so erhaltenen spezifischen morphologischen Kennwerte wurden mit denen, die an dreidimensionalen Modellstrukturen äquivalent gewonnen wurden, verglichen. Es wurden modifizierte Voronoistrukturen benutzt, um die beteiligten Phasen in repräsentativen Volumenelementen (RVE) auf Voxelbasis zu erzeugen. Poren wurden an den Ecken und Kanten dieser Strukturen nachträglich hinzugefüg.
Nachdem alle relevanten Kennwerte der Modellstrukturen an die realen keramischen Mikrostrukturen angepasst wurden, musste das RVE für die Finite Element Simulationen (FES) geeignet vernetzt werden. Eine einfache Übernahme der Voxelstrukturen in hexaedrische Elemente führt zu sehr langen Rechenzeiten, und die erforderliche Genauigkeit der FES konnte nicht erreicht werden. Deshalb wurde zunächst eine adaptive Oberflächenvernetzung ausgehend von einem generally classed marching tetrahedra Algorithmus erzeugt. Dabei wurde besonderer Wert auf die Beibehaltung der zuvor angepassten Kennwerte gelegt. Um die Rechenzeiten zu verkürzen ohne die Genauigkeit der FES zu beeinträchtigen, wurden die Oberflächenvernetzungen dergestalt vereinfacht, dass eine hohe Auflösung an den Ecken und Kanten der Strukturen erhalten blieb, während sie an flachen Korngrenzen stark verringert wurde. Auf Basis dieser Oberflächenvernetzung wurden Volumenvernetzungen, inklusive der Abbildung der Korngrenzen durch Volumenelemente, erzeugt und für die FES benutzt. Dazu wurde ein FE-Modell zur Simulation der Impedanzspektren aufgestellt und validiert.
Um das makroskopische elektrische Verhalten der polykristallinen Keramiken zu simulieren, mussten zunächst die elektrischen Eigenschaften der beteiligten Einzelphasen gemessen werden. Dazu wurde eine Anlage zur Impedanzspektroskopie bis 1000 °C aufgebaut und verwendet. Durch weitere Auswertung der experimentellen Daten unter besonderer Berücksichtigung der Korngrenzeffekte wurden die individuellen Phaseneigenschaften erhalten.
Die Zusammensetzung der Mischkeramiken reichte von purem Zirkonoxid (3YSZ) bis zu purem Aluminiumoxid. Es wurde eine sehr gute Übereinstimmung zwischen den experimentellen und simulierten Werten bezüglich der betrachteten elektrischen, mechanischen und thermischen Eigenschaften erreicht. Die FES wurden verwendet, um die Einflüsse verschiedener mikrostruktureller Parameter, wie Porosität, Korngröße und Komposition, auf das makroskopische Materialverhalten näher zu untersuchen.
Lifetime techniques are applied to diverse fields of study including materials sciences, semiconductor physics, biology, molecular biophysics and photochemistry.
Here we present DDRS4PALS, a software for the acquisition and simulation of lifetime spectra using the DRS4 evaluation board (Paul Scherrer Institute, Switzerland) for time resolved measurements and digitization of detector output pulses. Artifact afflicted pulses can be corrected or rejected prior to the lifetime calculation to provide the generation of high-quality lifetime spectra, which are crucial for a profound analysis, i.e. the decomposition of the true information. Moreover, the pulses can be streamed on an (external) hard drive during the measurement and subsequently downloaded in the offline mode without being connected to the hardware. This allows the generation of various lifetime spectra at different configurations from one single measurement and, hence, a meaningful comparison in terms of analyzability and quality. Parallel processing and an integrated JavaScript based language provide convenient options to accelerate and automate time consuming processes such as lifetime spectra simulations.
Development, Simulation and Evaluation of Mobile Wireless Networks in Industrial Applications
(2023)
Manyindustrialautomationsolutionsusewirelesscommunicationandrelyontheavail-
ability and quality of the wireless channel. At the same time the wireless medium is
highly congested and guaranteeing the availability of wireless channels is becoming
increasingly difficult. In this work we show, that ad-hoc networking solutions can be
used to provide new communication channels and improve the performance of mobile
automation systems. These ad-hoc networking solutions describe different communi-
cation strategies, but avoid relying on network infrastructure by utilizing the Peer-to-
Peer (P2P) channel between communicating entities.
This work is a step towards the effective implementation of low-range communication
technologies(e.g. VisibleLightCommunication(VLC), radarcommunication, mmWave
communication) to the industrial application. Implementing infrastructure networks
with these technologies is unrealistic, since the low communication range would neces-
sitate a high number of Access Points (APs) to yield full coverage. However, ad-hoc
networks do not require any network infrastructure. In this work different ad-hoc net-
working solutions for the industrial use case are presented and tools and models for
their examination are proposed.
The main use case investigated in this work are Automated Guided Vehicles (AGVs)
for industrial applications. These mobile devices drive throughout the factory trans-
porting crates, goods or tools or assisting workers. In most implementations they must
exchange data with a Central Control Unit (CCU) and between one another. Predicting
if a certain communication technology is suitable for an application is very challenging
since the applications and the resulting requirements are very heterogeneous.
The proposed models and simulation tools enable the simulation of the complex inter-
action of mobile robotic clients and a wireless communication network. The goal is to
predict the characteristics of a networked AGV fleet.
Theproposedtoolswereusedtoimplement, testandexaminedifferentad-hocnetwork-
ing solutions for industrial applications using AGVs. These communication solutions
handle time-critical and delay-tolerant communication. Additionally a control method
for the AGVs is proposed, which optimizes the communication and in turn increases the
transport performance of the AGV fleet. Therefore, this work provides not only tools
for the further research of industrial ad-hoc system, but also first implementations of
ad-hoc systems which address many of the most pressing issues in industrial applica-
tions.
In der Arbeit wird ein neues Konzept für Fahrsimulator-Datenbasen vorgestellt. Der Anwender entwirft eine auf seine Fragestellung zugeschnittene Datenbasis mithilfe einer einfachen Skriptsprache. Das Straßennetzwerk wird auf einer topologischen Ebene repäsentiert. In jedem Simulationsschritt wird hieraus im Sichtbarkeitsbereich des Fahrers die geometrische Repäsentation berechnet. Die für den Fahrer unsichtbaren Teile des Straßenetzwerks können während der Simulation verändert werden. Diese Veränderungen können von der Route des Fahrers oder von den in der Simulation erhobenen Messerten abhängen. Zudem kann der Anwender das Straßennetzwerk interaktiv verändern. Das vorgestellte Konzept bietet zahlreiche Möglichkeiten zur Erzeugung reproduzierbarer Szenarien für Experimente in Fahrsimulatoren.
Eine fundierte Ausbildung ist in der interventionellen Kardiologie essentiell, um die teilweise komplexen Prozeduren erfolgreich und sicher durchführen zu können. Bei der perkutanen Koronarintervention (PCI) können u.a. Fehler beim Handling des Führungsdrahtes auftreten. So kann es einerseits zum Drahtverlust, andererseits zur distalen Koronargefäßperforation kommen. Daher ist es sinnvoll, die Technik des Katheterwechsels ohne inadäquate Drahtbewegung vor der ersten Intervention im Herzkatheterlabor am Modell zu trainieren. Für diesen Zweck wurde der DACH-BOSS-Simulator entwickelt, an dem der Katheterwechsel trainiert werden kann.
Die Validität des Modells wurde im Rahmen einer Studie bei 10 Medizinstudenten (S) sowie 10 angehenden interventionellen Kardiologen (F) untersucht. Jeder Teilnehmer führte eine Trainingsreihe bestehend aus 25 Prozeduren durch. Um den Trainingseffekt zu ermitteln, wurden die mittleren Punktzahlen der ersten 3 und der letzten 3 Prozeduren jedes Probanden in der Studenten- und Fortgeschrittenengruppe verglichen. Zur Bestimmung der Konstruktvalidität führte eine dritte Gruppe von 5 Experten (E, > 1000 PCIs) jeweils 3 Prozeduren durch. Ausmaß der Drahtbewegung und benötigte Zeit wurden mit Punkten bewertet und als Skills score dargestellt.
Bei den ersten 3 Prozeduren erzielten die Experten signifikant höhere Werte als die Studenten oder die Fortgeschrittenengruppe (E: 12,9±1,0; S: 7,1±2,6, p = 0,001;
F: 8,3±2,0; p = 0,001; Mann-Whitney-U). Anfänger und Fortgeschrittene durchliefen während der 25 Trainingsprozeduren eine Lernkurve; im Mittel verbesserte sich die Studentengruppe von 7,1±2,6 auf 12,2±2 (p=0,007, Wilcoxon) und die Fortgeschrittenengruppe von 8,3±2,0 auf 13,2±1,0 (p = 0,005, Wilcoxon).
Der DACH-BOSS-Simulator stellt somit ein valides Modell zum Training des Katheterwechsels ohne inadäquate Drahtbewegung dar. Angehende interventionelle Kardiologen können diesen wichtigen Schritt der Prozedur am Modell trainieren und erlernen. Ob die am Simulator erworbenen Fähigkeiten auf die klinische Prozedur übertragbar sind, muss in weiteren Studien untersucht werden.
Die Ausbildung im Herzkatheterlabor hat sich seit Etablierung der interventionellen Kardiologie kaum verändert. Wie auch in anderen Bereichen der Medizin steht schon seit einiger Zeit die Frage nach der ethischen Vertretbarkeit des „see one, do one, teach one“ Prinzips im Raum. Das Dilemma zwischen der Sicherheit des Patienten und einer adäquaten Ausbildung der Assistenten führte schon früh zum Ruf nach Simulationssystemen für die Medizin. Heute existieren Geräte, die die technischen Voraussetzungen erfüllen, um die komplizierte menschliche Physiologie und Pathophysiologie zu simulieren. Eine gründliche wissenschaftliche Evaluation dieser Systeme ist die notwendige Basis, um die Ausbildung in der Medizin zu verbessern. Zur Validation des PCI-Simulators CathI wurde an der Medizinischen Klinik der Universität Würzburg eine formative und summative Evaluation durchgeführt. Als erster Schritt wurden die Lerneffekte zweier randomisierter Laiengruppen, einer am CathI-System (n=7) und einer an einem Computerprogramm trainierten Gruppe(n=6) während eines viertägigen Trainings untersucht. Nach Ablauf des Trainings wurden die Ergebnisse zur Überprüfung der konkurrenten Validität und der Eignung des Systems als Assessment-Tool, mit einer Expertengruppe verglichen. Als letzten Schritt testete man die am CathI-System erworbenen interventionellen Fähigkeiten im Herzkatheterlabor. Hierbei wurde eine am CathI-System trainierte (n=6), mit einer computerbasiert trainierten Gruppe (n=6) während einer Intervention an einem pulsatilen röntgenfähigen Herzmodell verglichen. Die Evaluation erfolgte an Hand objektiver Standardparameter und mittels eines Fähigkeiten-Scores. Als eines der wichtigsten Ergebnisse konnte gezeigt werden, dass Probanden durch Training am CathI-Simulator besser auf kardiologische Grundfähigkeiten vorbereitet werden als eine vergleichbare Gruppe durch Ausbildung an einer Computersimulation. Das CathI-System führt zu einem risikoärmeren Verhalten im Herzkatheterlabor. Man kann daraus folgern, dass das CathI-System eine überlegene Ausbildungsmöglichkeit für die Vorbereitung auf eine Intervention am Patienten darstellt. Der CathI-Simulator ermöglicht es Experten, basierend auf ihren Fähigkeiten in der interventionellen Kardiologie auch die Simulation mit hoher Qualität zu absolvieren. Es kann konkurrente Validität für das Trainingsgerät angenommen werden. Dem Simulationssystem CathI ist es möglich, die Expertise des Anwenders realitätsnah einzuschätzen. Es kann spezifisch kognitive und motorische Fähigkeiten testen. Das Simulationssystem CathI erwies sich als effektives Werkzeug zur Schulung der diagnostischen Koronarangiographie und der PCI.
Nowadays, data centers are becoming increasingly dynamic due to the common adoption of virtualization technologies. Systems can scale their capacity on demand by growing and shrinking their resources dynamically based on the current load. However, the complexity and performance of modern data centers is influenced not only by the software architecture, middleware, and computing resources, but also by network virtualization, network protocols, network services, and configuration. The field of network virtualization is not as mature as server virtualization and there are multiple competing approaches and technologies. Performance modeling and prediction techniques provide a powerful tool to analyze the performance of modern data centers. However, given the wide variety of network virtualization approaches, no common approach exists for modeling and evaluating the performance of virtualized networks.
The performance community has proposed multiple formalisms and models for evaluating the performance of infrastructures based on different network virtualization technologies. The existing performance models can be divided into two main categories: coarse-grained analytical models and highly-detailed simulation models. Analytical performance models are normally defined at a high level of abstraction and thus they abstract many details of the real network and therefore have limited predictive power. On the other hand, simulation models are normally focused on a selected networking technology and take into account many specific performance influencing factors, resulting in detailed models that are tightly bound to a given technology, infrastructure setup, or to a given protocol stack.
Existing models are inflexible, that means, they provide a single solution method without providing means for the user to influence the solution accuracy and solution overhead. To allow for flexibility in the performance prediction, the user is required to build multiple different performance models obtaining multiple performance predictions. Each performance prediction may then have different focus, different performance metrics, prediction accuracy, and solving time.
The goal of this thesis is to develop a modeling approach that does not require the user to have experience in any of the applied performance modeling formalisms. The approach offers the flexibility in the modeling and analysis by balancing between: (a) generic character and low overhead of coarse-grained analytical models, and (b) the more detailed simulation models with higher prediction accuracy.
The contributions of this thesis intersect with technologies and research areas, such as: software engineering, model-driven software development, domain-specific modeling, performance modeling and prediction, networking and data center networks, network virtualization, Software-Defined Networking (SDN), Network Function Virtualization (NFV). The main contributions of this thesis compose the Descartes Network Infrastructure (DNI) approach and include:
• Novel modeling abstractions for virtualized network infrastructures. This includes two meta-models that define modeling languages for modeling data center network performance. The DNI and miniDNI meta-models provide means for representing network infrastructures at two different abstraction levels. Regardless of which variant of the DNI meta-model is used, the modeling language provides generic modeling elements allowing to describe the majority of existing and future network technologies, while at the same time abstracting factors that have low influence on the overall performance. I focus on SDN and NFV as examples of modern virtualization technologies.
• Network deployment meta-model—an interface between DNI and other meta- models that allows to define mapping between DNI and other descriptive models. The integration with other domain-specific models allows capturing behaviors that are not reflected in the DNI model, for example, software bottlenecks, server virtualization, and middleware overheads.
• Flexible model solving with model transformations. The transformations enable solving a DNI model by transforming it into a predictive model. The model transformations vary in size and complexity depending on the amount of data abstracted in the transformation process and provided to the solver. In this thesis, I contribute six transformations that transform DNI models into various predictive models based on the following modeling formalisms: (a) OMNeT++ simulation, (b) Queueing Petri Nets (QPNs), (c) Layered Queueing Networks (LQNs). For each of these formalisms, multiple predictive models are generated (e.g., models with different level of detail): (a) two for OMNeT++, (b) two for QPNs, (c) two for LQNs. Some predictive models can be solved using multiple alternative solvers resulting in up to ten different automated solving methods for a single DNI model.
• A model extraction method that supports the modeler in the modeling process by automatically prefilling the DNI model with the network traffic data. The contributed traffic profile abstraction and optimization method provides a trade-off by balancing between the size and the level of detail of the extracted profiles.
• A method for selecting feasible solving methods for a DNI model. The method proposes a set of solvers based on trade-off analysis characterizing each transformation with respect to various parameters such as its specific limitations, expected prediction accuracy, expected run-time, required resources in terms of CPU and memory consumption, and scalability.
• An evaluation of the approach in the context of two realistic systems. I evaluate the approach with focus on such factors like: prediction of network capacity and interface throughput, applicability, flexibility in trading-off between prediction accuracy and solving time. Despite not focusing on the maximization of the prediction accuracy, I demonstrate that in the majority of cases, the prediction error is low—up to 20% for uncalibrated models and up to 10% for calibrated models depending on the solving technique.
In summary, this thesis presents the first approach to flexible run-time performance prediction in data center networks, including network based on SDN. It provides ability to flexibly balance between performance prediction accuracy and solving overhead. The approach provides the following key benefits:
• It is possible to predict the impact of changes in the data center network on the performance. The changes include: changes in network topology, hardware configuration, traffic load, and applications deployment.
• DNI can successfully model and predict the performance of multiple different of network infrastructures including proactive SDN scenarios.
• The prediction process is flexible, that is, it provides balance between the granularity of the predictive models and the solving time. The decreased prediction accuracy is usually rewarded with savings of the solving time and consumption of resources required for solving.
• The users are enabled to conduct performance analysis using multiple different prediction methods without requiring the expertise and experience in each of the modeling formalisms.
The components of the DNI approach can be also applied to scenarios that are not considered in this thesis. The approach is generalizable and applicable for the following examples: (a) networks outside of data centers may be analyzed with DNI as long as the background traffic profile is known; (b) uncalibrated DNI models may serve as a basis for design-time performance analysis; (c) the method for extracting and compacting of traffic profiles may be used for other, non-network workloads as well.