TY - THES A1 - Menth, Michael T1 - Efficient admission control and routing for resilient communication networks T1 - Effiziente Zugangskontrolle und Verkehrslenkung für ausfallsichere Kommunikationsnetze N2 - This work is subdivided into two main areas: resilient admission control and resilient routing. The work gives an overview of the state of the art of quality of service mechanisms in communication networks and proposes a categorization of admission control (AC) methods. These approaches are investigated regarding performance, more precisely, regarding the potential resource utilization by dimensioning the capacity for a network with a given topology, traffic matrix, and a required flow blocking probability. In case of a failure, the affected traffic is rerouted over backup paths which increases the traffic rate on the respective links. To guarantee the effectiveness of admission control also in failure scenarios, the increased traffic rate must be taken into account for capacity dimensioning and leads to resilient AC. Capacity dimensioning is not feasible for existing networks with already given link capacities. For the application of resilient NAC in this case, the size of distributed AC budgets must be adapted according to the traffic matrix in such a way that the maximum blocking probability for all flows is minimized and that the capacity of all links is not exceeded by the admissible traffic rate in any failure scenario. Several algorithms for the solution of that problem are presented and compared regarding their efficiency and fairness. A prototype for resilient AC was implemented in the laboratories of Siemens AG in Munich within the scope of the project KING. Resilience requires additional capacity on the backup paths for failure scenarios. The amount of this backup capacity depends on the routing and can be minimized by routing optimization. New protection switching mechanisms are presented that deviate the traffic quickly around outage locations. They are simple and can be implemented, e.g, by MPLS technology. The Self-Protecting Multi-Path (SPM) is a multi-path consisting of disjoint partial paths. The traffic is distributed over all faultless partial paths according to an optimized load balancing function both in the working case and in failure scenarios. Performance studies show that the network topology and the traffic matrix also influence the amount of required backup capacity significantly. The example of the COST-239 network illustrates that conventional shortest path routing may need 50% more capacity than the optimized SPM if all single link and node failures are protected. N2 - Diese Arbeit gliedert sich in zwei Hauptteile: Ausfallsichere Zugangskontrolle und ausfallsichere Verkehrslenkung. Die Arbeit beschreibt zu Beginn den Stand der Technik für Dienstgütemechanismen in Kommunikationsnetzen und nimmt eine Kategorisierung von Zugangskontrollmethoden vor. Diese Ansätze werden hinsichtlich ihrer potentiellen Auslastung der Leitungskapaztitäten untersucht, indem die Kapazität für ein Netz mit gegebnener Topology, Verkehrsmatrix und geforderten Flussblockierwahrscheinlichkeiten dimensioniert wird. Im Falle eines Fehlers werden betroffene Flüsse automatisch über Ersatzpfade umgeleitet, was die Verkehrslast auf deren Übertragungsleitungen erhöht. Um die Wirksamkeit der Zugangskontrolle auch in Fehlerfällen zu gewährleisten, muss diese erhöhte Verkehrslast bei der Dimensionierung berücksichtigt werden, was zu einer ausfallsicheren Zugangskontrolle führt. Kapazitätsdimensionierung ist in bereits existierenden Netzen mit festen Linkbandbreiten nicht mehr möglich. Für die Anwendung von ausfallsicherer Zugangskontrolle in diesem Fall muss die Größe von verteilten Zugangskontrollbudgets gemäß der Verkehrsmatrix so angepasst werden, dass die maximale Blockierwahrscheinlichkeit aller Flüsse minimiert wird und die Kapazität aller Links in keinem Fehlerfall durch die zulässige Verkehrrate überschritten wird. Es werden unterschiedliche Algorithmen für die Lösung dieses Problems vorgeschlagen und hinsichtlich ihrer Effizienz und Fairness verglichen. Ein Prototyp für ausfallsichere Zugangskontrolle wurde im Rahmen des KING-Projektes in den Labors der Siemens AG in München implementiert. Ausfallsicherheit benötigt Zusatzkapazitäten auf den Ersatzpfaden für Fehlerfälle. Die Menge der Zusatzkapazität hängt von der Verkehrslenkung ab und kann durch Optimierung verringert werden. Es werden neue Mechanismen für Ersatzschaltungen vorgestellt, die den Verkehr schnell um Fehlerstellen im Netz herumleiten können. Sie zeichnen sich durch ihre Einfachheit aus und können z.B. in MPLS-Technologie implementiert werden. Der "Self-Protecting Multi-Path" (SPM) ist ein Multipfad, der aus disjunkten Teilpfaden besteht. Der Verkehr wird sowohl im Normalbetrieb als auch in Ausfallszenarien über alle intakten Teilpfade gemäß einer optimierten Lastverteilungsfunktion weitergeleitet. Leistungsuntersuchungen zeigen, dass die Menge an benötigter Zusatzkapazität deutlich von der Netztopologie und der Verkehrsmatrix abhängt. Das Beispiel des COST-239 Netzes veranschaulicht, dass herkömmliche Verkehrslenkung auf den kürzesten Wegen 50% mehr Kapazität benötigen kann als der optimierte SPM, wenn alle einzelnen Übertragungsleitungs- und Vermittlungsknotenausfälle geschützt werden. T3 - Würzburger Beiträge zur Leistungsbewertung Verteilter Systeme - 03/04 KW - Kommunikation KW - Netzwerk KW - Ausfallsicheres System KW - Kommunikationsnetze KW - Ausfallsicherheit KW - Zugangskontrolle KW - Verkehrslenkung KW - Communication Networks KW - Resilience KW - Admission Control KW - Routing Y1 - 2004 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-9949 ER - TY - JOUR A1 - Pinkert, Stefan A1 - Schultz, Joerg A1 - Reichardt, Joerg T1 - Protein Interaction Networks-More Than Mere Modules N2 - It is widely believed that the modular organization of cellular function is reflected in a modular structure of molecular networks. A common view is that a ‘‘module’’ in a network is a cohesively linked group of nodes, densely connected internally and sparsely interacting with the rest of the network. Many algorithms try to identify functional modules in protein-interaction networks (PIN) by searching for such cohesive groups of proteins. Here, we present an alternative approach independent of any prior definition of what actually constitutes a ‘‘module’’. In a self-consistent manner, proteins are grouped into ‘‘functional roles’’ if they interact in similar ways with other proteins according to their functional roles. Such grouping may well result in cohesive modules again, but only if the network structure actually supports this. We applied our method to the PIN from the Human Protein Reference Database (HPRD) and found that a representation of the network in terms of cohesive modules, at least on a global scale, does not optimally represent the network’s structure because it focuses on finding independent groups of proteins. In contrast, a decomposition into functional roles is able to depict the structure much better as it also takes into account the interdependencies between roles and even allows groupings based on the absence of interactions between proteins in the same functional role. This, for example, is the case for transmembrane proteins, which could never be recognized as a cohesive group of nodes in a PIN. When mapping experimental methods onto the groups, we identified profound differences in the coverage suggesting that our method is able to capture experimental bias in the data, too. For example yeast-two-hybrid data were highly overrepresented in one particular group. Thus, there is more structure in protein-interaction networks than cohesive modules alone and we believe this finding can significantly improve automated function prediction algorithms. KW - Netzwerk KW - protein-interaction networks Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-68426 ER - TY - THES A1 - Englert, Anja T1 - Chaossynchronisation in Netzwerken mit zeitverzögerten Kopplungen T1 - Chaos synchronization in networks with time-delayed couplings N2 - Die vorliegende Arbeit beschäftigt sich mit der Chaossynchronisation in Netzwerken mit zeitverzögerten Kopplungen. Ein Netzwerk chaotischer Einheiten kann isochron und vollständig synchronisieren, auch wenn der Austausch der Signale einer oder mehreren Verzögerungszeiten unterliegt. In einem Netzwerk identischer Einheiten hat sich als Stabilitätsanalyse die Methode der Master Stability Funktion von Pecora und Carroll etabliert. Diese entspricht für ein Netzwerk gekoppelter iterativer Bernoulli-Abbildungen Polynomen vom Grade der größten Verzögerungszeit. Das Stabilitätsproblem reduziert sich somit auf die Untersuchung der Nullstellen dieser Polynome hinsichtlich ihrer Lage bezüglich des Einheitskreises. Eine solche Untersuchung kann beispielsweise numerisch mit dem Schur-Cohn-Theorem erfolgen, doch auch analytische Ergebnisse lassen sich erzielen. In der vorliegenden Arbeit werden Bernoulli-Netzwerke mit einer oder mehreren zeitverzögerten Kopplungen und/oder Rückkopplungen untersucht. Hierbei werden Aussagen über Teile des Stabilitätsgebietes getroffen, welche unabhängig von den Verzögerungszeiten sind. Des Weiteren werden Aussagen zu Systemen gemacht, welche sehr große Verzögerungszeiten aufweisen. Insbesondere wird gezeigt, dass in einem Bernoulli-Netzwerk keine stabile Chaossynchronisation möglich ist, wenn die vorhandene Verzögerungszeit sehr viel größer ist als die Zeitskala der lokalen Dynamik, bzw. der Lyapunovzeit. Außerdem wird in bestimmten Systemen mit mehreren Verzögerungszeiten anhand von Symmetriebetrachtungen stabile Chaossynchronisation ausgeschlossen, wenn die Verzögerungszeiten in bestimmten Verhältnissen zueinander stehen. So ist in einem doppelt bidirektional gekoppeltem Paar ohne Rückkopplung und mit zwei verschiedenen Verzögerungszeiten stabile Chaossynchronisation nicht möglich, wenn die Verzögerungszeiten in einem Verhältnis von teilerfremden ungeraden ganzen Zahlen zueinander stehen. Es kann zudem Chaossynchronisation ausgeschlossen werden, wenn in einem bipartiten Netzwerk mit zwei großen Verzögerungszeiten zwischen diesen eine kleine Differenz herrscht. Schließlich wird ein selbstkonsistentes Argument vorgestellt, das das Auftreten von Chaossynchronisation durch die Mischung der Signale der einzelnen Einheiten interpretiert und sich unter anderem auf die Teilerfremdheit der Zyklen eines Netzes stützt. Abschließend wird untersucht, ob einige der durch die Bernoulli-Netzwerke gefundenen Ergebnisse sich auf andere chaotische Netzwerke übertragen lassen. Hervorzuheben ist die sehr gute Übereinstimmung der Ergebnisse eines Bernoulli-Netzwerkes mit den Ergebnissen eines gleichartigen Netzwerkes gekoppelter Halbleiterlasergleichungen, sowie die Übereinstimmungen mit experimentellen Ergebnissen eines Systems von Halbleiterlasern. N2 - A network consisting of chaotic units can exhibit isochronal and complete synchronisation even if the signals need certain delay times from one unit to another. A common method to analyze the stability of such a synchronization is the master stability function by Pecora and Carroll. For a network of coupled iterative Bernoulli maps the master stability function reduces to the solution of polynoms with degree of the largest delay time. Therefore analyzing the stability means analyzing the roots of these polynomials concerning their value with respect to the unit circle. This can be done numerically by using the Schur-Cohn theorem, but analytic results are possible, as well. In this work Bernoulli networks with one or more time-delayed couplings and/or self-feedbacks are analyzed. Parts of the stability region which are independent of the value of the delay times have been found. Furthermore systems with large time delays have been analyzed. There is no stable chaos synchronization if the delay time is much larger than the internal time scale or the Lyapunov time, respectively. Stable synchronization can be excluded for certain systems with several delay times due to symmetry arguments concerning the ratios between the delay times. For example, a pair which is bidirectionally coupled with two delay times cannot exhibit stable chaos synchronization if these two delay times are in a ratio of relatively prime, odd numbers. Furthermore, chaos synchronization can be excluded for a bipartite network in which two large delay times differ by a small amount. Finally, a self consistent argument is presented which interprets chaos synchronization as a result of mixing signals of each unit in the network and which is supported by results of non-negative matrices concerning relatively prime cycles in a network. The results of the Bernoulli networks are tested on several chaotic networks. There is a very good agreement of the analytic results of Bernoulli networks with networks of coupled semiconductor laser equations as well as a very good agreement with real life experiments of semiconductor laser systems. KW - Chaos KW - Chaostheorie KW - Synchronisierung KW - Netzwerk KW - Chaos KW - Synchronization KW - Network Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-65454 ER - TY - JOUR A1 - Reichardt, Joerg A1 - Alamino, Roberto A1 - Saad, David T1 - The interplay between microscopic and mesoscopic structures in complex networks N2 - Understanding a complex network’s structure holds the key to understanding its function. The physics community has contributed a multitude of methods and analyses to this cross-disciplinary endeavor. Structural features exist on both the microscopic level, resulting from differences between single node properties, and the mesoscopic level resulting from properties shared by groups of nodes. Disentangling the determinants of network structure on these different scales has remained a major, and so far unsolved, challenge. Here we show how multiscale generative probabilistic exponential random graph models combined with efficient, distributive message-passing inference techniques can be used to achieve this separation of scales, leading to improved detection accuracy of latent classes as demonstrated on benchmark problems. It sheds new light on the statistical significance of motif-distributions in neural networks and improves the link-prediction accuracy as exemplified for gene-disease associations in the highly consequential Online Mendelian Inheritance in Man database. KW - Netzwerk KW - Mesoskopisches System Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-68993 ER - TY - THES A1 - Heiligenthal, Sven T1 - Strong and Weak Chaos in Networks of Semiconductor Lasers with Time-Delayed Couplings T1 - Starkes und Schwaches Chaos in Netzwerken aus Halbleiterlasern mit zeitverzögerten Kopplungen N2 - This thesis deals with the chaotic dynamics of nonlinear networks consisting of semiconductor lasers which have time-delayed self-feedbacks or mutual couplings. These semiconductor lasers are simulated numerically by the Lang-Kobayashi equations. The central issue is how the chaoticity of the lasers, measured by the maximal Lyapunov exponent, changes when the delay time is changed. It is analysed how this change of chaoticity with increasing delay time depends on the reflectivity of the mirror for the self-feedback or the strength of the mutal coupling, respectively. The consequences of the different types of chaos for the effect of chaos synchronization of mutually coupled semiconductor lasers are deduced and discussed. At the beginning of this thesis, the master stability formalism for the stability analysis of nonlinear networks with delay is explained. After the description of the Lang-Kobayashi equations and their linearizations as a model for the numerical simulation of semiconductor lasers with time-delayed couplings, the artificial sub-Lyapunov exponent $\lambda_{0}$ is introduced. It is explained how the sign of the sub-Lyapunov exponent can be determined by experiments. The notions of "strong chaos" and "weak chaos" are introduced and distinguished by their different scaling properties of the maximal Lyapunov exponent with the delay time. The sign of the sub-Lyapunov exponent $\lambda_{0}$ is shown to determine the occurence of strong or weak chaos. The transition sequence "weak to strong chaos and back to weak chaos" upon monotonically increasing the coupling strength $\sigma$ of a single laser's self-feedback is shown for numerical calculations of the Lang-Kobayashi equations. At the transition between strong and weak chaos, the sub-Lyapunov exponent vanishes, $\lambda_{0}=0$, resulting in a special scaling behaviour of the maximal Lyapunov exponent with the delay time. Transitions between strong and weak chaos by changing $\sigma$ can also be found for the Rössler and Lorenz dynamics. The connection between the sub-Lyapunov exponent and the time-dependent eigenvalues of the Jacobian for the internal laser dynamics is analysed. Counterintuitively, the difference between strong and weak chaos is not directly visible from the trajectory although the difference of the trajectories induces the transitions between the two types of chaos. In addition, it is shown that a linear measure like the auto-correlation function cannot unambiguously reveal the difference between strong and weak chaos either. Although the auto-correlations after one delay time are significantly higher for weak chaos than for strong chaos, it is not possible to detect a qualitative difference. If two time-scale separated self-feedbacks are present, the shorter feedback has to be taken into account for the definition of a new sub-Lyapunov exponent $\lambda_{0,s}$, which in this case determines the occurence of strong or weak chaos. If the two self-feedbacks have comparable delay times, the sub-Lyapunov exponent $\lambda_{0}$ remains the criterion for strong or weak chaos. It is shown that the sub-Lyapunov exponent scales with the square root of the effective pump current $\sqrt{p-1}$, both in its magnitude and in the position of the critical coupling strengths. For networks with several distinct sub-Lyapunov exponents, it is shown that the maximal sub-Lyapunov exponent of the network determines whether the network's maximal Lyapunov exponent scales strongly or weakly with increasing delay time. As a consequence, complete synchronization of a network is excluded for arbitrary networks which contain at least one strongly chaotic laser. Furthermore, it is demonstrated that the sub-Lyapunov exponent of a driven laser depends on the number of the incoherently superimposed inputs from unsynchronized input lasers. For networks of delay-coupled lasers operating in weak chaos, the condition $|\gamma_{2}|<\mathrm{e}^{-\lambda_{\mathrm{m}}\,\tau}$ for stable chaos synchronization is deduced using the master stability formalism. Hence, synchronization of any network depends only on the properties of a single laser with self-feedback and the eigenvalue gap of the coupling matrix. The characteristics of the master stability function for the Lang-Kobayashi dynamics is described, and consequently, the master stability function is refined to allow for precise practical prediction of synchronization. The prediction of synchronization with the master stability function is demonstrated for bidirectional and unidirectional networks. Furthermore, the master stability function is extended for two distinct delay times. Finally, symmetries and resonances for certain values of the ratio of the delay times are shown for the master stability function of the Lang-Kobyashi equations. N2 - Die vorliegende Arbeit beschäftigt sich mit der chaotischen Dynamik von nichtlinearen Netzwerken, die aus Halbleiterlasern bestehen, welche ihrerseits eine zeitverzögerte Selbstrückkopplung oder gegenseitige Kopplungen aufweisen. Diese Halbleiterlaser werden numerisch mit Hilfe der Lang-Kobayashi-Gleichungen simuliert. Die zentrale Fragestellung ist dabei, wie sich die Chaotizität der Laser, die in Form des größten Lyanpunov-Exponenten gemessen wird, mit der Verzögerungszeit ändert. Des Weiteren wird untersucht, wie diese Veränderung der Chaotizität bei Zunahme der zeitlichen Verzögerung entweder von der Reflektivität des Spiegels der Selbstrückkopplung oder aber von der Stärke der gegenseitigen Kopplungen abhängt. Die Folgen der unterschiedlichen Arten von Chaos für den Effekt der Chaossynchronisation gegenseitig gekoppelter Halbleiterlaser werden hergeleitet und diskutiert. Zu Beginn dieser Arbeit wird zunächst der Master-Stability-Formalismus für die Stabilitätsanalyse von nichtlinearen Netzwerken mit Zeitverzögerung erklärt. Nach der Beschreibung der Lang-Kobayshi-Gleichungen und deren Linearisierungen als Modell für die numerische Simulation von Halbleiterlasern mit zeitverzögerten Kopplungen wird der künstliche Sub-Lyapunov-Exponent $\lambda_{0}$ eingeführt. Es wird erläutert, wie das Vorzeichen des Sub-Lyapunov-Exponenten in Experimenten bestimmt werden kann. Die Termini "starkes Chaos" und "schwaches Chaos" werden eingeführt. Diese werden auf Basis der unterschiedlichen Skalierungseigenschaften des größten Lyapunov-Exponenten mit der Verzögerungszeit unterschieden. Es wird gezeigt, dass das Vorzeichen des Sub-Lyapunov-Exponenten $\lambda_{0}$ das Auftreten von starkem oder schwachem Chaos bestimmt. Die Übergangssequenz "schwaches zu starkem Chaos und wieder zurück zu schwachem Chaos" bei monotoner Erhöhung der Kopplungsstärke $\sigma$ eines einzelnen Lasers mit Selbstrückkopplung wird für numerische Berechnungen der Lang-Kobayashi-Gleichungen dargestellt. Beim Übergang zwischen starkem und schwachem Chaos verschwindet der Sub-Lyapunov-Exponent, $\lambda_{0}=0$, was zu einem speziellen Skalierungsverhalten des größten Lyapunov-Exponenten mit der Verzögerungszeit führt. Übergänge zwischen starkem und schwachem Chaos durch Änderung von $\sigma$ können auch für die Rössler- und Lorenz-Dynamik gefunden werden. Der Zusammenhang zwischen dem Sub-Lyapunov-Exponenten und den zeitabhängigen Eigenwerten der Jacobi-Matrix der internen Laserdynamik wird analysiert. Anders als intuitiv erwartet, ist der Unterschied zwischen starkem und schwachem Chaos nicht unmittelbar anhand der Trajektorie ersichtlich, obwohl der Unterschied der Trajektorien die Übergänge zwischen den beiden Chaosarten induziert. Darüber hinaus wird gezeigt, dass ein lineares Maß wie die Autokorrelationsfunktion den Unterschied zwischen starkem und schwachem Chaos auch nicht eindeutig aufzeigen kann. Obwohl die um eine Verzögerungszeit verschobenen Autokorrelationen für schwaches Chaos signifikant größer als für starkes Chaos sind, ist es nicht möglich, einen qualitativen Unterschied festzustellen. Bei Vorliegen zweier zeitskalenseparierter Selbstrückkopplungen muss die kürzere Rückkopplung bei der Definition eines neuen Sub-Lyapunov-Exponenten $\lambda_{0,s}$ berücksichtigt werden, welcher dann das Auftreten von starkem oder schwachem Chaos bestimmt. Falls die beiden Selbstrückkopplungen vergleichbare Verzögerungszeiten aufweisen, so ist der Sub-Lyapunov-Exponent $\lambda_{0}$ nach wie vor das Kriterium für starkes oder schwaches Chaos. Es wird gezeigt, dass der Sub-Lyapunov-Exponent mit der Quadratwurzel des effektiven Pumpstroms $\sqrt{p-1}$ skaliert, und zwar sowohl bezüglich seiner Größe als auch bezüglich der Position der kritischen Kopplungsstärken. Für Netzwerke mit mehreren unterschiedlichen Sub-Lyapunov-Exponenten wird gezeigt, dass der größte Sub-Lyapunov-Exponent des Netzwerks bestimmt, ob der größte Lyapunov-Exponent des Netzwerks mit zunehmender Verzögerungszeit stark oder schwach skaliert. Folglich ist vollständige Synchronisation eines Netzwerks für beliebige Netzwerke, die wenigstens einen stark chaotischen Laser beinhalten, ausgeschlossen. Zudem wird gezeigt, dass der Sub-Lyapunov-Exponent eines getriebenen Lasers von der Anzahl der inkohärent superponierten Eingangssignale der nicht synchronisierten Eingangslaser abhängt. Für Netzwerke aus zeitverzögert gekoppelten Lasern, die im schwachen Chaos betrieben werden, wird die Bedingung $|\gamma_{2}|<\mathrm{e}^{-\lambda_{\mathrm{m}}\,\tau}$ für stabile Chaossynchronisation mit Hilfe des Master-Stability-Formalismus hergeleitet. Folglich hängt die Synchronisation eines jeden Netzwerks nur von den Eigenschaften eines einzelnen Lasers mit Selbstrückkopplung und von der Eigenwertlücke der Kopplungsmatrix ab. Die spezifischen Eigenschaften der Master-Stability-Funktion der Lang-Kobayashi-Dynamik werden beschrieben, und dementsprechend wird die Master-Stability-Funktion angepasst, um eine präzise praktische Vorhersage von Synchronisation zu ermöglichen. Die Vorhersage von Synchronisation mittels der Master-Stability-Funktion wird für bidirektionale und unidirektionale Netzwerke demonstriert. Ferner wird die Master-Stability-Funktion für den Fall zweier unterschiedlicher Verzögerungszeiten erweitert. Schließlich werden Symmetrien und Resonanzen bei bestimmten Werten des Verhältnisses der Verzögerungszeiten für die Master-Stability-Funktion der Lang-Kobyashi-Gleichungen aufgezeigt. KW - Halbleiterlaser KW - Nichtlineares dynamisches System KW - Chaotisches System KW - Nonlinear Dynamics KW - Chaos KW - Synchronization KW - Networks KW - Delay-Differential Equations KW - Semiconductor Lasers KW - Simulation KW - Chaostheorie KW - Nichtlineares System KW - Dynamisches System KW - Synchronisierung KW - Netzwerk Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-77958 ER - TY - THES A1 - Haas, Katrin T1 - Charakterisierung der Versorgungsqualität beim akuten ST-Hebungsmyokardinfarkt im Herzinfarktnetz Mainfranken zu Beginn der Netzwerkbildung T1 - Characterization of quality of care in patients with acute ST-elevation myocardial infarction treated in the newly formed myocardial infarction network in Mainfranken N2 - Ziele: Evaluierung der Versorgungslage von Patienten mit akutem ST-Hebungsinfarkt im 2007 neu gegründeten Herzinfarktnetz Mainfranken und Vergleich von Ist-Zustand und Leitlinienempfehlungen. Analyse der Behandlungszeiten und Identifizierung von Verbesserungsmöglichkeiten im Netzwerk. Darüber hinaus sollte untersucht werden, ob Feedbackveranstaltungen als Qualitätsmanagement-Intervention die Behandlungszeiten im Laufe des Untersuchungszeitraumes verbessern. Methoden: Von Oktober 2007 bis Dezember 2008 wurden verschiedene Basisdaten sowie die Daten der Rettungs- und Therapiekette von Patienten mit akutem ST-Hebungsinfarkt (Symptomdauer <12h), die in der Medizinischen Klinik und Poliklinik I des Universitätsklinikums Würzburg mit dem Ziel einer PCI akut-koronarangiographiert wurden, im Rahmen der multizentrischen FiTT-STEMI-Studie prospektiv erfasst. Im Untersuchungszeitraum wurden die analysierten Daten alle drei Monate im Rahmen einer Feedbackveranstaltung allen Beteiligten der Rettungs- und Therapiekette demonstriert. Ergebnisse: Im genannten Zeitraum konnten 188 Patienten in die Studie eingeschlossen werden (19% weiblich, 81% männlich), wovon 85% eine PCI im Anschluss an die Koronarangiographie erhielten. Das mittlere Alter betrug 62±12 Jahre, 15% der Patienten waren über 75 Jahre. Der mittlere TIMI-Risk-Score lag bei 3,7 Punkten. Die intrahospitale Letalität lag bei 6,9%. Die Prähospitalzeit betrug im Median 120min; es ergab sich keine signifikante Veränderung über die Quartale. Ein Sekundärtransport bzw. ein prähospitaler Kontakt zum Hausarzt verlängerten die Prähospitalzeit im Median um 173 bzw. 57min. Die Door-to-balloon(D2B)-Zeit betrug im Gesamtuntersuchungszeitraum im Median 76min, nur 33% der Patienten erreichten eine leitliniengerechte D2B-Zeit von <60min. Die meiste Zeit innerhalb der D2B-Zeit entfiel auf die Zeit vom Erreichen der PCI-Klinik bis zum Herzkatheterlabor (Door-to-cath-Zeit). Die Verkürzung der D2B-Zeit von 80min im ersten auf 70min im fünften Quartal war statistisch nicht signifikant. Die Contact-to-balloon(C2B)-Zeit betrug im Gesamtuntersuchungszeitraum im Median 139min und konnte innerhalb des Untersuchungszeitraums statistisch signifikant von 164min im ersten auf 112min im fünften Quartal gesenkt werden. Dadurch konnte die Anzahl der leitliniengerecht behandelten Patienten (C2B-Zeit<120min) von 15 auf 58% im Gesamtkollektiv bzw. 24 auf 63% bei Patienten mit Primärtransport erhöht werden. Schlussfolgerung: Das Patientenkollektiv des Herzinfarktnetzes Mainfranken entsprach bezüglich der Basischarakteristika dem anderer nationaler und internationaler Register. Da eine PCI innerhalb von 120min nach medizinischem Erstkontakt als bestmögliche Therapie beim ST-Hebungsinfarkt angesehen wird und trotz der Verbesserung im Untersuchungszeitraum im fünften Quartal nur 58% der Patienten eine PCI in diesem Zeitintervall erhielten, sollten alle Anstrengungen unternommen werden die D2B- und C2B-Zeiten im Herzinfarktnetz weiter zu verkürzen. Hierfür sollte eine Direktübergabe im Herzkatheterlabor ermöglicht werden, da die Door-to-cath-Zeit in Würzburg im Median 36 bis 48min in Anspruch nahm. Darüber hinaus sollte durch Aufklärungs- und Informationsarbeit sowie Schulungen für Rettungspersonal und Patienten versucht werden einen Sekundärtransport oder Hausarztkontakt sowie ein verzögertes Alarmieren des Rettungsdienstes zu vermeiden, da sich hierdurch die Prähospitalzeit massiv verlängerte. Inwieweit die im Untersuchungszeitraum gezeigte Verkürzung der Zeiten mit den durchgeführten Feedbackveranstaltungen zusammenhängt bleibt ungewiss, da die Veränderung auch durch die Etablierung des neu gegründeten Netzwerks an sich bedingt sein kann. N2 - Objectives: The aim was to analyze the quality of care in patients with acute myocardial infarction treated in the newly formed myocardial infarction network Mainfranken, to compare the as-is state with the guideline-recommendations and to identify improvement opportunities to shorten the treatment times. Furthermore the effect of data feedback on treatment times was assessed. Methods: As a part of the FiTT-STEMI-project the data of patients with acute myocardial infarction (symptom onset <12h) undergoing coronary angiography with the intention to perform primary PCI in the Department of Internal Medicine I of the University Hospital Würzburg were collected from October 2007 until December 2008. Quarterly feedback was performed for all participants of the hospital and the rescue services. Results: 188 patients were included (19% female, 81% male). In 85% PCI was performed after coronary angiography. The mean age was 62±12 years, 15% were older than 75 years. The average TIMI-Risk-Score was 3,7 points and the in-hospital mortality 6,9%. Median 120min passed by until a patient reached a PCI-capable hospital and there was no significant decrease in that time during the study period. Secondary transport and a consultation of a general practicioner extended this time for about 173 and 57min respectively. Median door-to-balloon(D2B)-time was 76min for the whole period, only 33% of all patients were treated within the guideline-recommended time of <60min. Within the D2B-time the largest time component was the door-to-cath time (=time interval from arrival in a PCI-capable hospital to arrival at the catheterization laboratory). There was a non-significant decrease in D2B-time from 80min in the first quarter to 70min in the fifth quarter. The median contact-to-balloon(C2B)-time was 139min and decreased signficantly from 164min in the first quarter to 112min in the fifth quarter. Thereby the proportion of patients who were treated within the recommended C2B-Zeit<120min increased from 15 to 58% regarding all patients and from 24 to 63% regarding only patients with primary transport. Conclusions: Primary PCI <120min after first medical contact is the preferred therapy in acute myocardial infarction and despite the improvements during the study period only 58% of our patients were treated within this time interval. So all efforts should be made to continue reducing treatment times in the STEMI-network in Mainfranken. Bypassing the emergency department could save 36 to 48min (median door-to-cath-time). Because secondary transport, consultation of a general practicioner and a delayed information of the emergency medical sevices clearly extended the time from symtpom onset to presentation at the PCI-centre, there should be education and information sessions to reduce these times. To which extend our improvements in treatment times are due to the feedback intervention remains hard to tell. The improvements could be due to the newly formed network itself. KW - Herzinfarkt KW - Netzwerk KW - Stemi KW - FiTT-STEMI KW - feedback KW - Contact-to-balloon KW - FiTT-STEMI KW - feedback KW - Contact-to-balloon KW - myocardial infarction Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-80388 ER - TY - THES A1 - Zeeb, Steffen T1 - Chaos Synchronization in Time-Delayed Coupled Networks T1 - Chaos Synchronisation in zeitverzögert gekoppelten Netzwerken N2 - Die vorliegende Arbeit befasst sich mit der Untersuchung verschiedener Aspekte der Chaos Synchronisation von Netzwerken mit zeitverzögerten Kopplungen. Ein Netzwerk aus identischen chaotischen Einheiten kann vollständig und isochron synchronisieren, auch wenn der Signalaustausch einer starken Zeitverzögerung unterliegt. Im ersten Teil der Arbeit werden Systeme mit mehreren Zeitverzögerungen betrachtet. Dabei erstrecken sich die verschiedenen Zeitverzögerungen jeweils über einen weiten Bereich an Größenordnungen. Es wird gezeigt, dass diese Zeitverzögerungen im Lyapunov Spektrum des Systems auftreten; verschiedene Teile des Spektrums skalieren jeweils mit einer der Zeitverzögerungen. Anhand des Skalierungsverhaltens des maximalen Lyapunov Exponenten können verschiedene Arten von Chaos definiert werden. Diese bestimmen die Synchronisationseigenschaften eines Netzwerkes und werden insbesondere wichtig bei hierarchischen Netzwerken, d.h. bei Netzwerken bestehend aus Unternetzwerken, bei welchen Signale innerhalb des Unternetzwerkes auf einer anderen Zeitskala ausgetauscht werden als zwischen verschiedenen Unternetzwerken. Für ein solches System kann sowohl vollständige als auch Unternetzwerksynchronisation auftreten. Skaliert der maximale Lyapunov Exponent mit der kürzeren Zeitverzögerung des Unternetzwerkes dann können nur die Elemente des Unternetzwerkes synchronisieren. Skaliert der maximale Lyapunov Exponent allerdings mit der längeren Zeitverzögerung kann das komplette Netzwerk vollständig synchronisieren. Dies wird analytisch für die Bernoulli Abbildung und numerisch für die Zelt Abbildung gezeigt. Der zweite Teil befasst sich mit der Attraktordimension und ihrer Änderung am Übergang zur vollständiger Chaos Synchronisation. Aus dem Lyapunov Spektrum des Systems wird die Kaplan-Yorke Dimension berechnet und es wird gezeigt, dass diese am Synchronisationsübergang aus physikalischen Gründen einen Sprung haben muss. Aus der Zeitreihe der Dynamik des Systems wird die Korrelationsdimension bestimmt und anschließend mit der Kaplan-Yorke Dimension verglichen. Für Bernoulli Systeme finden wir in der Tat eine Diskontinuität in der Korrelationsdimension. Die Stärke des Sprungs der Kaplan-Yorke Dimension wird für ein Netzwerk aus Bernoulli Einheiten als Funktion der Netzwerkgröße berechnet. Desweiteren wird das Skalierungsverhalten der Kaplan-Yorke Dimension sowie der Kolmogoroventropie in Abhängigkeit der Systemgröße und der Zeitverzögerung untersucht. Zu guter Letzt wird eine Verstimmung der Einheiten, d.h., ein "parameter mismatch", eingeführt und analysiert wie diese das Verhalten der Attraktordimension ändert. Im dritten und letzten Teil wird die lineare Antwort eines synchronisierten chaotischen Systems auf eine kleine externe Störung untersucht. Diese Störung bewirkt eine Abweichung der Einheiten vom perfekt synchronisierten Zustand. Die Verteilung der Abstände zwischen zwei Einheiten dient als Maß für die lineare Antwort des Systems. Diese Verteilung sowie ihre Momente werden numerisch und für Spezialfälle auch analytisch berechnet. Wir finden, dass im synchronisierten Zustand, in Abhängigkeit der Parameter des Systems, Verteilungen auftreten können die einem Potenzgesetz gehorchen und dessen Momente divergieren. Als weiteres Maß für die lineare Antwort wird die Bit Error Rate einer übermittelten binären Nachricht verwendet. The Bit Error Rate ist durch ein Integral über die Verteilung der Abstände gegeben. In dieser Arbeit wird sie vorwiegend numerisch untersucht und wir finden ein komplexes, nicht monotones Verhalten als Funktion der Kopplungsstärke. Für Spezialfälle weist die Bit Error Rate eine "devil's staircase" auf, welche mit einer fraktalen Struktur in der Verteilung der Abstände verknüpft ist. Die lineare Antwort des Systems auf eine harmonische Störung wird ebenfalls untersucht. Es treten Resonanzen auf, welche in Abhängigkeit von der Zeitverzögerung unterdrückt oder verstärkt werden. Eine bi-direktional gekoppelte Kette aus drei Einheiten kann eine Störung vollständig heraus filtern, so dass die Bit Error Rate und auch das zweite Moment verschwinden. N2 - In this thesis we study various aspects of chaos synchronization of time-delayed coupled chaotic maps. A network of identical nonlinear units interacting by time-delayed couplings can synchronize to a common chaotic trajectory. Even for large delay times the system can completely synchronize without any time shift. In the first part we study chaotic systems with multiple time delays that range over several orders of magnitude. We show that these time scales emerge in the Lyapunov spectrum: Different parts of the spectrum scale with the different delays. We define various types of chaos depending on the scaling of the maximum exponent. The type of chaos determines the synchronization ability of coupled networks. This is, in particular, relevant for the synchronization properties of networks of networks where time delays within a subnetwork are shorter than the corresponding time delays between the different subnetworks. If the maximum Lyapunov exponent scales with the short intra-network delay, only the elements within a subnetwork can synchronize. If, however, the maximum Lyapunov exponent scales with the long inter-network connection, complete synchronization of all elements is possible. The results are illustrated analytically for Bernoulli maps and numerically for tent maps. In the second part the attractor dimension at the transition to complete chaos synchronization is investigated. In particular, we determine the Kaplan-Yorke dimension from the spectrum of Lyapunov exponents for iterated maps. We argue that the Kaplan-Yorke dimension must be discontinuous at the transition and compare it to the correlation dimension. For a system of Bernoulli maps we indeed find a jump in the correlation dimension. The magnitude of the discontinuity in the Kaplan-Yorke dimension is calculated for networks of Bernoulli units as a function of the network size. Furthermore the scaling of the Kaplan-Yorke dimension as well as of the Kolmogorov entropy with system size and time delay is investigated. Finally, we study the change in the attractor dimension for systems with parameter mismatch. In the third and last part the linear response of synchronized chaotic systems to small external perturbations is studied. The distribution of the distances from the synchronization manifold, i.e., the deviations between two synchronized chaotic units due to external perturbations on the transmitted signal, is used as a measure of the linear response. It is calculated numerically and, for some special cases, analytically. Depending on the model parameters this distribution has power law tails in the region of synchronization leading to diverging moments. The linear response is also quantified by means of the bit error rate of a transmitted binary message which perturbs the synchronized system. The bit error rate is given by an integral over the distribution of distances and is studied numerically for Bernoulli, tent and logistic maps. It displays a complex nonmonotonic behavior in the region of synchronization. For special cases the distribution of distances has a fractal structure leading to a devil's staircase for the bit error rate as a function of coupling strength. The response to small harmonic perturbations shows resonances related to coupling and feedback delay times. A bi-directionally coupled chain of three units can completely filter out the perturbation. Thus the second moment and the bit error rate become zero. KW - Chaostheorie KW - Synchronisierung KW - Netzwerk KW - Nonlinear Dynamics KW - Chaos KW - Synchronization KW - Networks KW - Chaotisches System KW - Attraktor KW - Dynamisches System KW - Nichtlineares System Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-78966 ER - TY - THES A1 - Rüppel, Frederike T1 - Accessibility of Bilinear Interconnected Systems T1 - Akzessibilität von bilinear vernetzten Systemen N2 - The subject of this thesis is the controllability of interconnected linear systems, where the interconnection parameter are the control variables. The study of accessibility and controllability of bilinear systems is closely related to their system Lie algebra. In 1976, Brockett classified all possible system Lie algebras of linear single-input, single-output (SISO) systems under time-varying output feedback. Here, Brockett's results are generalized to networks of linear systems, where time-varying output feedback is applied according to the interconnection structure of the network. First, networks of linear SISO systems are studied and it is assumed that all interconnections are independently controllable. By calculating the system Lie algebra it is shown that accessibility of the controlled network is equivalent to the strong connectedness of the underlying interconnection graph in case the network has at least three subsystems. Networks with two subsystems are not captured by these proofs. Thus, we give results for this particular case under additional assumption either on the graph structure or on the dynamics of the node systems, which are both not necessary. Additionally, the system Lie algebra is studied in case the interconnection graph is not strongly connected. Then, we show how to adapt the ideas of proof to networks of multi-input, multi-output (MIMO) systems. We generalize results for the system Lie algebra on networks of MIMO systems both under output feedback and under restricted output feedback. Moreover, the case with generalized interconnections is studied, i.e. parallel edges and linear dependencies in the interconnection controls are allowed. The new setting demands to distinguish between homogeneous and heterogeneous networks. With this new setting only sufficient conditions can be found to guarantee accessibility of the controlled network. As an example, networks with Toeplitz interconnection structure are studied. N2 - Gegenstand der Doktorarbeit ist die Steuerbarkeit vernetzter linearer Systeme, in denen Kopplungsparamter die Kontrollvariablen bilden. In 1976 hat Brockett alle möglichen System Lie Algebren klassifiziert, die bei einem single-input, single-output (SISO) System unter zeitvarianter Ausgangsrückführung auftreten können. Dieses Ergebnis wird auf Netzwerke von linearen Systemen, die durch zeitvariante Ausgangsrückführung miteinander gekoppelt sind, verallgemeinert. Als erstes werden hierfür Netzwerke von SISO Systemen unter der Annahme betrachtet, dass alle Kopplungen unabhängig voneinander kontrollierbar sind. Indem man die Lie Algebra berechnet, wird gezeigt, dass Akzessibilität des kontrollierten Netzwerkes äquivalent ist zum starken Zusammenhang des zugrundeliegenden Kopplungsgraphen falls das Netzwerk aus mindestens drei Subsystemen besteht. Der Beweis kann nicht auf Netzwerke mit zwei Subsystemen übertragen werden. Daher werden Resultate für diesen Fall unter Zusatzannahmen angegeben, einmal an die Graphstruktur und einmal an die Dynamik der Subsysteme, wobei beide Annahmen nicht notwendig sind. Zudem wird die Struktur der System Lie Algebra untersucht falls der zugrundeliegende Kopplungsgraph nicht stark zusammenhängend ist. Es werden dieselben Ergebnisse für Netzwerke von multi-input, multi-output (MIMO) Systemen verallgemeinert. Außerdem werden verallgemeinerte Kopplungen betrachtet, d.h. lineare Abhängigkeiten zwischen den Kopplungen und parallele Kopplungen können auftreten. Hierbei muss nun zwischen homogenen und heterogenen Netzwerken unterschieden werden. Die Ergebnisse liefern hinreichende Bedingungen für Akzessibilität. Als Beispiel werden Netzwerke, deren Kopplungsstruktur Toeplitz ist, betrachtet. KW - Steuerbarkeit KW - vernetze lineare Systeme KW - Steuerbarkeit von Netzwerken KW - Akzessibilität KW - interconnected systems KW - accessibility KW - Netzwerk KW - Lineares System Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-99250 ER - TY - THES A1 - Jarschel, Michael T1 - An Assessment of Applications and Performance Analysis of Software Defined Networking T1 - Eine Untersuchung von Anwendungen und Leistungsbewertung von Software Defined Networking N2 - With the introduction of OpenFlow by the Stanford University in 2008, a process began in the area of network research, which questions the predominant approach of fully distributed network control. OpenFlow is a communication protocol that allows the externalization of the network control plane from the network devices, such as a router, and to realize it as a logically-centralized entity in software. For this concept, the term "Software Defined Networking" (SDN) was coined during scientific discourse. For the network operators, this concept has several advantages. The two most important can be summarized under the points cost savings and flexibility. Firstly, it is possible through the uniform interface for network hardware ("Southbound API"), as implemented by OpenFlow, to combine devices and software from different manufacturers, which increases the innovation and price pressure on them. Secondly, the realization of the network control plane as a freely programmable software with open interfaces ("Northbound API") provides the opportunity to adapt it to the individual circumstances of the operator's network and to exchange information with the applications it serves. This allows the network to be more flexible and to react more quickly to changing circumstances as well as transport the traffic more effectively and tailored to the user’s "Quality of Experience" (QoE). The approach of a separate network control layer for packet-based networks is not new and has already been proposed several times in the past. Therefore, the SDN approach has raised many questions about its feasibility in terms of efficiency and applicability. These questions are caused to some extent by the fact that there is no generally accepted definition of the SDN concept to date. It is therefore a part of this thesis to derive such a definition. In addition, several of the open issues are investigated. This Investigations follow the three aspects: Performance Evaluation of Software Defined Networking, applications on the SDN control layer, and the usability of SDN Northbound-API for creation application-awareness in network operation. Performance Evaluation of Software Defined Networking: The question of the efficiency of an SDN-based system was from the beginning one of the most important. In this thesis, experimental measurements of the performance of OpenFlow-enabled switch hardware and control software were conducted for the purpose of answering this question. The results of these measurements were used as input parameters for establishing an analytical model of the reactive SDN approach. Through the model it could be determined that the performance of the software control layer, often called "Controller", is crucial for the overall performance of the system, but that the approach is generally viable. Based on this finding a software for analyzing the performance of SDN controllers was developed. This software allows the emulation of the forwarding layer of an SDN network towards the control software and can thus determine its performance in different situations and configurations. The measurements with this software showed that there are quite significant differences in the behavior of different control software implementations. Among other things it has been shown that some show different characteristics for various switches, in particular in terms of message processing speed. Under certain circumstances this can lead to network failures. Applications on the SDN control layer: The core piece of software defined networking are the intelligent network applications that operate on the control layer. However, their development is still in its infancy and little is known about the technical possibilities and their limitations. Therefore, the relationship between an SDN-based and classical implementation of a network function is investigated in this thesis. This function is the monitoring of network links and the traffic they carry. A typical approach for this task has been built based on Wiretapping and specialized measurement hardware and compared with an implementation based on OpenFlow switches and a special SDN control application. The results of the comparison show that the SDN version can compete in terms of measurement accuracy for bandwidth and delay estimation with the traditional measurement set-up. However, a compromise has to be found for measurements below the millisecond range. Another question regarding the SDN control applications is whether and how well they can solve existing problems in networks. Two programs have been developed based on SDN in this thesis to solve two typical network issues. Firstly, the tool "IPOM", which enables considerably more flexibility in the study of effects of network structures for a researcher, who is confined to a fixed physical test network topology. The second software provides an interface between the Cloud Orchestration Software "OpenNebula" and an OpenFlow controller. The purpose of this software was to investigate experimentally whether a pre-notification of the network of an impending relocation of a virtual service in a data center is sufficient to ensure the continuous operation of that service. This was demonstrated on the example of a video service. Usability of the SDN Northbound API for creating application-awareness in network operation: Currently, the fact that the network and the applications that run on it are developed and operated separately leads to problems in network operation. SDN offers with the Northbound-API an open interface that enables the exchange between information of both worlds during operation. One aim of this thesis was to investigate whether this interface can be exploited so that the QoE experienced by the user can be maintained on high level. For this purpose, the QoE influence factors were determined on a challenging application by means of a subjective survey study. The application is cloud gaming, in which the calculation of video game environments takes place in the cloud and is transported via video over the network to the user. It was shown that apart from the most important factor influencing QoS, i.e., packet loss on the downlink, also the type of game type and its speed play a role. This demonstrates that in addition to QoS the application state is important and should be communicated to the network. Since an implementation of such a state conscious SDN for the example of Cloud Gaming was not possible due to its proprietary implementation, in this thesis the application “YouTube video streaming” was chosen as an alternative. For this application, status information is retrievable via the "Yomo" tool and can be used for network control. It was shown that an SDN-based implementation of an application-aware network has distinct advantages over traditional network management methods and the user quality can be obtained in spite of disturbances. N2 - Mit der Vorstellung von OpenFlow durch die Stanford Universität im Jahre 2008 begann ein Prozess im Bereich der Netzwerkforschung, der den vorherrschenden Ansatz der völlig verteilten Netzsteuerung in Frage stellt. Bei OpenFlow handelt es sich um ein Kommunikationsprotokoll, das es ermöglicht die Netzsteuerung aus den Netzwerkgeräten, z. B. einem Router, herauszulösen und als logisch-zentralisierte Einheit als reine Software zu realisieren. Ein Konzept für das im Verlauf des wissenschaftlichen Diskurses der Begriff „Software Defined Networking“ (SDN) geprägt wurde. Für die Betreiber von Netzwerken hat dieses Konzept verschiedene Vorteile. Die beiden wichtigsten lassen sich unter den Punkten Kostenersparnis und Flexibilität zusammenfassen. Zum einen ist es durch die einheitliche Schnittstelle zur Netzwerkhardware („Southbound-API“), wie sie von OpenFlow realisiert wird, möglich Geräte und Software verschiedener Hersteller miteinander zu kombinieren, was den Innovations- und Preisdruck auf diese erhöht. Zum anderen besteht durch die Realisierung der Netzwerksteuerung als frei programmierbare Software mit offenen Schnittstellen („Northbound-API“) die Möglichkeit diese an die individuellen Gegebenheiten des Betreibernetzes anzupassen als auch Informationen mit den Applikationen auszutauschen, die es bedient. Dadurch kann das Netz viel flexibler und schneller auf sich ändernde Gegebenheiten reagieren und den Verkehr effektiver und auf die vom Nutzer erfahrene „Quality of Experience“ (QoE) abgestimmt transportieren. Der Ansatz einer von der Hardware getrennten Netzwerkkontrollschicht für paket-basierte Netze ist nicht neu und wurde in der Vergangenheit bereits mehrfach vorgeschlagen. Daher sah und sieht sich der Ansatz von SDN vielen Fragen nach seiner Realisierbarkeit im Bezug auf Leistungsfähigkeit und Anwendbarkeit gegenüber. Diese Fragen rühren zum Teil auch daher, dass es bis dato keine allgemein anerkannte Definition des SDN Begriffes gibt. Daher ist es ein Teil dieser Doktorarbeit eine solche Definition herzuleiten. Darüber hinaus werden verschiedene der offenen Fragen auf ihre Lösung hin untersucht. Diese Untersuchungen folgen drei Teilaspekten: Leistungsbewertung von Software Defined Networking, Anwendungen auf der SDN Kontrollschicht und die Nutzbarkeit der SDN Northbound-API zum Herstellen eines Applikationsbewusstseins im Netzbetrieb. Leistungsbewertung von Software Defined Networking: Die Frage nach der Leistungsfähigkeit eines SDN-basierten Systems war von Beginn an eine der wichtigsten. In dieser Doktorarbeit wurden zu diesem Zweck experimentelle Messungen zur Leistung OpenFlow-fähiger Switch Hardware und Kontrollsoftware durchgeführt. Die Ergebnisse dieser Messungen dienten als Eingabeparameter zur Aufstellung eines analytischen Modells des reaktiven SDN Ansatzes. Durch das Modell ließ sich bestimmen, dass die Leistungsfähigkeit der Software Kontrollschicht, oft „Controller“ genannt, von entscheidender Bedeutung für die Gesamtleistung des Systems ist, aber der Ansatz insgesamt tragfähig ist. Basierend auf dieser Erkenntnis wurde eine Software zur Analyse der Leistungsfähigkeit von SDN Controllern entwickelt. Diese Software ermöglicht die Emulation der Weiterleitungsschicht eines SDN Netzes gegenüber der Kontrollsoftware und kann so deren Leistungsdaten in verschiedenen Situationen und Konfigurationen bestimmen. Die Messungen mit dieser Software zeigten, dass es durchaus gravierende Unterschiede im Verhalten verschiedener Kontrollsoftware Implementierungen gibt. Unter anderem konnte gezeigt werden, dass einige gegenüber verschiedenen Switches ein unterschiedliches Verhalten aufweisen, insbesondere in der Abarbeitungsgeschwindigkeit von Nachrichten. Ein Umstand der in bestimmten Fällen zu Netzausfällen führen kann. Anwendungen auf der SDN Kontrollschicht: Das Kernstück von Software Defined Networking sind die intelligenten Netzwerkapplikationen, die auf der Kontrollschicht betrieben werden. Allerdings steht deren Entwicklung noch am Anfang und es ist wenig über die technischen Möglichkeiten und deren Grenzen bekannt. Daher wurde in dieser Doktorarbeit der Frage nachgegangen, in welchem Verhältnis sich die Realisierung einer Netzwerkaufgabe mit SDN zur klassischen Umsetzung dieser bewegt. Bei dieser Aufgabe handelt es sich im speziellen um das Monitoring von Links und dem darauf befindlichen Netzwerkverkehr. Hier wurde ein typischer Ansatz für diese Aufgabe basierend auf Wiretapping und spezieller Messhardware aufgebaut und mit einer Implementierung durch OpenFlow Switches und einer speziellen SDN Kontrollapplikation verglichen. Die Ergebnisse des Vergleiches zeigen, dass die SDN Variante im Bezug auf Bandbreiten und Verzögerungsabschätzung durchaus mit dem traditionellen Messaufbau im Bezug auf Messgenauigkeit mithalten kann. Jedoch müssen Abstriche bezüglich der Verzögerungsmessung unterhalb des Millisekundenbereiches gemacht werden. Eine weitere Frage bezüglich der SDN Kontrollapplikationen besteht darin, ob und wie gut sich bestehende Probleme in Netzwerken jetzt mit SDN lösen lassen. Diesbezüglich wurden in dieser Doktorarbeit zwei Programme auf SDN Basis entwickelt, die zwei typische Netzwerkprobleme lösen. Zum einen das Tool „IPOM“, dass es ermöglicht via SDN auf Basis einer festen physikalischen Testnetz-Topologie eine andere zu emulieren und so einem Forscher auf dem Testnetz deutlich mehr Flexibilität bei der Untersuchung von Auswirkungen anderer Netzstrukturen zu ermöglichen. Die zweite Software stellt eine Schnittstelle zwischen der Cloud Orchestration Software „OpenNebula“ und einem OpenFlow Controller dar. Der Zweck dieser Software war es experimentell zu untersuchen, ob eine Vorwarnung des Netzes vor einem bevorstehenden Umzug eines virtuellen Dienstes in einem Datenzentrum hinreichend ist, um den kontinuierlichen Betrieb dieses Dienstes zu gewährleisten. Dieses konnte am Beispiel eines Videodienstes demonstriert werden. Nutzbarkeit der SDN Northbound-API zum Herstellen eines Applikationsbewusstseins im Netzbetrieb: Aktuell führt die Tatsache, dass Netz und Applikationen, die darauf laufen, separat entwickelt und betrieben werden zu Problemen im Netzbetrieb. SDN bietet mit der Northbound-API eine Schnittstelle an, die den Austausch zwischen Informationen beider Welten im Betrieb ermöglicht. Ein Ziel dieser Doktorarbeit war es zu untersuchen, ob sich diese Schnittstelle ausnutzen lässt, so dass die vom Nutzer erfahrene QoE hoch gehalten werden kann. Zu diesem Zwecke wurden zunächst mittels einer subjektiven Umfragestudie die Einflussfaktoren auf eine anspruchsvolle Applikation bestimmt. Bei der Applikation handelt es sich um Cloud Gaming, bei dem die Berechnung der Videospiele Umgebung in der Cloud stattfindet und per Video über das Netz transportiert wird. Hier konnte gezeigt werden, dass neben dem wichtigsten QoS Einflussfaktor Paketverlust auf dem Downlink auch die Art des Spieltyps und dessen Geschwindigkeit eine Rolle spielen. Dies belegt, dass neben QoS auch der Applikationszustand wichtig ist und dem Netz mitgeteilt werden sollte. Da eine Umsetzung eines solchen zustandsbewussten SDNs für das Beispiel Cloud Gaming auf Grund dessen proprietärer Implementierung nicht möglich war, wurde in dieser Doktorarbeit auf die Applikation YouTube Video Streaming ausgewichen. Für diese sind mit Hilfe des Tools „YoMo“ Statusinformationen abfragbar und können zur Netzsteuerung genutzt werden. Es konnte gezeigt werden, dass eine SDN-basierte Realisierung eines applikationsbewussten Netzes deutliche Vorteile gegenüber klassischen Netzwerk Management Methoden aufweist und die Nutzerqualität trotz Störfaktoren erhalten werden kann. T3 - Würzburger Beiträge zur Leistungsbewertung Verteilter Systeme - 03/14 KW - Leistungsbewertung KW - Netzwerk KW - Software Defined Networking KW - Quality of Experience KW - Cloud Gaming KW - Performance Evaluation Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-100795 SN - 1432-8801 ER - TY - THES A1 - Hock, David Rogér T1 - Analysis and Optimization of Resilient Routing in Core Communication Networks T1 - Analyse und Optimierung von ausfallsicherem Routing in Kernkommunikationsnetzen N2 - Routing is one of the most important issues in any communication network. It defines on which path packets are transmitted from the source of a connection to the destination. It allows to control the distribution of flows between different locations in the network and thereby is a means to influence the load distribution or to reach certain constraints imposed by particular applications. As failures in communication networks appear regularly and cannot be completely avoided, routing is required to be resilient against such outages, i.e., routing still has to be able to forward packets on backup paths even if primary paths are not working any more. Throughout the years, various routing technologies have been introduced that are very different in their control structure, in their way of working, and in their ability to handle certain failure cases. Each of the different routing approaches opens up their own specific questions regarding configuration, optimization, and inclusion of resilience issues. This monograph investigates, with the example of three particular routing technologies, some concrete issues regarding the analysis and optimization of resilience. It thereby contributes to a better general, technology-independent understanding of these approaches and of their diverse potential for the use in future network architectures. The first considered routing type, is decentralized intra-domain routing based on administrative IP link costs and the shortest path principle. Typical examples are common today's intra-domain routing protocols OSPF and IS-IS. This type of routing includes automatic restoration abilities in case of failures what makes it in general very robust even in the case of severe network outages including several failed components. Furthermore, special IP-Fast Reroute mechanisms allow for a faster reaction on outages. For routing based on link costs, traffic engineering, e.g. the optimization of the maximum relative link load in the network, can be done indirectly by changing the administrative link costs to adequate values. The second considered routing type, MPLS-based routing, is based on the a priori configuration of primary and backup paths, so-called Label Switched Paths. The routing layout of MPLS paths offers more freedom compared to IP-based routing as it is not restricted by any shortest path constraints but any paths can be setup. However, this in general involves a higher configuration effort. Finally, in the third considered routing type, typically centralized routing using a Software Defined Networking (SDN) architecture, simple switches only forward packets according to routing decisions made by centralized controller units. SDN-based routing layouts offer the same freedom as for explicit paths configured using MPLS. In case of a failure, new rules can be setup by the controllers to continue the routing in the reduced topology. However, new resilience issues arise caused by the centralized architecture. If controllers are not reachable anymore, the forwarding rules in the single nodes cannot be adapted anymore. This might render a rerouting in case of connection problems in severe failure scenarios infeasible. N2 - Routing stellt eine der zentralen Aufgaben in Kommunikationsnetzen dar. Es bestimmt darüber, auf welchem Weg Verkehr von der Quelle zum Ziel transportiert wird. Durch geschicktes Routing kann dadurch eine Verteilung der Verkehrsflüsse zum Beispiel zur Lastverteilung erreicht werden. Da Fehler in Kommunikationsnetzen nicht vollständig verhindert werden können, muss Routing insbesondere ausfallsicher sein, d.h., im Falle von Fehlern im Netz muss das Routing weiterhin in der Lage sein, Pakete auf alternativen Pfaden zum Ziel zu transportieren. Es existieren verschiedene gängige Routingverfahren und Technologien, die sich hinsichtlich Ihrer Arbeitsweise, Ihrer Kontrollstrukturen und Ihrer Funktionalität in bestimmten Fehlerszenarien unterscheiden. Für diese verschiedenen Ansätze ergeben sich jeweils eigene Fragestellungen hinsichtlich der Konfiguration, der Optimierung und der Berücksichtigung von Ausfallsicherheit. Diese Doktorarbeit behandelt am Beispiel bestimmter Technologien einige konkrete Fragestellungen zur Analyse und Optimierung der Ausfallsicherheit. Sie liefert damit einen Beitrag zum besseren generellen Verständnis verschiedenartiger Routingansätze und deren unterschiedlichen Potentials für den Einsatz in zukünftigen Netzarchitekturen. Zuerst wird dezentrales Routing behandelt, basierend auf administrativen Linkgewichten und dem Prinzip der kürzesten Pfade, wie es beispielsweise in den Protokollen IS-IS und OSPF genutzt wird. Diese Routingverfahren beinhalteten automatische Rekonvergenz-Mechanismen um im Falle von Fehlern auf der verbleibenden Netzstruktur weiterhin einen Transport von Verkehr zu ermöglichen. Spezielle IP-Fast Reroute Mechanismen ermöglichen zudem eine schnelle Reaktion im Falle von Fehlern. Routing basierend auf Linkgewichten lässt sich nur indirekt durch die Wahl geeigneter Gewichte beeinflussen und optimieren. Die zweite in der Doktorarbeit behandelte Routingart ist MPLS-basiertes Routing, bei dem Labels für Pakete verwendet werden und Pakete anhand sogenannter vorkonfigurierter Label Switched Paths weitergeleitet werden. Diese Technologie bietet mehr Freiheiten bei der Wahl des Pfadlayouts, was aber wiederum im Allgemeinen einen erhöhten Konfigurationsaufwand mit sich bringt. Schließlich greift die Doktorarbeit auch das Routing in SDN Netzen auf. Dort erfolgt eine Trennung von Control Plane und Data Plane, so dass einzelne dedizierte Controller die Routingentscheidungen festlegen und ansonsten einfache Switches mit reduzierter Komplexität den Verkehr lediglich entsprechend der festgelegten Regeln weiterleiten. Dies ermöglicht die größte Freiheit bei der Konfiguration des Routing bringt aber wiederum neue Fragestellungen bedingt durch die zentralen Kontrolleinheiten mit sich. T3 - Würzburger Beiträge zur Leistungsbewertung Verteilter Systeme - 02/14 KW - Leistungsbewertung KW - Verteiltes System KW - Routing KW - Netzwerk KW - Optimization KW - Routing KW - Software Defined Networking KW - Optimierung Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-101681 SN - 1432-8801 ER - TY - THES A1 - Winkler, Marco T1 - On the Role of Triadic Substructures in Complex Networks T1 - Über die Bedeutung von Dreiecksstrukturen in komplexen Netzwerken N2 - In the course of the growth of the Internet and due to increasing availability of data, over the last two decades, the field of network science has established itself as an own area of research. With quantitative scientists from computer science, mathematics, and physics working on datasets from biology, economics, sociology, political sciences, and many others, network science serves as a paradigm for interdisciplinary research. One of the major goals in network science is to unravel the relationship between topological graph structure and a network’s function. As evidence suggests, systems from the same fields, i.e. with similar function, tend to exhibit similar structure. However, it is still vague whether a similar graph structure automatically implies likewise function. This dissertation aims at helping to bridge this gap, while particularly focusing on the role of triadic structures. After a general introduction to the main concepts of network science, existing work devoted to the relevance of triadic substructures is reviewed. A major challenge in modeling triadic structure is the fact that not all three-node subgraphs can be specified independently of each other, as pairs of nodes may participate in multiple of those triadic subgraphs. In order to overcome this obstacle, we suggest a novel class of generative network models based on so called Steiner triple systems. The latter are partitions of a graph’s vertices into pair-disjoint triples (Steiner triples). Thus, the configurations on Steiner triples can be specified independently of each other without overdetermining the network’s link structure. Subsequently, we investigate the most basic realization of this new class of models. We call it the triadic random graph model (TRGM). The TRGM is parametrized by a probability distribution over all possible triadic subgraph patterns. In order to generate a network instantiation of the model, for all Steiner triples in the system, a pattern is drawn from the distribution and adjusted randomly on the Steiner triple. We calculate the degree distribution of the TRGM analytically and find it to be similar to a Poissonian distribution. Furthermore, it is shown that TRGMs possess non-trivial triadic structure. We discover inevitable correlations in the abundance of certain triadic subgraph patterns which should be taken into account when attributing functional relevance to particular motifs – patterns which occur significantly more frequently than expected at random. Beyond, the strong impact of the probability distributions on the Steiner triples on the occurrence of triadic subgraphs over the whole network is demonstrated. This interdependence allows us to design ensembles of networks with predefined triadic substructure. Hence, TRGMs help to overcome the lack of generative models needed for assessing the relevance of triadic structure. We further investigate whether motifs occur homogeneously or heterogeneously distributed over a graph. Therefore, we study triadic subgraph structures in each node’s neighborhood individually. In order to quantitatively measure structure from an individual node’s perspective, we introduce an algorithm for node-specific pattern mining for both directed unsigned, and undirected signed networks. Analyzing real-world datasets, we find that there are networks in which motifs are distributed highly heterogeneously, bound to the proximity of only very few nodes. Moreover, we observe indication for the potential sensitivity of biological systems to a targeted removal of these critical vertices. In addition, we study whole graphs with respect to the homogeneity and homophily of their node-specific triadic structure. The former describes the similarity of subgraph distributions in the neighborhoods of individual vertices. The latter quantifies whether connected vertices are structurally more similar than non-connected ones. We discover these features to be characteristic for the networks’ origins. Moreover, clustering the vertices of graphs regarding their triadic structure, we investigate structural groups in the neural network of C. elegans, the international airport-connection network, and the global network of diplomatic sentiments between countries. For the latter we find evidence for the instability of triangles considered socially unbalanced according to sociological theories. Finally, we utilize our TRGM to explore ensembles of networks with similar triadic substructure in terms of the evolution of dynamical processes acting on their nodes. Focusing on oscillators, coupled along the graphs’ edges, we observe that certain triad motifs impose a clear signature on the systems’ dynamics, even when embedded in a larger network structure. N2 - Im Zuge des Wachstums des Internets und der Verfügbarkeit nie da gewesener Datenmengen, hat sich, während der letzten beiden Jahrzehnte, die Netzwerkwissenschaft zu einer eigenständigen Forschungsrichtung entwickelt. Mit Wissenschaftlern aus quantitativen Feldern wie der Informatik, Mathematik und Physik, die Datensätze aus Biologie, den Wirtschaftswissenschaften, Soziologie, Politikwissenschaft und vielen weiteren Anwendungsgebieten untersuchen, stellt die Netzwerkwissenschaft ein Paradebeispiel interdisziplinärer Forschung dar. Eines der grundlegenden Ziele der Netzwerkwissenschaft ist es, den Zusammenhang zwischen der topologischen Struktur und der Funktion von Netzwerken herauszufinden. Es gibt zahlreiche Hinweise, dass Netz-werke aus den gleichen Bereichen, d.h. Systeme mit ähnlicher Funktion, auch ähnliche Graphstrukturen aufweisen. Es ist allerdings nach wie vor unklar, ob eine ähnliche Graphstruktur generell zu gleicher Funktionsweise führt. Es ist das Ziel der vorliegenden Dissertation, zur Klärung dieser Frage beizutragen. Das Hauptaugenmerk wird hierbei auf der Rolle von Dreiecksstrukturen liegen. Nach einer allgemeinen Einführung der wichtigsten Grundlagen der Theorie komplexer Netzwerke, wird eine Übersicht über existierende Arbeiten zur Bedeutung von Dreiecksstrukturen gegeben. Eine der größten Herausforderungen bei der Modellierung triadischer Strukturen ist die Tatsache, dass nicht alle Dreiecksbeziehungen in einem Graphen unabhängig voneinander bestimmt werden können, da zwei Knoten an mehreren solcher Dreiecksbeziehungen beteiligt sein können. Um dieses Problem zu lösen, führen wir, basierend auf sogenannten Steiner-Tripel-Systemen, eine neue Klasse generativer Netzwerkmodelle ein. Steiner-Tripel-Systeme sind Zerlegungen der Knoten eines Graphen in paarfremde Tripel (Steiner-Tripel). Daher können die Konfigurationen auf Steiner-Tripeln unabhängig voneinander gewählt werden, ohne dass dies zu einer Überbestimmung der Netzwerkstruktur führen würde. Anschließend untersuchen wir die grundlegendste Realisierung dieser neuen Klasse von Netzwerkmodellen, die wir das triadische Zufallsgraph-Modell (engl. triadic random graph model, TRGM) nennen. TRGMs werden durch eine Wahrscheinlichkeitsverteilung über alle möglichen Dreiecksstrukturen parametrisiert. Um ein konkretes Netzwerk zu erzeugen wird für jedes Steiner-Tripel eine Dreiecksstruktur gemäß der Wahrscheinlichkeitsverteilung gezogen und zufällig auf dem Tripel orientiert. Wir berechnen die Knotengradverteilung des TRGM analytisch und finden heraus, dass diese einer Poissonverteilung ähnelt. Des Weiteren wird gezeigt, dass TRGMs nichttriviale Dreiecksstrukturen aufweisen. Außerdem finden wir unvermeidliche Korrelationen im Auftreten bestimmter Subgraphen, derer man sich bewusst sein sollte. Insbesondere wenn es darum geht, die Bedeutung sogenannter Motive (Strukturen, die signifikant häufiger als zufällig erwartet auftreten) zu beurteilen. Darüber hinaus wird der starke Einfluss der Wahrscheinlichkeitsverteilung auf den Steiner-Tripeln, auf die generelle Dreiecksstruktur der erzeugten Netzwerke gezeigt. Diese Abhängigkeit ermöglicht es, Netzwerkensembles mit vorgegebener Dreiecksstruktur zu konzipieren. Daher helfen TRGMs dabei, den bestehenden Mangel an generativen Netzwerkmodellen, zur Beurteilung der Bedeutung triadischer Strukturen in Graphen, zu beheben. Es wird ferner untersucht, wie homogen Motive räumlich über Graphstrukturen verteilt sind. Zu diesem Zweck untersuchen wir das Auftreten von Dreiecksstrukturen in der Umgebung jedes Knotens separat. Um die Struktur individueller Knoten quantitativ erfassen zu können, führen wir einen Algorithmus zur knotenspezifischen Musterauswertung (node-specific pattern mining) ein, der sowohl auf gerichtete, als auch auf Graphen mit positiven und negativen Kanten angewendet werden kann. Bei der Analyse realer Datensätze beobachten wir, dass Motive in einigen Netzen hochgradig heterogen verteilt, und auf die Umgebung einiger, weniger Knoten beschränkt sind. Darüber hinaus finden wir Hinweise auf die mögliche Fehleranfälligkeit biologischer Systeme auf ein gezieltes Entfernen ebendieser Knoten. Des Weiteren studieren wir ganze Graphen bezüglich der Homogenität und Homophilie ihrer knotenspezifischen Dreiecksmuster. Erstere beschreibt die Ähnlichkeit der lokalen Dreiecksstrukturen zwischen verschiedenen Knoten. Letztere gibt an, ob sich verbundene Knoten bezüglich ihrer Dreiecksstruktur ähnlicher sind, als nicht verbundene Knoten. Wir stellen fest, dass diese Eigenschaften charakteristisch für die Herkunft der jeweiligen Netzwerke sind. Darüber hinaus gruppieren wir die Knoten verschiedener Systeme bezüglich der Ähnlichkeit ihrer lokalen Dreiecksstrukturen. Hierzu untersuchen wir das neuronale Netz von C. elegans, das internationale Flugverbindungsnetzwerk, sowie das Netzwerk internationaler Beziehungen zwischen Staaten. In Letzterem finden wir Hinweise darauf, dass Dreieckskonfigurationen, die nach soziologischen Theorien als unbalanciert gelten, besonders instabil sind. Schließlich verwenden wir unser TRGM, um Netzwerkensembles mit ähnlicher Dreiecksstruktur bezüglich der Eigenschaften dynamischer Prozesse, die auf ihren Knoten ablaufen, zu untersuchen. Wir konzentrieren uns auf Oszillatoren, die entlang der Kanten der Graphen miteinander gekoppelt sind. Hierbei beobachten wir, dass bestimmte Dreiecksmotive charakteristische Merkmale im dynamischen Verhalten der Systeme hinterlassen. Dies ist auch der Fall, wenn die Motive in eine größere Netzwerkstruktur eingebettet sind. KW - Netzwerk KW - Komplexes System KW - Substruktur KW - Dreieck KW - Networks KW - Complex Systems KW - Statistics KW - Machine Learning KW - Biological Networks KW - Statistische Physik KW - Statistische Mechanik KW - Data Mining KW - Maschinelles Lernen KW - Graphentheorie Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-116022 SN - 978-3-7375-5654-5 PB - epubli GmbH CY - Berlin ER - TY - THES A1 - Hartmann, Matthias T1 - Optimization and Design of Network Architectures for Future Internet Routing T1 - Optimierung und Design von Netzwerkarchitekturen für zukünftiges Internet Routing N2 - At the center of the Internet’s protocol stack stands the Internet Protocol (IP) as a common denominator that enables all communication. To make routing efficient, resilient, and scalable, several aspects must be considered. Care must be taken that traffic is well balanced to make efficient use of the existing network resources, both in failure free operation and in failure scenarios. Finding the optimal routing in a network is an NP-complete problem. Therefore, routing optimization is usually performed using heuristics. This dissertation shows that a routing optimized with one objective function is often not good when looking at other objective functions. It can even be worse than unoptimized routing with respect to that objective function. After looking at failure-free routing and traffic distribution in different failure scenarios, the analysis is extended to include the loop-free alternate (LFA) IP fast reroute mechanism. Different application scenarios of LFAs are examined and a special focus is set on the fact that LFAs usually cannot protect all traffic in a network even against single link failures. Thus, the routing optimization for LFAs is targeted on both link utilization and failure coverage. Finally, the pre-congestion notification mechanism PCN for network admission control and overload protection is analyzed and optimized. Different design options for implementing the protocol are compared, before algorithms are developed for the calculation and optimization of protocol parameters and PCN-based routing. The second part of the thesis tackles a routing problem that can only be resolved on a global scale. The scalability of the Internet is at risk since a major and intensifying growth of the interdomain routing tables has been observed. Several protocols and architectures are analyzed that can be used to make interdomain routing more scalable. The most promising approach is the locator/identifier (Loc/ID) split architecture which separates routing from host identification. This way, changes in connectivity, mobility of end hosts, or traffic-engineering activities are hidden from the routing in the core of the Internet and the routing tables can be kept much smaller. All of the currently proposed Loc/ID split approaches have their downsides. In particular, the fact that most architectures use the ID for routing outside the Internet’s core is a poor design, which inhibits many of the possible features of a new routing architecture. To better understand the problems and to provide a solution for a scalable routing design that implements a true Loc/ID split, the new GLI-Split protocol is developed in this thesis, which provides separation of global and local routing and uses an ID that is independent from any routing decisions. Besides GLI-Split, several other new routing architectures implementing Loc/ID split have been proposed for the Internet. Most of them assume that a mapping system is queried for EID-to-RLOC mappings by an intermediate node at the border of an edge network. When the mapping system is queried by an intermediate node, packets are already on their way towards their destination, and therefore, the mapping system must be fast, scalable, secure, resilient, and should be able to relay packets without locators to nodes that can forward them to the correct destination. The dissertation develops a classification for all proposed mapping system architectures and shows their similarities and differences. Finally, the fast two-level mapping system FIRMS is developed. It includes security and resilience features as well as a relay service for initial packets of a flow when intermediate nodes encounter a cache miss for the EID-to-RLOC mapping. N2 - Daten durch das Internet werden heutzutage mit dem paketbasierten Internet Protokoll (IP) übertragen. Dezentralisierte Routingprotokolle innerhalb der einzelnen Netze sorgen für eine zielgerichtete Weiterleitung der einzelnen Pakete. Diese verteilten Protokolle können auch im Fehlerfall weiterarbeiten, benötigen aber mitunter sehr lange bis Daten wieder zuverlässig am Ziel ankommen. Um im Betrieb des Internets eine hohe Leistungsfähigkeit auch bei auftretenden Problemfällen zu gewährleisten, müssen die eingesetzten Protokolle optimal eingestellt werden. Zielfunktionen zur Optimierung paketbasierter Link-State Intradomain-Routingprotokolle: Ein wichtiger Faktor für die Performanz eines Netzes ist die Auswahl der administrativen Linkkosten, anhand derer die Weiterleitungsentscheidungen im Netz getroffen werden. Mit Hilfe von Modellen für Verkehrsaufkommen und für die darunterliegende Netzarchitektur kann mit geeigneten Optimierungsmethoden das Netz für verschiedene Szenarien bestmöglich eingestellt werden. Von besonderer Wichtigkeit ist hierbei die Auswahl der betrachteten Szenarien und Zielfunktionen für die Optimierung. Eine Routingkonfiguration die optimal für ein bestimmtes Ziel ist, kann beliebig schlecht für ein anderes Ziel sein. Zum Beispiel kann eine Konfiguration, die eine besonders hohe Fehlerabdeckung erreicht, zu einer sehr schlechten Verkehrsverteilung führen. Im Rahmen der Dissertation werden heuristische Optimierungen des Routings für verschiedene Protokolle und Anwendungsszenarien durchgeführt. Darüber hinaus wird eine Pareto-Optimierung implementiert, die gleichzeitig mehrere Ziele optimieren kann. Die Analysen werden zuerst für normales Routing im fehlerfreien Fall und für Fehlerszenarien durchgeführt. Daraufhin werden verschiedenste Anwendungsfälle des IP Fast-Reroute Mechanismus Loop-Free Alternates (LFA) betrachtet. Hier wird insbesondere auf die Problematik eingegangen, dass LFAs in Abhängigkeit vom eingestellten Routing in bestimmten Fehlerfällen nicht angewendet werden können. Beim Optimieren des Routings muss hier zusätzlich zur Lastverteilung auch noch die Maximierung der Fehlerabdeckung berücksichtigt werden. Schließlich folgt eine Untersuchung und Optimierung des Pre-Congestion Notification (PCN) Verfahren zur Netzzugangskontrolle und Überlaststeuerung. Hier werden verschiedene Architekturvarianten des Protokolls miteinander verglichen und Algorithmen zur Berechnung und Optimierung wichtiger Parameter des Protokolls entwickelt. Das Wachstum der Routingtabellen im Kern des Internets droht zu einem Skalierbarkeitsproblem zu werden. Ein Grund für diese Problematik ist die duale Funktion der IP-Adresse. Sie wird einerseits zur Identifikation eines Geräts benutzt und andererseits zur Weiterleitung der Daten zu diesem Gerät. Neue Mechanismen und Protokolle die eine Trennung zwischen den beiden Funktionalitäten der IP-Adresse ermöglichen sind potentielle Kandidaten für eine bessere Skalierbarkeit des Internetroutings und damit für die Erhaltung der Funktionalität des Internets. Design eines neuen Namens- und Routingprotokolls für skalierbares Interdomain-Routing: In der Dissertation werden grundlegende Eigenschaften die zu diesem Problem führen erörtert. Daraufhin werden vorhandene Ansätze zur Verbesserung der Skalierbarkeit des Internetroutings analysiert, und es werden Gemeinsamkeiten wie auch Schwachstellen identifiziert. Auf dieser Basis wird dann ein Protokoll entwickelt, das eine strikte Trennung zwischen Identifikationsadressen (IDs) und routebaren Locator-Adressen einhält. Das GLI-Split genannte Protokoll geht dabei über den einfachen Split von vorhandenen Architekturvorschlägen hinaus und führt eine weitere Adresse ein die nur für das lokale Routing innerhalb eines Endkunden-Netzes benutzt wird. Hierdurch wird die ID eines Endgeräts vollständig unabhängig vom Routing. Durch das GLI-Split Protokoll kann das globale Routing wieder skalierbar gemacht werden. Zusätzlich bietet es viele Vorteile für Netze die das Protokoll einführen, was als Anreiz nötig ist um den Einsatz eines neuen Protokolls zu motivieren. Solch ein Identifier/Locator Split Protokoll benötigt ein Mappingsystem um die Identifier der Endgeräte in routebare Locator-Adressen zu übersetzen. Im letzten Teil der Dissertation wird eine mehrstufige Mapping-Architektur namens FIRMS entwickelt. Über ein hierarchisches Verteilungssystem, das die Adressvergabestruktur der fünf Regionalen Internet Registrare (RIRs) und der darunterliegenden Lokalen Internet Registrare (LIRs) abbildet, werden die erforderlichen Zuordnungstabellen so verteilt, dass jederzeit schnell auf die benötigten Informationen zugegriffen werden kann. Hierbei wird auch besonders auf Sicherheitsaspekte geachtet. T3 - Würzburger Beiträge zur Leistungsbewertung Verteilter Systeme - 02/15 KW - Netzwerk KW - Routing KW - Optimierung KW - Netzwerkmanagement KW - Optimization KW - Future Internet Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-114165 SN - 1432-8801 ER - TY - THES A1 - Gebert, Steffen Christian T1 - Architectures for Softwarized Networks and Their Performance Evaluation T1 - Architekturen für Software-basierte Netze und deren Leistungsbewertung N2 - This thesis contributes to several issues in the context of SDN and NFV, with an emphasis on performance and management. The main contributions are guide lines for operators migrating to software-based networks, as well as an analytical model for the packet processing in a Linux system using the Kernel NAPI. N2 - In der Dissertation werden mehrere Problemstellungen im Kontext von SDN und NFV, vor allem hinsichtlich Performance und Management, bearbeitet. Die Hauptbeiträge sind Guidelines für Netzbetreiber zum Management Software-basierter Netze sowie ein analytisches Modell, welches den Paketverarbeitungsprozess in der Linux Kernel NAPI beschreibt. T3 - Würzburger Beiträge zur Leistungsbewertung Verteilter Systeme - 01/17 KW - Telekommunikationsnetz KW - Software-based Networks KW - Software Defined Networking KW - Network Functions Virtualisation KW - Netzwerk KW - Software-defined networking KW - Leistungsbewertung Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-150634 SN - 1432-8801 ER - TY - THES A1 - Rygielski, Piotr T1 - Flexible Modeling of Data Center Networks for Capacity Management T1 - Elastische Modellierung von Rechenzentren-Netzen zwecks Kapazitätsverwaltung N2 - Nowadays, data centers are becoming increasingly dynamic due to the common adoption of virtualization technologies. Systems can scale their capacity on demand by growing and shrinking their resources dynamically based on the current load. However, the complexity and performance of modern data centers is influenced not only by the software architecture, middleware, and computing resources, but also by network virtualization, network protocols, network services, and configuration. The field of network virtualization is not as mature as server virtualization and there are multiple competing approaches and technologies. Performance modeling and prediction techniques provide a powerful tool to analyze the performance of modern data centers. However, given the wide variety of network virtualization approaches, no common approach exists for modeling and evaluating the performance of virtualized networks. The performance community has proposed multiple formalisms and models for evaluating the performance of infrastructures based on different network virtualization technologies. The existing performance models can be divided into two main categories: coarse-grained analytical models and highly-detailed simulation models. Analytical performance models are normally defined at a high level of abstraction and thus they abstract many details of the real network and therefore have limited predictive power. On the other hand, simulation models are normally focused on a selected networking technology and take into account many specific performance influencing factors, resulting in detailed models that are tightly bound to a given technology, infrastructure setup, or to a given protocol stack. Existing models are inflexible, that means, they provide a single solution method without providing means for the user to influence the solution accuracy and solution overhead. To allow for flexibility in the performance prediction, the user is required to build multiple different performance models obtaining multiple performance predictions. Each performance prediction may then have different focus, different performance metrics, prediction accuracy, and solving time. The goal of this thesis is to develop a modeling approach that does not require the user to have experience in any of the applied performance modeling formalisms. The approach offers the flexibility in the modeling and analysis by balancing between: (a) generic character and low overhead of coarse-grained analytical models, and (b) the more detailed simulation models with higher prediction accuracy. The contributions of this thesis intersect with technologies and research areas, such as: software engineering, model-driven software development, domain-specific modeling, performance modeling and prediction, networking and data center networks, network virtualization, Software-Defined Networking (SDN), Network Function Virtualization (NFV). The main contributions of this thesis compose the Descartes Network Infrastructure (DNI) approach and include: • Novel modeling abstractions for virtualized network infrastructures. This includes two meta-models that define modeling languages for modeling data center network performance. The DNI and miniDNI meta-models provide means for representing network infrastructures at two different abstraction levels. Regardless of which variant of the DNI meta-model is used, the modeling language provides generic modeling elements allowing to describe the majority of existing and future network technologies, while at the same time abstracting factors that have low influence on the overall performance. I focus on SDN and NFV as examples of modern virtualization technologies. • Network deployment meta-model—an interface between DNI and other meta- models that allows to define mapping between DNI and other descriptive models. The integration with other domain-specific models allows capturing behaviors that are not reflected in the DNI model, for example, software bottlenecks, server virtualization, and middleware overheads. • Flexible model solving with model transformations. The transformations enable solving a DNI model by transforming it into a predictive model. The model transformations vary in size and complexity depending on the amount of data abstracted in the transformation process and provided to the solver. In this thesis, I contribute six transformations that transform DNI models into various predictive models based on the following modeling formalisms: (a) OMNeT++ simulation, (b) Queueing Petri Nets (QPNs), (c) Layered Queueing Networks (LQNs). For each of these formalisms, multiple predictive models are generated (e.g., models with different level of detail): (a) two for OMNeT++, (b) two for QPNs, (c) two for LQNs. Some predictive models can be solved using multiple alternative solvers resulting in up to ten different automated solving methods for a single DNI model. • A model extraction method that supports the modeler in the modeling process by automatically prefilling the DNI model with the network traffic data. The contributed traffic profile abstraction and optimization method provides a trade-off by balancing between the size and the level of detail of the extracted profiles. • A method for selecting feasible solving methods for a DNI model. The method proposes a set of solvers based on trade-off analysis characterizing each transformation with respect to various parameters such as its specific limitations, expected prediction accuracy, expected run-time, required resources in terms of CPU and memory consumption, and scalability. • An evaluation of the approach in the context of two realistic systems. I evaluate the approach with focus on such factors like: prediction of network capacity and interface throughput, applicability, flexibility in trading-off between prediction accuracy and solving time. Despite not focusing on the maximization of the prediction accuracy, I demonstrate that in the majority of cases, the prediction error is low—up to 20% for uncalibrated models and up to 10% for calibrated models depending on the solving technique. In summary, this thesis presents the first approach to flexible run-time performance prediction in data center networks, including network based on SDN. It provides ability to flexibly balance between performance prediction accuracy and solving overhead. The approach provides the following key benefits: • It is possible to predict the impact of changes in the data center network on the performance. The changes include: changes in network topology, hardware configuration, traffic load, and applications deployment. • DNI can successfully model and predict the performance of multiple different of network infrastructures including proactive SDN scenarios. • The prediction process is flexible, that is, it provides balance between the granularity of the predictive models and the solving time. The decreased prediction accuracy is usually rewarded with savings of the solving time and consumption of resources required for solving. • The users are enabled to conduct performance analysis using multiple different prediction methods without requiring the expertise and experience in each of the modeling formalisms. The components of the DNI approach can be also applied to scenarios that are not considered in this thesis. The approach is generalizable and applicable for the following examples: (a) networks outside of data centers may be analyzed with DNI as long as the background traffic profile is known; (b) uncalibrated DNI models may serve as a basis for design-time performance analysis; (c) the method for extracting and compacting of traffic profiles may be used for other, non-network workloads as well. N2 - Durch Virtualisierung werden moderne Rechenzentren immer dynamischer. Systeme sind in der Lage ihre Kapazität hoch und runter zu skalieren , um die ankommende Last zu bedienen. Die Komplexität der modernen Systeme in Rechenzentren wird nicht nur von der Softwarearchitektur, Middleware und Rechenressourcen sondern auch von der Netzwerkvirtualisierung beeinflusst. Netzwerkvirtualisierung ist noch nicht so ausgereift wie die Virtualisierung von Rechenressourcen und es existieren derzeit unterschiedliche Netzwerkvirtualisierungstechnologien. Man kann aber keine der Technologien als Standardvirtualisierung für Netzwerke bezeichnen. Die Auswahl von Ansätzen durch Performanzanalyse von Netzwerken stellt eine Herausforderung dar, weil existierende Ansätze sich mehrheitlich auf einzelne Virtualisierungstechniken fokussieren und es keinen universellen Ansatz für Performanzanalyse gibt, der alle Techniken in Betracht nimmt. Die Forschungsgemeinschaft bietet verschiedene Performanzmodelle und Formalismen für Evaluierung der Performanz von virtualisierten Netzwerken an. Die bekannten Ansätze können in zwei Gruppen aufgegliedert werden: Grobetaillierte analytische Modelle und feindetaillierte Simulationsmodelle. Die analytischen Performanzmodelle abstrahieren viele Details und liefern daher nur beschränkt nutzbare Performanzvorhersagen. Auf der anderen Seite fokussiert sich die Gruppe der simulationsbasierenden Modelle auf bestimmte Teile des Systems (z.B. Protokoll, Typ von Switches) und ignoriert dadurch das große Bild der Systemlandschaft. ... KW - Modellierung KW - Leistungsbewertung KW - Netzwerk KW - Meta-modeling KW - Model transformation KW - Performance analysis KW - Simulation Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-146235 ER - TY - THES A1 - Nguyen-Ngoc, Anh T1 - On Performance Assessment of Control Mechanisms and Virtual Components in SDN-based Networks T1 - Zur Leistungsbewertung von Regelungsmechanismen und virtuellen Komponenten in SDN-basierten Netzwerken N2 - This dissertation focuses on the performance evaluation of all components of Software Defined Networking (SDN) networks and covers whole their architecture. First, the isolation between virtual networks sharing the same physical resources is investigated with SDN switches of several vendors. Then, influence factors on the isolation are identified and evaluated. Second, the impact of control mechanisms on the performance of the data plane is examined through the flow rule installation time of SDN switches with different controllers. It is shown that both hardware-specific and controller instance have a specific influence on the installation time. Finally, several traffic flow monitoring methods of an SDN controller are investigated and a new monitoring approach is developed and evaluated. It is confirmed that the proposed method allows monitoring of particular flows as well as consumes fewer resources than the standard approach. Based on findings in this thesis, on the one hand, controller developers can refer to the work related to the control plane, such as flow monitoring or flow rule installation, to improve the performance of their applications. On the other hand, network administrators can apply the presented methods to select a suitable combination of controller and switches in their SDN networks, based on their performance requirements N2 - Diese Dissertation konzentriert sich auf die Leistungsbewertung aller Komponenten von SDN-Netzwerken (Software Defined Networking) und deckt deren gesamte Architektur ab. Zuerst wird die Isolation zwischen virtuellen Netzwerken, die dieselben physischen Ressourcen teilen, mit SDN-Switches verschiedener Hersteller untersucht. Dann werden Einflussfaktoren auf die Isolation identifiziert und ausgewertet. Anschließen wird die Auswirkung von Kontrollmechanismen auf die Leistung der Datenebene durch die Flussregel-Installationszeit von SDN-Switches mit unterschiedlichen Controllern untersucht. Es wird gezeigt, dass sowohl Hardware-spezifische als auch Controller-Instanz einen spezifischen Einfluss auf die Installationszeit haben. Abschließend werden verschiedene Methoden der Verkehrsflussüberwachung eines SDN-Controllers untersucht und ein neuer Monitoringansatz entwickelt und evaluiert. Es wird bestätigt, dass die vorgeschlagene Methode die Überwachung bestimmter Flüsse ermöglicht und weniger Ressourcen verbraucht als der Standardansatz. Basierend auf den Ergebnissen dieser Arbeit können Controller-Entwickler einerseits die Arbeiten zur Steuerungsebene, wie zum Beispiel die Flussüberwachung oder die Flussregelinstallation, zur Verbesserung der Leistung ihrer Anwendungen verwenden. Auf der anderen Seite können Netzwerkadministratoren die vorgestellte Methode anwenden, um basierend auf ihren Leistungsanforderungen eine geeignete Kombination aus Controller und Switches in ihren SDN-Netzwerken auszuwählen. T3 - Würzburger Beiträge zur Leistungsbewertung Verteilter Systeme - 02/18 KW - Leistungsbewertung KW - SDN KW - Netzwerk KW - OpenFlow KW - Software Defined Networking KW - SDN Switches KW - Performance Evaluation KW - SDN Controllers Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-169328 SN - 1432-8801 ER - TY - THES A1 - Dinh-Xuan, Lam T1 - Quality of Experience Assessment of Cloud Applications and Performance Evaluation of VNF-Based QoE Monitoring T1 - Quality of Experience-Bewertung von Cloud-Anwendungen und Leistungsbewertung von VNF-basiertem QoE-Monitoring N2 - In this thesis various aspects of Quality of Experience (QoE) research are examined. The work is divided into three major blocks: QoE Assessment, QoE Monitoring, and VNF Performance Evaluation. First, prominent cloud applications such as Google Docs and a cloud-based photo album are explored. The QoE is characterized and the influence of packet loss and delay is studied. Afterwards, objective QoE monitoring for HTTP Adaptive Video Streaming (HAS) in the cloud is investigated. Additionally, by using a Virtual Network Function (VNF) for QoE monitoring in the cloud, the feasibility of an interworking of Network Function Virtualization (NFV) and cloud paradigm is evaluated. To this end, a VNF that exploits deep packet inspection technique was used to parse the video traffic. An algorithm is then designed accordingly to estimate video quality and QoE based on network and application layer parameters. To assess the accuracy of the estimation, the VNF is measured in different scenarios under different network QoS and the virtual environment of the cloud architecture. The insights show that the different geographical deployments of the VNF influence the accuracy of the video quality and QoE estimation. Various Service Function Chain (SFC) placement algorithms have been proposed and compared in the context of edge cloud networks. On the one hand, this research is aimed at cloud service providers by providing methods for evaluating QoE for cloud applications. On the other hand, network operators can learn the pitfalls and disadvantages of using the NFV paradigm for such a QoE monitoring mechanism. N2 - In dieser Arbeit werden verschiedene Aspekte von Quality of Experience (QoE) und QoE-Monitoring untersucht. Die Arbeit teilt sich in drei große Blöcke auf: QoE Assessment, QoE Monitoring und Leistungsuntersuchung einer VNF. Zunächst werden prominente Cloud-Anwendungen wie Google Docs und ein Cloud-basiertes Photoalbum untersucht. Die QoE wird charakterisiert und es wird der Einfluss von Paketverlust und Delay studiert. Danach wird das objektive QoE-Monitoring für HTTP Adaptive Video Streaming (HAS) in der Cloud untersucht. Durch die Verwendung einer virtuellen Netzwerkfunktion (Virtual Network Function, VNF) für die QoE-Überwachung in der Cloud wurde außerdem die Durchführbarkeit eines Zusammenwirkens von Netzwerkfunktionsvirtualisierung (NFV) und Cloud-Paradigma bewertet. Zu diesem Zweck wurde der VNF, die die Deep-Packet-Inspection-Technik benutzt, zum Parsen des Videoverkehrs verwendet. Im Anschluss wurde ein Algorithmus entworfen, um die Videoqualität und die QoE basierend auf Netzwerk- und Anwendungsschichtparametern zu schätzen. Um die Genauigkeit der Schätzung zu bewerten, wurde die VNF in verschiedenen Szenarien unter verschiedener Netzwerk-QoS und der virtuellen Umgebung der Cloud-Architektur gemessen. Die Erkenntnisse zeigen, dass die unterschiedlichen geografischen Implementierungen der VNF die Genauigkeit der Schätzung der Videoqualität und QoE beeinflussen. Es wurden verschiedene Platzierungsalgorithmen der Service Function Chain (SFC) vorgeschlagen und im Kontext von Edge-Cloud-Netzwerken verglichen. Diese Forschungsarbeit zielt zum einen auf Cloud-Service-Provider ab, indem ihnen Methoden zur Bewertung der QoE für Cloud-Anwendungen zur Verfügung gestellt werden. Auf der anderen Seite können die Netzwerkbetreiber die Fallstricke und Nachteile der Anwendung des NFV-Paradigmas für einen solchen QoE-Überwachungsmechanismus erlernen. T3 - Würzburger Beiträge zur Leistungsbewertung Verteilter Systeme - 01/18 KW - Quality of Experience KW - QoE Monitoring KW - Netzwerk KW - Virtualisierung KW - Network Function Virtualization KW - Performance Evaluation KW - Leistungsbewertung Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-169182 SN - 1432-8801 ER - TY - THES A1 - Metter, Christopher Valentin T1 - Resilience, Availabilty, and Serviceability Evaluation in Software-defined Networks T1 - Auswertung der Ausfallsicherheit, Verfügbarkeit und Gebrauchstauglichkeit in Software-definierten Netzwerken N2 - With the introduction of Software-defined Networking (SDN) in the late 2000s, not only a new research field has been created, but a paradigm shift was initiated in the broad field of networking. The programmable network control by SDN is a big step, but also a stumbling block for many of the established network operators and vendors. As with any new technology the question about the maturity and the productionreadiness of it arises. Therefore, this thesis picks specific features of SDN and analyzes its performance, reliability, and availability in scenarios that can be expected in production deployments. The first SDN topic is the performance impact of application traffic in the data plane on the control plane. Second, reliability and availability concerns of SDN deployments are exemplary analyzed by evaluating the detection performance of a common SDN controller. Thirdly, the performance of P4, a technology that enhances SDN, or better its impact of certain control operations on the processing performance is evaluated. N2 - Mit der Einführung von Software-definierten Netzwerken (SDN) in den späten 2000ern wurde nicht nur ein neues Forschungsfeld begründet sondern auch ein Paradigmenwechsel im breiten Feld der Netzwerktechnik eingeleitet. Die programmierbare Kontrolle über das Netzwerk durch SDN ist eine großer Schritt, aber auch ein Stolperstein für viele der etablierten Netzwerk Operatoren und Hersteller. Wie mit jeder neuen Technologie stellt sich die Frage über die Reife und die Eignung für den Produktionseinsatz. Diese Arbeit wählt deswegen drei spezifische Eigenschaften von SDN und untersucht sie auf ihre Performanz, Ausfallsicherheit und Verfügbarkeit in Szenarien die so in Produktionsumgebungen zu erwarten sind. Das erste SDN Thema ist der Einfluss von Applikationsverkehr in der Data Plane auf die Performanz in der Control Plane. Als zweites Thema werden die Zuverlässigkeits- und Verfügbarkeitsbedenken von SDN Installationen exemplarisch durch die Evaluation der Erkennungsperformanz eines gängigen SDN Controllers analyisiert.Schließlich wird die Verarbeitungsperformanz von P4, einer Technolgie die SDN erweitert, anhand eines Beispiels evaluiert. T3 - Würzburger Beiträge zur Leistungsbewertung Verteilter Systeme - 04/18 KW - Leistungsbewertung KW - Telekommunikationsnetz KW - Netzwerk KW - Software-defined Networking KW - RAS Evaluation KW - Software Defined Networking Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-176788 SN - 1432-8801 ER - TY - THES A1 - Krug, Markus T1 - Techniques for the Automatic Extraction of Character Networks in German Historic Novels T1 - Techniken zur automatischen Extraktion von Figurennetzwerken aus deutschen Romanen N2 - Recent advances in Natural Language Preprocessing (NLP) allow for a fully automatic extraction of character networks for an incoming text. These networks serve as a compact and easy to grasp representation of literary fiction. They offer an aggregated view of the text, which can be used during distant reading approaches for the analysis of literary hypotheses. In their core, the networks consist of nodes, which represent literary characters, and edges, which represent relations between characters. For an automatic extraction of such a network, the first step is the detection of the references of all fictional entities that are of importance for a text. References to the fictional entities appear in the form of names, noun phrases and pronouns and prior to this work, no components capable of automatic detection of character references were available. Existing tools are only capable of detecting proper nouns, a subset of all character references. When evaluated on the task of detecting proper nouns in the domain of literary fiction, they still underperform at an F1-score of just about 50%. This thesis uses techniques from the field of semi-supervised learning, such as Distant supervision and Generalized Expectations, and improves the results of an existing tool to about 82%, when evaluated on all three categories in literary fiction, but without the need for annotated data in the target domain. However, since this quality is still not sufficient, the decision to annotate DROC, a corpus comprising 90 fragments of German novels was made. This resulted in a new general purpose annotation environment titled as ATHEN, as well as annotated data that spans about 500.000 tokens in total. Using this data, the combination of supervised algorithms and a tailored rule based algorithm, which in combination are able to exploit both - local consistencies as well as global consistencies - yield an algorithm with an F1-score of about 93%. This component is referred to as the Kallimachos tagger. A character network can not directly display references however, instead they need to be clustered so that all references that belong to a real world or fictional entity are grouped together. This process widely known as coreference resolution is a hard problem in the focus of research for more than half a century. This work experimented with adaptations of classical feature based machine learning, with a dedicated rule based algorithm and with modern techniques of Deep Learning, but no approach can surpass 55% B-Cubed F1, when evaluated on DROC. Due to this barrier, many researchers do not use a fully-fledged coreference resolution when they extract character networks, but only focus on a more forgiving subset- the names. For novels such as Alice's Adventures in Wonderland by Lewis Caroll, this would however only result in a network in which many important characters are missing. In order to integrate important characters into the network that are not named by the author, this work makes use of automatic detection of speaker and addressees for direct speech utterances (all entities involved in a dialog are considered to be of importance). This problem is by itself not an easy task, however the most successful system analysed in this thesis is able to correctly determine the speaker to about 85% of the utterances as well as about 65% of the addressees. This speaker information can not only help to identify the most dominant characters, but also serves as a way to model the relations between entities. During the span of this work, components have been developed to model relations between characters using speaker attribution, using co-occurrences as well as by the usage of true interactions, for which yet again a dataset was annotated using ATHEN. Furthermore, since relations between characters are usually typed, a component for the extraction of a typed relation was developed. Similar to the experiments for the character reference detection, a combination of a rule based and a Maximum Entropy classifier yielded the best overall results, with the extraction of family relations showing a score of about 80% and the quality of love relations with a score of about 50%. For family relations, a kernel for a Support Vector Machine was developed that even exceeded the scores of the combined approach but is behind on the other labels. In addition, this work presents new ways to evaluate automatically extracted networks without the need of domain experts, instead it relies on the usage of expert summaries. It also refrains from the uses of social network analysis for the evaluation, but instead presents ranked evaluations using Precision@k and the Spearman Rank correlation coefficient for the evaluation of the nodes and edges of the network. An analysis using these metrics showed, that the central characters of a novel are contained with high probability but the quality drops rather fast if more than five entities are analyzed. The quality of the edges is mainly dominated by the quality of the coreference resolution and the correlation coefficient between gold edges and system edges therefore varies between 30 and 60%. All developed components are aggregated alongside a large set of other preprocessing modules in the Kallimachos pipeline and can be reused without any restrictions. N2 - Techniken zur automatischen Extraktion von Figurennetzwerken aus deutschen Romanen KW - Textanalyse KW - Character Networks KW - Coreference KW - Character Reference Detection KW - Relation Detection KW - Quotation Attribution KW - Netzwerkanalyse KW - Digital Humanities KW - Netzwerk Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-209186 ER -