TY - THES A1 - Loh, Frank T1 - Monitoring the Quality of Streaming and Internet of Things Applications T1 - Monitoring der Qualität von Video Streaming und Internet der Dingen Anwendungen N2 - The ongoing and evolving usage of networks presents two critical challenges for current and future networks that require attention: (1) the task of effectively managing the vast and continually increasing data traffic and (2) the need to address the substantial number of end devices resulting from the rapid adoption of the Internet of Things. Besides these challenges, there is a mandatory need for energy consumption reduction, a more efficient resource usage, and streamlined processes without losing service quality. We comprehensively address these efforts, tackling the monitoring and quality assessment of streaming applications, a leading contributor to the total Internet traffic, as well as conducting an exhaustive analysis of the network performance within a Long Range Wide Area Network (LoRaWAN), one of the rapidly emerging LPWAN solutions. N2 - Die fortlaufende und sich weiterentwickelnde Nutzung von Netzwerken stellt zwei entscheidende Herausforderungen für aktuelle und zukünftige Netzwerke dar, die Aufmerksamkeit erfordern: (1) die Aufgabe, den enormen und kontinuierlich wachsenden Datenverkehr effektiv zu verwalten, und (2) die Notwendigkeit, die durch die Einführung des Internets der Dinge resultierende große Anzahl von Endgeräten zu bewältigen. Neben diesen Herausforderungen besteht ein zwingender Bedarf an einer Reduzierung des Energieverbrauchs, einer effizienteren Ressourcennutzung und von optimierten Prozessen ohne Einbußen bei der Servicequalität. Wir gehen diese Bemühungen umfassend an und befassen uns mit der Überwachung und Qualitätsbewertung von Streaming-Anwendungen, die einen wesentlichen Beitrag zum gesamten Internetverkehr leisten, sowie mit der Durchführung einer generellen Analyse der Netzwerkleistung innerhalb eines Long Range Wide Area Network (LoRaWAN), einer der am schnellsten wachsenden LPWAN-Lösungen. T3 - Würzburger Beiträge zur Leistungsbewertung Verteilter Systeme - 01/24 KW - Leistungsbewertung KW - Simulation KW - LoRaWAN KW - Quality of Experience KW - Streaming KW - Leistungsbewertung KW - Simulation KW - LoRaWAN KW - Quality of Experience KW - Video Streaming Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-350969 SN - 1432-8801 N1 - Formal korrigierte, inhaltlich identische Version zur Dissertation unter https://doi.org/10.25972/OPUS-34783. ET - korrigierte Version ER - TY - THES A1 - Loh, Frank T1 - Monitoring the Quality of Streaming and Internet of Things Applications T1 - Monitoring der Qualität von Video Streaming und Internet der Dingen Anwendungen N2 - The ongoing and evolving usage of networks presents two critical challenges for current and future networks that require attention: (1) the task of effectively managing the vast and continually increasing data traffic and (2) the need to address the substantial number of end devices resulting from the rapid adoption of the Internet of Things. Besides these challenges, there is a mandatory need for energy consumption reduction, a more efficient resource usage, and streamlined processes without losing service quality. We comprehensively address these efforts, tackling the monitoring and quality assessment of streaming applications, a leading contributor to the total Internet traffic, as well as conducting an exhaustive analysis of the network performance within a Long Range Wide Area Network (LoRaWAN), one of the rapidly emerging LPWAN solutions. N2 - Die fortlaufende und sich weiterentwickelnde Nutzung von Netzwerken stellt zwei entscheidende Herausforderungen für aktuelle und zukünftige Netzwerke dar, die Aufmerksamkeit erfordern: (1) die Aufgabe, den enormen und kontinuierlich wachsenden Datenverkehr effektiv zu verwalten, und (2) die Notwendigkeit, die durch die Einführung des Internets der Dinge resultierende große Anzahl von Endgeräten zu bewältigen. Neben diesen Herausforderungen besteht ein zwingender Bedarf an einer Reduzierung des Energieverbrauchs, einer effizienteren Ressourcennutzung und von optimierten Prozessen ohne Einbußen bei der Servicequalität. Wir gehen diese Bemühungen umfassend an und befassen uns mit der Überwachung und Qualitätsbewertung von Streaming-Anwendungen, die einen wesentlichen Beitrag zum gesamten Internetverkehr leisten, sowie mit der Durchführung einer generellen Analyse der Netzwerkleistung innerhalb eines Long Range Wide Area Network (LoRaWAN), einer der am schnellsten wachsenden LPWAN-Lösungen. T3 - Würzburger Beiträge zur Leistungsbewertung Verteilter Systeme - 01/24 KW - Leistungsbewertung KW - Simulation KW - LoRaWAN KW - Quality of Experience KW - Streaming KW - Video Streaming KW - Energy Efficiency Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-347831 SN - 1432-8801 N1 - Eine formal korrigierte, inhaltlich identische Version dieser Dissertation ist unter https://doi.org/10.25972/OPUS-35096 erschienen. ER - TY - THES A1 - Geißler, Stefan T1 - Performance Evaluation of Next-Generation Data Plane Architectures and their Components T1 - Leistungsbewertung von Data Plane Architekturen der Nächsten Generation sowie ihrer Einzelkomponenten N2 - In this doctoral thesis we cover the performance evaluation of next generation data plane architectures, comprised of complex software as well as programmable hardware components that allow fine granular configuration. In the scope of the thesis we propose mechanisms to monitor the performance of singular components and model key performance indicators of software based packet processing solutions. We present novel approaches towards network abstraction that allow the integration of heterogeneous data plane technologies into a singular network while maintaining total transparency between control and data plane. Finally, we investigate a full, complex system consisting of multiple software-based solutions and perform a detailed performance analysis. We employ simulative approaches to investigate overload control mechanisms that allow efficient operation under adversary conditions. The contributions of this work build the foundation for future research in the areas of network softwarization and network function virtualization. N2 - Diese Doktorarbeit behandelt die Leistungsbewertung von Data Plane Architekturen der nächsten Generation, die aus komplexen Softwarelösungen sowie programmierbaren Hardwarekomponenten bestehen. Hierbei werden Mechanismen entwickelt, die es ermöglichen, die Leistungsfähigkeit einzelner Komponenten zu messen und zentrale Leistungsindikatoren softwarebasierter Systeme zur Verarbeitung von Datenpaketen zu modellieren. Es werden neuartige Ansätze zur Netzabstraktion entworfen, die eine vollständig transparente Integration heterogener Technologien im selben Netz ermöglichen. Schließlich wird eine umfassende Leistungsbewertung eines komplexen Systems, das aus einer Vielzahl softwarebasierter Netzfunktionen besteht, durchgeführt. Anhand simulativer Modelle werden Überlastkontrollmechanismen entwickelt, die es dem System erlauben auch unter Überlast effizient zu arbeiten. Die Beiträge dieser Arbeit bilden die Grundlage weiterer Forschungen im Bereich der Softwarisierung von Netzen sowie der Virtualisierung von Netzfunktionen. T3 - Würzburger Beiträge zur Leistungsbewertung Verteilter Systeme - 02/21 KW - Leistungsbewertung KW - Simulation KW - Zeitdiskretes System KW - Implementierung KW - performance evaluation KW - simulation KW - discrete-time analysis KW - network softwarization KW - mobile networks Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-260157 SN - 1432-8801 ER - TY - THES A1 - Königbauer, Martina T1 - Adaptives Referenzmodell für hybrides Projektmanagement T1 - Adaptive reference model for hybrid project management N2 - Das Management von Projekten, welche sowohl einmalige und interdisziplinäre Aufgabenstellungen als auch individuelle Rahmenbedingungen und Einschränkungen umfassen, stellt eine anspruchsvolle Aufgabe dar. Es gibt einige standardisierte Vorgehensmodelle, die einen organisatorischen Rahmen aus Phasen, Prozessen, Rollen und anzuwendenden Methoden anbieten. Traditionellen Vorgehensmodellen wird in der Regel gefolgt, wenn die zu erzielenden Ergebnisse und der Ablauf eines Projektes auf Basis der zur Verfügung stehenden Informationen geplant werden können. Agile Vorgehensmodelle werden vorranging genutzt, wenn keine ausreichenden Informationen zur Verfügung stehen, um eine vollständige Planung aufzusetzen. Ihr Fokus liegt darauf, flexibel auf sich ändernde Anforderungen einzugehen. Im direkten Austausch mit Kunden werden in meist mehreren aufeinander folgenden Zyklen Zwischenergebnisse bewertet und darauf basierend die jeweils nächsten Entwicklungsschritte geplant und umgesetzt. Hybride Vorgehensmodelle werden genutzt, wenn Methoden aus mehreren unterschiedlichen Vorgehensmodellen erforderlich sind, um ein Projekt zu bearbeiten. Die Bedeutung hybrider Vorgehensmodelle hat über die Jahre immer weiter zugenommen. Ihr besonderer Nutzen liegt darin, dass die Methodenauswahl auf den individuellen Kontext eines Projektes angepasst werden kann. Da es in der Praxis aber eine sehr große Anzahl an Methoden gibt, ist die Auswahl der zum Kontext passenden und deren Kombination zu einem individuellen Vorgehensmodell selbst für Experten/-innen eine Herausforderung. Die Forschungsergebnisse der vorliegenden Arbeit zeigen, dass es bisher auch kein Schema zur Unterstützung dieses Prozesses gab. Um diese Forschungslücke zu schließen, wurde ein adaptives Referenzmodell für hybrides Projektmanagement (ARHP) entwickelt. Der wissenschaftliche Beitrag besteht zum einen in der Entwicklung eines Ablaufs zur Selektion und Kombination von zum Kontext passenden Methoden und zum anderen in der Umsetzung des Ablaufs als semi-automatisches Werkzeug. Referenzmodellnutzer/-innen können darin ihren individuellen Projektkontext durch die Auswahl zutreffender Kriterien (sogenannter Parameterausprägungen) erfassen. Das ARHP bietet ihnen dann ein Vorgehensmodell an, welches aus miteinander anwendbaren und verknüpfbaren Methoden besteht. Da in der Projektmanagement Community häufig schnelle Entscheidungen für ein geeignetes Vorgehensmodell erforderlich sind und selbst Experten/-innen nicht alle Methoden kennen, wird der Nutzen der ''digitalen Beratung'', die das semi-automatische ARHP bietet, als hoch eingestuft. Sowohl die für die Erfassung des Kontextes erforderlichen Parameter als auch die Methoden mit der höchsten Praxisrelevanz, wurden anhand einer umfangreichen Umfrage erforscht. Ihr wissenschaftlicher Beitrag besteht unter anderem in der erstmaligen Erfassung von Begründungen für die Verwendung von Methoden im Rahmen individueller, hybrider Vorgehensmodelle. Zudem erlauben die gesammelten Daten einen direkten Vergleich der Methodennutzung in funktionierenden und nicht funktionierenden hybriden Vorgehensmodellen. Mit der so vorhandenen Datengrundlage wird in drei Design Science Research Zyklen ein Algorithmus entwickelt, der den Adaptionsmechanismus des ARHP bildet. Die Evaluation des ARHP erfolgt anhand des entwickelten semi-automatischen Prototypen unter Einbeziehung von Projektmanagementexperten/-innen. Ausführungen zur Pflege des ARHP können als Handlungsanleitung für Referenzmodellkonstrukteure/-innen verstanden werden. Sie bilden den letzten Teil der Arbeit und zeigen, wie das ARHP kontinuierlich weiterentwickelt werden kann. Zudem wird ein Ausblick darauf gegeben, um welche Themen das ARHP im Rahmen weiterführender Forschung erweitert werden kann. Dabei handelt es sich zum Beispiel um eine noch stärkere Automatisierung und Empfehlungen für das Change Management, welche beide bereits in Vorbereitung sind. N2 - The importance of hybrid process models has continued to grow over the years. Their particular benefit lies in the fact that the selection of methods can be adapted to the individual context of a project. However, since there is a very large number of methods in practice, selecting the ones that fit the context and combining them to form an individual process model is a challenge even for experts.The research results of the present work show that until now there has also been no procedure to support this process. To close this research gap, an adaptive reference model for hybrid project management (ARHP) has been developed. The scientific contribution consists on the one hand in the development of a process for the selection and combination of methods suitable for the context and on the other hand in the implementation of the process as a semi-automatic tool. Users of the reference model can enter their individual project context by selecting appropriate criteria (so-called parameter values). The ARHP then offers them a process model consisting of methods that can be used and linked with each other. T3 - Würzburger Beiträge zur Leistungsbewertung Verteilter Systeme - 01/21 KW - Projektmanagement KW - Referenzmodell KW - Vorgehensmodell KW - SIMOC KW - Elementaggregation über dynamische Terme Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-247519 SN - 1432-8801 ER - TY - THES A1 - Moldovan, Christian T1 - Performance Modeling of Mobile Video Streaming T1 - Leistungsmodellierung von mobilem Videostreaming N2 - In the past two decades, there has been a trend to move from traditional television to Internet-based video services. With video streaming becoming one of the most popular applications in the Internet and the current state of the art in media consumption, quality expectations of consumers are increasing. Low quality videos are no longer considered acceptable in contrast to some years ago due to the increased sizes and resolution of devices. If the high expectations of the users are not met and a video is delivered in poor quality, they often abandon the service. Therefore, Internet Service Providers (ISPs) and video service providers are facing the challenge of providing seamless multimedia delivery in high quality. Currently, during peak hours, video streaming causes almost 58\% of the downstream traffic on the Internet. With higher mobile bandwidth, mobile video streaming has also become commonplace. According to the 2019 Cisco Visual Networking Index, in 2022 79% of mobile traffic will be video traffic and, according to Ericsson, by 2025 video is forecasted to make up 76% of total Internet traffic. Ericsson further predicts that in 2024 over 1.4 billion devices will be subscribed to 5G, which will offer a downlink data rate of 100 Mbit/s in dense urban environments. One of the most important goals of ISPs and video service providers is for their users to have a high Quality of Experience (QoE). The QoE describes the degree of delight or annoyance a user experiences when using a service or application. In video streaming the QoE depends on how seamless a video is played and whether there are stalling events or quality degradations. These characteristics of a transmitted video are described as the application layer Quality of Service (QoS). In general, the QoS is defined as "the totality of characteristics of a telecommunications service that bear on its ability to satisfy stated and implied needs of the user of the service" by the ITU. The network layer QoS describes the performance of the network and is decisive for the application layer QoS. In Internet video, typically a buffer is used to store downloaded video segments to compensate for network fluctuations. If the buffer runs empty, stalling occurs. If the available bandwidth decreases temporarily, the video can still be played out from the buffer without interruption. There are different policies and parameters that determine how large the buffer is, at what buffer level to start the video, and at what buffer level to resume playout after stalling. These have to be finely tuned to achieve the highest QoE for the user. If the bandwidth decreases for a longer time period, a limited buffer will deplete and stalling can not be avoided. An important research question is how to configure the buffer optimally for different users and situations. In this work, we tackle this question using analytic models and measurement studies. With HTTP Adaptive Streaming (HAS), the video players have the capability to adapt the video bit rate at the client side according to the available network capacity. This way the depletion of the video buffer and thus stalling can be avoided. In HAS, the quality in which the video is played and the number of quality switches also has an impact on the QoE. Thus, an important problem is the adaptation of video streaming so that these parameters are optimized. In a shared WiFi multiple video users share a single bottleneck link and compete for bandwidth. In such a scenario, it is important that resources are allocated to users in a way that all can have a similar QoE. In this work, we therefore investigate the possible fairness gain when moving from network fairness towards application-layer QoS fairness. In mobile scenarios, the energy and data consumption of the user device are limited resources and they must be managed besides the QoE. Therefore, it is also necessary, to investigate solutions, that conserve these resources in mobile devices. But how can resources be conserved without sacrificing application layer QoS? As an example for such a solution, this work presents a new probabilistic adaptation algorithm that uses abandonment statistics for ts decision making, aiming at minimizing the resource consumption while maintaining high QoS. With current protocol developments such as 5G, bandwidths are increasing, latencies are decreasing and networks are becoming more stable, leading to higher QoS. This allows for new real time data intensive applications such as cloud gaming, virtual reality and augmented reality applications to become feasible on mobile devices which pose completely new research questions. The high energy consumption of such applications still remains an issue as the energy capacity of devices is currently not increasing as quickly as the available data rates. In this work we compare the optimal performance of different strategies for adaptive 360-degree video streaming. N2 - In den vergangenen zwei Jahrzehnten gab es einen starken Trend weg vom traditionellen Fernsehen hin zum Videostreaming über das Internet. Dabei macht Videostreaming zurzeit den größten Anteil des gesamten Internetverkehrs aus. Beim Herunterladen eines Internetvideos wird das Video vor dem Ausspielen in einem Puffer beim Client zwischengespeichert, um Netzfluktuationen zu kompensieren. Leert sich der Puffer, so muss das Video stoppen (Stalling), um Daten nachzuladen. Um dies zu verhindern, müssen Pufferstrategien und -Parameter optimal an Nutzerszenarien angepasst sein. Mit diesem Problem beschäftigen wir uns im ersten Kapitel dieser Arbeit unter Anwendung von Wartschlangenmodelle, numerische Simulationen und Messstudien. Zur Bewertung der Güte eines Videostreams nutzen wir ein Modell, das auf subjektiven Studien basiert. Mit HTTP Adaptive Streaming hat der Videoplayer die Fähigkeit, Videosegmente in einer an die Bandbreite angepasster Bitrate und somit auch angepasster Qualität anzufordern. Somit kann die Leerung des Puffers gebremst und Stalling verhindert werden. Allerdings hat neben Stalling auch die Videoqualität und die Anzahl der Qualitätswechsel Auswirkungen auf die Zufriedenheit der Zuschauer. Inwiefern diese Parameter optimiert werden können, untersuchen wir im zweiten Kapitel mit Hilfe von linearen und quadratischen Programmen sowie einem Warteschlangenmodell. Hierbei untersuchen wie auch die Fairness in Netzen mit mehreren Nutzern und 360-Grad Videos. Im dritten Kapitel untersuchen wir Möglichkeiten, Videostreaming ressourcenschonender zu gestalten. Hierzu untersuchen wir in einer Feldstudie die Möglichkeit Caches an WiFi-Hotspots einzusetzen und somit redundanten Verkehr zu reduzieren. Wir untersuchen das Verhalten von mobilen Videonutzern, indem wir eine Nutzerstudie auswerten. Außerdem stellen wir einen neuen Adaptionsalgorithmus vor, der abhängig vom Nutzerverhalten den Datenverbrauch und Stromverbrauch des Videostreams reduziert. T3 - Würzburger Beiträge zur Leistungsbewertung Verteilter Systeme - 01/20 KW - Videoübertragung KW - Quality of Experience KW - Dienstgüte KW - Leistungsbewertung KW - Mathematisches Modell KW - video streaming KW - performance modeling KW - optimization Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-228715 SN - 1432-8801 ER - TY - THES A1 - Borchert, Kathrin Johanna T1 - Estimating Quality of Experience of Enterprise Applications - A Crowdsourcing-based Approach T1 - Abschätzung der Quality of Experience von Geschäftsanwendungen - Ein crowdsourcing-basierter Ansatz N2 - Nowadays, employees have to work with applications, technical services, and systems every day for hours. Hence, performance degradation of such systems might be perceived negatively by the employees, increase frustration, and might also have a negative effect on their productivity. The assessment of the application's performance in order to provide a smooth operation of the application is part of the application management. Within this process it is not sufficient to assess the system performance solely on technical performance parameters, e.g., response or loading times. These values have to be set into relation to the perceived performance quality on the user's side - the quality of experience (QoE). This dissertation focuses on the monitoring and estimation of the QoE of enterprise applications. As building models to estimate the QoE requires quality ratings from the users as ground truth, one part of this work addresses methods to collect such ratings. Besides the evaluation of approaches to improve the quality of results of tasks and studies completed on crowdsourcing platforms, a general concept for monitoring and estimating QoE in enterprise environments is presented. Here, relevant design dimension of subjective studies are identified and their impact of the QoE is evaluated and discussed. By considering the findings, a methodology for collecting quality ratings from employees during their regular work is developed. The method is realized by implementing a tool to conduct short surveys and deployed in a cooperating company. As a foundation for learning QoE estimation models, this work investigates the relationship between user-provided ratings and technical performance parameters. This analysis is based on a data set collected in a user study in a cooperating company during a time span of 1.5 years. Finally, two QoE estimation models are introduced and their performance is evaluated. N2 - Heutzutage sind Geschäftsanwendungen und technische Systeme aus dem Arbeitsalltag vieler Menschen nicht mehr wegzudenken. Kommt es bei diesen zu Performanzproblemen, wie etwa Verzögerungen im Netzwerk oder Überlast im Datenzentrum, kann sich dies negativ auf die Effizienz und Produktivität der Mitarbeiter auswirken. Daher ist es wichtig aus Sicht der Betreiber die Performanz der Anwendungen und Systeme zu überwachen. Hierbei ist es allerdings nicht ausreichend die Qualität lediglich anhand von technischen Performanzparametern wie Antwortzeiten zu beurteilen. Stattdessen sollten diese Werte in Relation zu der von den Mitarbeitern wahrgenommenen Performanz oder Quality of Experience (QoE) gesetzt werden. Diese Dissertation beschäftigt sich mit dem Monitoring und der Abschätzung der QoE von Geschäftsanwendungen. Neben der Präsentation eines generellen Konzepts zum Monitoring und der Abschätzung der QoE im Geschäftsumfeld, befasst sich die Arbeit mit Aspekten der Erfassung von Qualitätsbewertungen durch die Nutzer. Dies umfasst einerseits die Evaluation von Ansätzen zur Verbesserung der Qualität von Aufgaben- und Studienergebnissen auf Crowdsourcing-Plattformen. Andererseits werden relevante Dimensionen des Designs von Studien zur Untersuchung der QoE von Geschäftsanwendungen aufgezeigt und deren Einfluss auf die QoE diskutiert und evaluiert. Letztendlich wird eine Methodik zur Erfassung von Qualitätsbewertungen durch Mitarbeiter während ihrer regulären Arbeit vorgestellt, welche implementiert und in einem kooperierenden Unternehmen ausgerollt wurde. Als Grundlage der Entwicklung eines QoE Abschätzungsmodells, untersucht diese Arbeit den Zusammenhang zwischen Bewertungen durch die Nutzer und technischen Performanzparametern. Die Untersuchungen erfolgen auf einem Datensatz, welcher in einer Studie über 1.5 Jahre in einem kooperierenden Unternehmen gesammelt wurde. Des Weiteren werden zwei Methoden zur Abschätzung der QoE präsentiert und deren Performanz evaluiert. T3 - Würzburger Beiträge zur Leistungsbewertung Verteilter Systeme - 02/20 KW - Quality of Experience KW - Crowdsourcing KW - Monitoring KW - Enterprise-Resource-Planning KW - Quality of Experience KW - Crowdsourcing KW - User studies KW - Enterprise application KW - QoE estimation KW - Quality of Experience KW - Crowdsourcing KW - Nutzerstudien KW - Geschäftsanwendung KW - QoE-Abschätzung KW - Monitoring Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-216978 SN - 1432-8801 ER - TY - THES A1 - Metter, Christopher Valentin T1 - Resilience, Availabilty, and Serviceability Evaluation in Software-defined Networks T1 - Auswertung der Ausfallsicherheit, Verfügbarkeit und Gebrauchstauglichkeit in Software-definierten Netzwerken N2 - With the introduction of Software-defined Networking (SDN) in the late 2000s, not only a new research field has been created, but a paradigm shift was initiated in the broad field of networking. The programmable network control by SDN is a big step, but also a stumbling block for many of the established network operators and vendors. As with any new technology the question about the maturity and the productionreadiness of it arises. Therefore, this thesis picks specific features of SDN and analyzes its performance, reliability, and availability in scenarios that can be expected in production deployments. The first SDN topic is the performance impact of application traffic in the data plane on the control plane. Second, reliability and availability concerns of SDN deployments are exemplary analyzed by evaluating the detection performance of a common SDN controller. Thirdly, the performance of P4, a technology that enhances SDN, or better its impact of certain control operations on the processing performance is evaluated. N2 - Mit der Einführung von Software-definierten Netzwerken (SDN) in den späten 2000ern wurde nicht nur ein neues Forschungsfeld begründet sondern auch ein Paradigmenwechsel im breiten Feld der Netzwerktechnik eingeleitet. Die programmierbare Kontrolle über das Netzwerk durch SDN ist eine großer Schritt, aber auch ein Stolperstein für viele der etablierten Netzwerk Operatoren und Hersteller. Wie mit jeder neuen Technologie stellt sich die Frage über die Reife und die Eignung für den Produktionseinsatz. Diese Arbeit wählt deswegen drei spezifische Eigenschaften von SDN und untersucht sie auf ihre Performanz, Ausfallsicherheit und Verfügbarkeit in Szenarien die so in Produktionsumgebungen zu erwarten sind. Das erste SDN Thema ist der Einfluss von Applikationsverkehr in der Data Plane auf die Performanz in der Control Plane. Als zweites Thema werden die Zuverlässigkeits- und Verfügbarkeitsbedenken von SDN Installationen exemplarisch durch die Evaluation der Erkennungsperformanz eines gängigen SDN Controllers analyisiert.Schließlich wird die Verarbeitungsperformanz von P4, einer Technolgie die SDN erweitert, anhand eines Beispiels evaluiert. T3 - Würzburger Beiträge zur Leistungsbewertung Verteilter Systeme - 04/18 KW - Leistungsbewertung KW - Telekommunikationsnetz KW - Netzwerk KW - Software-defined Networking KW - RAS Evaluation KW - Software Defined Networking Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-176788 SN - 1432-8801 ER - TY - THES A1 - Lange, Stanislav T1 - Optimization of Controller Placement and Information Flow in Softwarized Networks T1 - Optimierungsverfahren für Controllerplatzierung und Informationsaustausch in softwarisierten Netzen N2 - The Software Defined Networking (SDN) paradigm offers network operators numerous improvements in terms of flexibility, scalability, as well as cost efficiency and vendor independence. However, in order to maximize the benefit from these features, several new challenges in areas such as management and orchestration need to be addressed. This dissertation makes contributions towards three key topics from these areas. Firstly, we design, implement, and evaluate two multi-objective heuristics for the SDN controller placement problem. Secondly, we develop and apply mechanisms for automated decision making based on the Pareto frontiers that are returned by the multi-objective optimizers. Finally, we investigate and quantify the performance benefits for the SDN control plane that can be achieved by integrating information from external entities such as Network Management Systems (NMSs) into the control loop. Our evaluation results demonstrate the impact of optimizing various parameters of softwarized networks at different levels and are used to derive guidelines for an efficient operation. N2 - Heutige Kommunikationsnetze müssen ein breites Spektrum an Applikationen mit sehr heterogenen Anforderungen unterstützen sowie mit einer kontinuierlich steigenden Anzahl an Nutzern und Endgeräten skalieren. Softwarisierte Netze, welche sich insbesondere durch Paradigmen wie Software Defined Networking (SDN) und Network Functions Virtualization (NFV) kennzeichnen, zielen auf eine Erhöhung der Flexibilität und Skalierbarkeit ab, um diesen Anforderungen auch in Zukunft gerecht zu werden. Um jedoch in vollem Umfang von den Vorteilen dieser Paradigmen zu profitieren, müssen neue Fragestellungen adressiert werden. Diese umfassen insbesondere die Platzierung neuer Entitäten im Netz sowie deren Integration in bestehende Architekturen und ihre Interaktion mit vorhandenen Komponenten. In dieser Dissertation werden Optimierungsverfahren entwickelt und bewertet, welche zu verschiedenen Zeitpunkten im Lebenszyklus softwarisierter Netze eingesetzt werden und ihre Performanz sowie Automatisierbarkeit steigern. Diese umfassen Verfahren für das Platzieren von Kontrollentitäten in SDN-basierten Netzen, welche eine effiziente Dimensionierung während der Planungsphase ermöglichen. Zudem werden diese Verfahren um Mechanismen erweitert, welche eine automatisierte Anpassung an dynamische Veränderungen ermöglichen und somit die Effizienz des Netzes aufrechterhalten. Zuletzt wird die Integration von Daten aus externen Informationsquellen wie Netzmanagementsystemen in SDN-Komponenten untersucht, um deren Entscheidungen und somit die Performanz im gesamten Netz zu optimieren. T3 - Würzburger Beiträge zur Leistungsbewertung Verteilter Systeme - 03/18 KW - Leistungsbewertung KW - Graph KW - Optimierung KW - Telekommunikationsnetz KW - Platzierungsalgorithmen KW - Softwarisierte Netze Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-174570 SN - 1432-8801 ER - TY - THES A1 - Nguyen-Ngoc, Anh T1 - On Performance Assessment of Control Mechanisms and Virtual Components in SDN-based Networks T1 - Zur Leistungsbewertung von Regelungsmechanismen und virtuellen Komponenten in SDN-basierten Netzwerken N2 - This dissertation focuses on the performance evaluation of all components of Software Defined Networking (SDN) networks and covers whole their architecture. First, the isolation between virtual networks sharing the same physical resources is investigated with SDN switches of several vendors. Then, influence factors on the isolation are identified and evaluated. Second, the impact of control mechanisms on the performance of the data plane is examined through the flow rule installation time of SDN switches with different controllers. It is shown that both hardware-specific and controller instance have a specific influence on the installation time. Finally, several traffic flow monitoring methods of an SDN controller are investigated and a new monitoring approach is developed and evaluated. It is confirmed that the proposed method allows monitoring of particular flows as well as consumes fewer resources than the standard approach. Based on findings in this thesis, on the one hand, controller developers can refer to the work related to the control plane, such as flow monitoring or flow rule installation, to improve the performance of their applications. On the other hand, network administrators can apply the presented methods to select a suitable combination of controller and switches in their SDN networks, based on their performance requirements N2 - Diese Dissertation konzentriert sich auf die Leistungsbewertung aller Komponenten von SDN-Netzwerken (Software Defined Networking) und deckt deren gesamte Architektur ab. Zuerst wird die Isolation zwischen virtuellen Netzwerken, die dieselben physischen Ressourcen teilen, mit SDN-Switches verschiedener Hersteller untersucht. Dann werden Einflussfaktoren auf die Isolation identifiziert und ausgewertet. Anschließen wird die Auswirkung von Kontrollmechanismen auf die Leistung der Datenebene durch die Flussregel-Installationszeit von SDN-Switches mit unterschiedlichen Controllern untersucht. Es wird gezeigt, dass sowohl Hardware-spezifische als auch Controller-Instanz einen spezifischen Einfluss auf die Installationszeit haben. Abschließend werden verschiedene Methoden der Verkehrsflussüberwachung eines SDN-Controllers untersucht und ein neuer Monitoringansatz entwickelt und evaluiert. Es wird bestätigt, dass die vorgeschlagene Methode die Überwachung bestimmter Flüsse ermöglicht und weniger Ressourcen verbraucht als der Standardansatz. Basierend auf den Ergebnissen dieser Arbeit können Controller-Entwickler einerseits die Arbeiten zur Steuerungsebene, wie zum Beispiel die Flussüberwachung oder die Flussregelinstallation, zur Verbesserung der Leistung ihrer Anwendungen verwenden. Auf der anderen Seite können Netzwerkadministratoren die vorgestellte Methode anwenden, um basierend auf ihren Leistungsanforderungen eine geeignete Kombination aus Controller und Switches in ihren SDN-Netzwerken auszuwählen. T3 - Würzburger Beiträge zur Leistungsbewertung Verteilter Systeme - 02/18 KW - Leistungsbewertung KW - SDN KW - Netzwerk KW - OpenFlow KW - Software Defined Networking KW - SDN Switches KW - Performance Evaluation KW - SDN Controllers Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-169328 SN - 1432-8801 ER - TY - THES A1 - Dinh-Xuan, Lam T1 - Quality of Experience Assessment of Cloud Applications and Performance Evaluation of VNF-Based QoE Monitoring T1 - Quality of Experience-Bewertung von Cloud-Anwendungen und Leistungsbewertung von VNF-basiertem QoE-Monitoring N2 - In this thesis various aspects of Quality of Experience (QoE) research are examined. The work is divided into three major blocks: QoE Assessment, QoE Monitoring, and VNF Performance Evaluation. First, prominent cloud applications such as Google Docs and a cloud-based photo album are explored. The QoE is characterized and the influence of packet loss and delay is studied. Afterwards, objective QoE monitoring for HTTP Adaptive Video Streaming (HAS) in the cloud is investigated. Additionally, by using a Virtual Network Function (VNF) for QoE monitoring in the cloud, the feasibility of an interworking of Network Function Virtualization (NFV) and cloud paradigm is evaluated. To this end, a VNF that exploits deep packet inspection technique was used to parse the video traffic. An algorithm is then designed accordingly to estimate video quality and QoE based on network and application layer parameters. To assess the accuracy of the estimation, the VNF is measured in different scenarios under different network QoS and the virtual environment of the cloud architecture. The insights show that the different geographical deployments of the VNF influence the accuracy of the video quality and QoE estimation. Various Service Function Chain (SFC) placement algorithms have been proposed and compared in the context of edge cloud networks. On the one hand, this research is aimed at cloud service providers by providing methods for evaluating QoE for cloud applications. On the other hand, network operators can learn the pitfalls and disadvantages of using the NFV paradigm for such a QoE monitoring mechanism. N2 - In dieser Arbeit werden verschiedene Aspekte von Quality of Experience (QoE) und QoE-Monitoring untersucht. Die Arbeit teilt sich in drei große Blöcke auf: QoE Assessment, QoE Monitoring und Leistungsuntersuchung einer VNF. Zunächst werden prominente Cloud-Anwendungen wie Google Docs und ein Cloud-basiertes Photoalbum untersucht. Die QoE wird charakterisiert und es wird der Einfluss von Paketverlust und Delay studiert. Danach wird das objektive QoE-Monitoring für HTTP Adaptive Video Streaming (HAS) in der Cloud untersucht. Durch die Verwendung einer virtuellen Netzwerkfunktion (Virtual Network Function, VNF) für die QoE-Überwachung in der Cloud wurde außerdem die Durchführbarkeit eines Zusammenwirkens von Netzwerkfunktionsvirtualisierung (NFV) und Cloud-Paradigma bewertet. Zu diesem Zweck wurde der VNF, die die Deep-Packet-Inspection-Technik benutzt, zum Parsen des Videoverkehrs verwendet. Im Anschluss wurde ein Algorithmus entworfen, um die Videoqualität und die QoE basierend auf Netzwerk- und Anwendungsschichtparametern zu schätzen. Um die Genauigkeit der Schätzung zu bewerten, wurde die VNF in verschiedenen Szenarien unter verschiedener Netzwerk-QoS und der virtuellen Umgebung der Cloud-Architektur gemessen. Die Erkenntnisse zeigen, dass die unterschiedlichen geografischen Implementierungen der VNF die Genauigkeit der Schätzung der Videoqualität und QoE beeinflussen. Es wurden verschiedene Platzierungsalgorithmen der Service Function Chain (SFC) vorgeschlagen und im Kontext von Edge-Cloud-Netzwerken verglichen. Diese Forschungsarbeit zielt zum einen auf Cloud-Service-Provider ab, indem ihnen Methoden zur Bewertung der QoE für Cloud-Anwendungen zur Verfügung gestellt werden. Auf der anderen Seite können die Netzwerkbetreiber die Fallstricke und Nachteile der Anwendung des NFV-Paradigmas für einen solchen QoE-Überwachungsmechanismus erlernen. T3 - Würzburger Beiträge zur Leistungsbewertung Verteilter Systeme - 01/18 KW - Quality of Experience KW - QoE Monitoring KW - Netzwerk KW - Virtualisierung KW - Network Function Virtualization KW - Performance Evaluation KW - Leistungsbewertung Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-169182 SN - 1432-8801 ER - TY - THES A1 - Seufert, Michael Thomas T1 - Quality of Experience and Access Network Traffic Management of HTTP Adaptive Video Streaming T1 - Quality of Experience und Verkehrsmanagement in Zugangsnetzwerken für adaptives HTTP Videostreaming N2 - The thesis focuses on Quality of Experience (QoE) of HTTP adaptive video streaming (HAS) and traffic management in access networks to improve the QoE of HAS. First, the QoE impact of adaptation parameters and time on layer was investigated with subjective crowdsourcing studies. The results were used to compute a QoE-optimal adaptation strategy for given video and network conditions. This allows video service providers to develop and benchmark improved adaptation logics for HAS. Furthermore, the thesis investigated concepts to monitor video QoE on application and network layer, which can be used by network providers in the QoE-aware traffic management cycle. Moreover, an analytic and simulative performance evaluation of QoE-aware traffic management on a bottleneck link was conducted. Finally, the thesis investigated socially-aware traffic management for HAS via Wi-Fi offloading of mobile HAS flows. A model for the distribution of public Wi-Fi hotspots and a platform for socially-aware traffic management on private home routers was presented. A simulative performance evaluation investigated the impact of Wi-Fi offloading on the QoE and energy consumption of mobile HAS. N2 - Die Doktorarbeit beschäftigt sich mit Quality of Experience (QoE) – der subjektiv empfundenen Dienstgüte – von adaptivem HTTP Videostreaming (HAS) und mit Verkehrsmanagement, das in Zugangsnetzwerken eingesetzt werden kann, um die QoE des adaptiven Videostreamings zu verbessern. Zuerst wurde der Einfluss von Adaptionsparameters und der Zeit pro Qualitätsstufe auf die QoE von adaptivem Videostreaming mittels subjektiver Crowdsourcingstudien untersucht. Die Ergebnisse wurden benutzt, um die QoE-optimale Adaptionsstrategie für gegebene Videos und Netzwerkbedingungen zu berechnen. Dies ermöglicht Dienstanbietern von Videostreaming verbesserte Adaptionsstrategien für adaptives Videostreaming zu entwerfen und zu benchmarken. Weiterhin untersuchte die Arbeit Konzepte zum Überwachen von QoE von Videostreaming in der Applikation und im Netzwerk, die von Netzwerkbetreibern im Kreislauf des QoE-bewussten Verkehrsmanagements eingesetzt werden können. Außerdem wurde eine analytische und simulative Leistungsbewertung von QoE-bewusstem Verkehrsmanagement auf einer Engpassverbindung durchgeführt. Schließlich untersuchte diese Arbeit sozialbewusstes Verkehrsmanagement für adaptives Videostreaming mittels WLAN Offloading, also dem Auslagern von mobilen Videoflüssen über WLAN Netzwerke. Es wurde ein Modell für die Verteilung von öffentlichen WLAN Zugangspunkte und eine Plattform für sozialbewusstes Verkehrsmanagement auf privaten, häuslichen WLAN Routern vorgestellt. Abschließend untersuchte eine simulative Leistungsbewertung den Einfluss von WLAN Offloading auf die QoE und den Energieverbrauch von mobilem adaptivem Videostreaming. T3 - Würzburger Beiträge zur Leistungsbewertung Verteilter Systeme - 03/17 KW - Quality of Experience KW - Zugangsnetz KW - Videoübertragung KW - Adaptives System KW - Verkehrsregelung KW - Quality of Experience KW - Verkehrsmanagement KW - Adaptives Videostreaming KW - Quality of Experience KW - Traffic Management KW - Adaptive Video Streaming KW - Verkehrsleitsystem Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-154131 SN - 1432-8801 ER - TY - THES A1 - Burger, Valentin T1 - Performance Evalution and Optimization of Content Delivery Networks T1 - Leistungsbewertung und Optimierung von Content Delivery Networks N2 - Content Delivery Networks (CDNs) are networks that distribute content in the Internet. CDNs are increasingly responsible for the largest share of traffic in the Internet. CDNs distribute popular content to caches in many geographical areas to save bandwidth by avoiding unnecessary multihop retransmission. By bringing the content geographically closer to the user, CDNs also reduce the latency of the services. Besides end users and content providers, which require high availability of high quality content, CDN providers and Internet Service Providers (ISPs) are interested in an efficient operation of CDNs. In order to ensure an efficient replication of the content, CDN providers have a network of (globally) distributed interconnected datacenters at different points of presence (PoPs). ISPs aim to provide reliable and high speed Internet access. They try to keep the load on the network low and to reduce cost for connectivity with other ISPs. The increasing number of mobile devices such as smart phones and tablets, high definition video content and high resolution displays result in a continuous growth in mobile traffic. This growth in mobile traffic is further accelerated by newly emerging services, such as mobile live streaming and broadcasting services. The steep increase in mobile traffic is expected to reach by 2018 roughly 60% of total network traffic, the majority of which will be video. To handle the growth in mobile networks, the next generation of 5G mobile networks is designed to have higher access rates and an increased densification of the network infrastructure. With the explosion of access rates and number of base stations the backhaul of wireless networks will become congested. To reduce the load on the backhaul, the research community suggests installing local caches in gateway routers between the wireless network and the Internet, in base stations of different sizes, and in end-user devices. The local deployment of caches allows keeping the traffic within the ISPs network. The caches are organized in a hierarchy, where caches in the lowest tier are requested first. The request is forwarded to the next tier, if the requested object is not found. Appropriate evaluation methods are required to optimally dimension the caches dependent on the traffic characteristics and the available resources. Additionally methods are necessary that allow performance evaluation of backhaul bandwidth aggregation systems, which further reduce the load on the backhaul. This thesis analyses CDNs utilizing locally available resources and develops the following evaluations and optimization approaches: Characterization of CDNs and distribution of resources in the Internet, analysis and optimization of hierarchical caching systems with bandwidth constraints and performance evaluation of bandwidth aggregation systems. N2 - Netzwerke über die Inhalte im Internet verteilt werden, sogenannte „Content Delivery Networks“ (CDNs), sind für den Großteil des Datenverkehrs im Internet verantwortlich. Sie verteilen häufig angefragte Inhalte an Datenzentren und Zwischenspeicher, sogenannte „Caches“, die geographisch über viele Regionen verteilt sind. So erzielen CDNs Einsparungen in der Bandbreite, indem der Pfad von der Quelle des Inhalts zu den Caches entlastet wird. Da die Inhalte näher zu den Endnutzern gebracht werden, verringern CDNs außerdem die Latenz der Verbindung zu den bereitgestellten Diensten. Neben den Nutzern und Anbietern von Inhalten, die eine hohe Verfügbarkeit von qualitativ hochwertigen Inhalten fordern, sind CDN-Betreiber und Internetdienstanbieter an einem effizienten Betrieb von CDNs interessiert. Um eine effiziente Verteilung der Inhalte zu gewährleisten, erstellen CDN-Betreiber ein Netzwerk von Datenzentren, das global auf unterschiedliche wichtige Standorte verteilt ist. So versuchen CDN-Betreiber die Inhalte entsprechend der regionalen Nachfrage kosteneffizient an den verschiedenen Standorten vorzuhalten. Internetdienstanbieter ermöglichen, durch Bereitstellung von Breitband-anschlüssen, den Transport der Inhalte zu den Endnutzern. Sie versuchen die Last auf ihre Netze und die Kosten für Transitverbindungen gering zu halten. Durch die steigende Anzahl von mobilen Endgeräten, hochauflösenden Videoinhalten und Displays steigt der Datenverkehr in mobilen Verbindungsnetzwerken stetig an, wodurch sich neue Herausforderungen für CDNs ergeben. Zudem begünstigen neue Dienste, wie mobile Live-Videoübertragungen, das zunehmende Wachstum des mobilen Datenverkehrs. Laut aktueller Prognosen soll der mobile Datenverkehr im Jahr 2018 bereits zu 60% zum Gesamtverkehr des Internets beitragen. Um die erwartete Zunahme des mobilen Datenverkehrs zu kompensieren, wird die nächste Generation der mobilen Netzwerke entworfen, die eine höhere Dichte an Mobilfunkbasisstationen mit höheren Datenraten vorsieht. Es zeichnet sich ab, dass der starke Anstieg der Datenraten und die höhere Anzahl an Basisstationen dazu führen, dass es zu Bandbreitenengpässen in der Anbindung der Zugriffsnetze, dem sogenannten „Backhaul“, kommt. Um die Last auf den Backhaul zu verringern, sehen verschiedene Ansätze vor, lokale Caches in den Verbindungsknoten zwischen den mobilen Netzen, dem Internet und auf Endgeräten einzurichten. Die lokale Bereitstellung der Inhalte ermöglicht den Datenverkehr innerhalb der Zugriffsnetze zu halten. Die Caches werden hierarchisch angeordnet, wobei die lokalen Caches mit geringer Kapazität, nahe am Nutzer die unterste Hierarchiestufe bilden. Eine Anfrage an einen Inhalt, die in einer Hierarchiestufe nicht bedient werden kann, wird an die nächste Hierarchiestufe weitergeleitet. Es werden Mechanismen benötigt, die die Inhalte optimal auf die lokalen Caches verteilen, um die begrenzten Ressourcen effizient zu nutzen. Die richtige Dimensionierung der Caches abhängig von den Verkehrscharakteristiken und der verfügbaren Ressourcen setzen passende Evaluierungsmethoden voraus. Darüber hinaus werden Bewertungsmechanismen benötigt um zu beurteilen, wie die verfügbare Bandbreite im Backhaul, durch Aggregation der Zugriffsverbindungen, erhöht werden kann. Diese Doktorarbeit analysiert CDNs unter der Nutzung lokal verfügbarer Ressourcen und erarbeitet die folgenden Auswertungen und Optimierungsmöglichkeiten. Charakterisierung von CDNs und Verteilung der Ressourcen im Internet, Analyse und Optimierung von hierarchischen Caching Systemen unter Berücksichtigung von Bandbreitenbeschränkungen und Leistungsbewertung von Aggregationssystemen zur Bestimmung der verfügbaren Bandbreite durch Aggregation der Zugriffsverbindungen. T3 - Würzburger Beiträge zur Leistungsbewertung Verteilter Systeme - 02/17 KW - CDN-Netzwerk KW - Leistungsbewertung KW - Content Delivery Network KW - Performance Evaluation Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-152769 SN - 1432-8801 ER - TY - THES A1 - Gebert, Steffen Christian T1 - Architectures for Softwarized Networks and Their Performance Evaluation T1 - Architekturen für Software-basierte Netze und deren Leistungsbewertung N2 - This thesis contributes to several issues in the context of SDN and NFV, with an emphasis on performance and management. The main contributions are guide lines for operators migrating to software-based networks, as well as an analytical model for the packet processing in a Linux system using the Kernel NAPI. N2 - In der Dissertation werden mehrere Problemstellungen im Kontext von SDN und NFV, vor allem hinsichtlich Performance und Management, bearbeitet. Die Hauptbeiträge sind Guidelines für Netzbetreiber zum Management Software-basierter Netze sowie ein analytisches Modell, welches den Paketverarbeitungsprozess in der Linux Kernel NAPI beschreibt. T3 - Würzburger Beiträge zur Leistungsbewertung Verteilter Systeme - 01/17 KW - Telekommunikationsnetz KW - Software-based Networks KW - Software Defined Networking KW - Network Functions Virtualisation KW - Netzwerk KW - Software-defined networking KW - Leistungsbewertung Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-150634 SN - 1432-8801 ER - TY - THES A1 - Hirth, Matthias Johannes Wilhem T1 - Modeling Crowdsourcing Platforms - A Use-Case Driven Approach T1 - Modellierung von Crowdsourcing-Plattformen anhand von Anwendungsfällen N2 - Computer systems have replaced human work-force in many parts of everyday life, but there still exists a large number of tasks that cannot be automated, yet. This also includes tasks, which we consider to be rather simple like the categorization of image content or subjective ratings. Traditionally, these tasks have been completed by designated employees or outsourced to specialized companies. However, recently the crowdsourcing paradigm is more and more applied to complete such human-labor intensive tasks. Crowdsourcing aims at leveraging the huge number of Internet users all around the globe, which form a potentially highly available, low-cost, and easy accessible work-force. To enable the distribution of work on a global scale, new web-based services emerged, so called crowdsourcing platforms, that act as mediator between employers posting tasks and workers completing tasks. However, the crowdsourcing approach, especially the large anonymous worker crowd, results in two types of challenges. On the one hand, there are technical challenges like the dimensioning of crowdsourcing platform infrastructure or the interconnection of crowdsourcing platforms and machine clouds to build hybrid services. On the other hand, there are conceptual challenges like identifying reliable workers or migrating traditional off-line work to the crowdsourcing environment. To tackle these challenges, this monograph analyzes and models current crowdsourcing systems to optimize crowdsourcing workflows and the underlying infrastructure. First, a categorization of crowdsourcing tasks and platforms is developed to derive generalizable properties. Based on this categorization and an exemplary analysis of a commercial crowdsourcing platform, models for different aspects of crowdsourcing platforms and crowdsourcing mechanisms are developed. A special focus is put on quality assurance mechanisms for crowdsourcing tasks, where the models are used to assess the suitability and costs of existing approaches for different types of tasks. Further, a novel quality assurance mechanism solely based on user-interactions is proposed and its feasibility is shown. The findings from the analysis of existing platforms, the derived models, and the developed quality assurance mechanisms are finally used to derive best practices for two crowdsourcing use-cases, crowdsourcing-based network measurements and crowdsourcing-based subjective user studies. These two exemplary use-cases cover aspects typical for a large range of crowdsourcing tasks and illustrated the potential benefits, but also resulting challenges when using crowdsourcing. With the ongoing digitalization and globalization of the labor markets, the crowdsourcing paradigm is expected to gain even more importance in the next years. This is already evident in the currently new emerging fields of crowdsourcing, like enterprise crowdsourcing or mobile crowdsourcing. The models developed in the monograph enable platform providers to optimize their current systems and employers to optimize their workflows to increase their commercial success. Moreover, the results help to improve the general understanding of crowdsourcing systems, a key for identifying necessary adaptions and future improvements. N2 - Computer haben menschliche Arbeitskräfte mittlerweile in vielen Bereichen des täglichen Lebens ersetzt. Dennoch gibt es immer noch eine große Anzahl von Aufgaben, die derzeit nicht oder nur teilweise automatisierbar sind. Hierzu gehören auch solche, welche als sehr einfach erachtet werden, beispielsweise das Kategorisieren von Bildinhalten oder subjektive Bewertungen. Traditionell wurden diese Aufgaben vorwiegend von eigens angestellten Mitarbeitern oder über Outsourcing gelöst. In den vergangenen Jahren wurde hierfür jedoch immer häufiger Crowdsourcing verwendet, wobei die große Anzahl an weltweiten Internetnutzern als hoch verfügbare, kostengünstige und einfach zu erreichende Arbeiterschaft eingesetzt wird. Um eine weltweite Verteilung von Arbeit zu ermöglichen hat sich eine neue Art von Internetdienstleistern entwickelt, die sogenannten Crowdsourcingplattformen. Diese dienen als Vermittler zwischen Arbeitgebern, welche Aufgaben auf den Plattformen einstellen und Arbeitnehmer, welche diese Aufgaben bearbeiten. Hierbei ergeben sich zwei Arten von Herausforderungen. Einerseits entstehen Herausforderungen technischer Art, wie etwa Fragen bezüglich der Dimensionierung der Plattforminfrastruktur oder der Realisierung von Programmierschnittstellen zur Verbindung von Crowdsourcingplattformen mit anderen Cloudanbietern. Andererseits ergeben sich konzeptionelle Herausforderungen, wie etwa die Identifikation vertrauenswürdiger Arbeitnehmer oder Methoden zur Migration von traditionellen Arbeitsaufgaben in Crowdsourcing-basierte Arbeit. In diesem Monograph werden beide Arten von Herausforderungen adressiert. Hierzu werden aktuelle Crowdsourcingsysteme analysiert und modelliert, um basieren auf den gewonnenen Erkenntnissen, Arbeitsabläufe im Crowdsourcing und die den Systemen zu Grunde liegende Infrastruktur zu optimieren. Zunächst wird hierfür eine Kategorisierung von Crowdsourcing Aufgaben und Plattformen entwickelt um generalisierbare Eigenschaften abzuleiten. Basierend auf dieser Kategorisierung und einer beispielhaften Analyse einer kommerziellen Crowdsourcingplattform werden Modelle entwickelt, die verschiedene Aspekte der Plattformen sowie der eingesetzten Mechanismen abbilden. Hierbei wird ein besonderer Fokus auf die Verlässlichkeit von Qualitätssicherungsmechanismen, deren Kosten und Einsetzbarkeit für verschiedene Aufgabentypen gelegt. Ferner wird ein neuer Qualitätssicherungsmechanismus vorgestellt und evaluiert, welcher lediglich auf den Interaktionen der Crowdsourcingarbeitnehmer mit der Nutzeroberfläche basiert. Die Erkenntnisse, aus der Analyse existierender Plattformen, den abgeleiteten Modellen und dem entwickelten Qualitätssicherungsmechanismus fließen schließlich in konkrete Designempfehlungen für zwei exemplarische Crowdsourcinganwendungsfälle ein. Die beiden gewählten Anwendungsfälle decken Aspekte einer Vielzahl von Crowdsourcingaufgaben ab und zeigen sowohl die Vorteile als auch die Herausforderungen beim Einsatz von Crowdsourcing. Aufgrund der zunehmenden Digitalisierung und Globalisierung des Arbeitsmarkes ist es zu erwarten, dass Crowdsourcing in den nächsten Jahren noch weiter an Bedeutung gewinnt. Dies zeigt sich bereits daran, dass Crowdsourcingansätze mittlerweile vermehrt in Unternehmen oder im mobilen Umfeld eingesetzt werden. Die Modelle aus diesem Monograph, ermöglichen Plattformbetreibern eine Optimierung ihrer Systeme und Arbeitgebern eine Optimierung ihrer Arbeitsabläufe. Weiterhin helfen die gewonnenen Erkenntnisse das prinzipielle Verständnis von Crowdsourcingsystemen zu verbessern, was wiederum eine Grundvoraussetzung für das Erkennen von Anpassungsbedarf und Optimierungspotential ist. T3 - Würzburger Beiträge zur Leistungsbewertung Verteilter Systeme - 02/16 KW - Open Innovation KW - Leistungsbewertung KW - Optimiertung KW - Modellierung KW - Studie KW - Crowdsourcing KW - Quality of Experience KW - Modelling KW - Performance Evaluation KW - Optimization KW - Modellierung KW - Nutzerstudie KW - Crowdsourcing Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-140726 SN - 1432-8801 ER - TY - THES A1 - Schwartz, Christian T1 - Modeling and Evaluation of Multi-Stakeholder Scenarios in Communication Networks T1 - Modellierung und Bewertung von Szenarien mit mehreren Akteuren in Kommunikationsnetzen N2 - Today's Internet is no longer only controlled by a single stakeholder, e.g. a standard body or a telecommunications company. Rather, the interests of a multitude of stakeholders, e.g. application developers, hardware vendors, cloud operators, and network operators, collide during the development and operation of applications in the Internet. Each of these stakeholders considers different KPIs to be important and attempts to optimise scenarios in its favour. This results in different, often opposing views and can cause problems for the complete network ecosystem. One example of such a scenario are Signalling Storms in the mobile Internet, with one of the largest occurring in Japan in 2012 due to the release and high popularity of a free instant messaging application. The network traffic generated by the application caused a high number of connections to the Internet being established and terminated. This resulted in a similarly high number of signalling messages in the mobile network, causing overload and a loss of service for 2.5 million users over 4 hours. While the network operator suffers the largest impact of this signalling overload, it does not control the application. Thus, the network operator can not change the application traffic characteristics to generate less network signalling traffic. The stakeholders who could prevent, or at least reduce, such behaviour, i.e. application developers or hardware vendors, have no direct benefit from modifying their products in such a way. This results in a clash of interests which negatively impacts the network performance for all participants. The goal of this monograph is to provide an overview over the complex structures of stakeholder relationships in today's Internet applications in mobile networks. To this end, we study different scenarios where such interests clash and suggest methods where tradeoffs can be optimised for all participants. If such an optimisation is not possible or attempts at it might lead to adverse effects, we discuss the reasons. N2 - Modellierung und Bewertung von Szenarien mit mehreren Akteuren in Kommunikationsnetzen T3 - Würzburger Beiträge zur Leistungsbewertung Verteilter Systeme - 01/16 KW - Leistungsbewertung KW - Telekommunikationsnetz KW - Multi-Stakeholder KW - Optimierung KW - Queueing theory KW - Cloud computing KW - Crowd sourcing KW - Internet Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-133887 SN - 1432-8801 ER - TY - THES A1 - Hartmann, Matthias T1 - Optimization and Design of Network Architectures for Future Internet Routing T1 - Optimierung und Design von Netzwerkarchitekturen für zukünftiges Internet Routing N2 - At the center of the Internet’s protocol stack stands the Internet Protocol (IP) as a common denominator that enables all communication. To make routing efficient, resilient, and scalable, several aspects must be considered. Care must be taken that traffic is well balanced to make efficient use of the existing network resources, both in failure free operation and in failure scenarios. Finding the optimal routing in a network is an NP-complete problem. Therefore, routing optimization is usually performed using heuristics. This dissertation shows that a routing optimized with one objective function is often not good when looking at other objective functions. It can even be worse than unoptimized routing with respect to that objective function. After looking at failure-free routing and traffic distribution in different failure scenarios, the analysis is extended to include the loop-free alternate (LFA) IP fast reroute mechanism. Different application scenarios of LFAs are examined and a special focus is set on the fact that LFAs usually cannot protect all traffic in a network even against single link failures. Thus, the routing optimization for LFAs is targeted on both link utilization and failure coverage. Finally, the pre-congestion notification mechanism PCN for network admission control and overload protection is analyzed and optimized. Different design options for implementing the protocol are compared, before algorithms are developed for the calculation and optimization of protocol parameters and PCN-based routing. The second part of the thesis tackles a routing problem that can only be resolved on a global scale. The scalability of the Internet is at risk since a major and intensifying growth of the interdomain routing tables has been observed. Several protocols and architectures are analyzed that can be used to make interdomain routing more scalable. The most promising approach is the locator/identifier (Loc/ID) split architecture which separates routing from host identification. This way, changes in connectivity, mobility of end hosts, or traffic-engineering activities are hidden from the routing in the core of the Internet and the routing tables can be kept much smaller. All of the currently proposed Loc/ID split approaches have their downsides. In particular, the fact that most architectures use the ID for routing outside the Internet’s core is a poor design, which inhibits many of the possible features of a new routing architecture. To better understand the problems and to provide a solution for a scalable routing design that implements a true Loc/ID split, the new GLI-Split protocol is developed in this thesis, which provides separation of global and local routing and uses an ID that is independent from any routing decisions. Besides GLI-Split, several other new routing architectures implementing Loc/ID split have been proposed for the Internet. Most of them assume that a mapping system is queried for EID-to-RLOC mappings by an intermediate node at the border of an edge network. When the mapping system is queried by an intermediate node, packets are already on their way towards their destination, and therefore, the mapping system must be fast, scalable, secure, resilient, and should be able to relay packets without locators to nodes that can forward them to the correct destination. The dissertation develops a classification for all proposed mapping system architectures and shows their similarities and differences. Finally, the fast two-level mapping system FIRMS is developed. It includes security and resilience features as well as a relay service for initial packets of a flow when intermediate nodes encounter a cache miss for the EID-to-RLOC mapping. N2 - Daten durch das Internet werden heutzutage mit dem paketbasierten Internet Protokoll (IP) übertragen. Dezentralisierte Routingprotokolle innerhalb der einzelnen Netze sorgen für eine zielgerichtete Weiterleitung der einzelnen Pakete. Diese verteilten Protokolle können auch im Fehlerfall weiterarbeiten, benötigen aber mitunter sehr lange bis Daten wieder zuverlässig am Ziel ankommen. Um im Betrieb des Internets eine hohe Leistungsfähigkeit auch bei auftretenden Problemfällen zu gewährleisten, müssen die eingesetzten Protokolle optimal eingestellt werden. Zielfunktionen zur Optimierung paketbasierter Link-State Intradomain-Routingprotokolle: Ein wichtiger Faktor für die Performanz eines Netzes ist die Auswahl der administrativen Linkkosten, anhand derer die Weiterleitungsentscheidungen im Netz getroffen werden. Mit Hilfe von Modellen für Verkehrsaufkommen und für die darunterliegende Netzarchitektur kann mit geeigneten Optimierungsmethoden das Netz für verschiedene Szenarien bestmöglich eingestellt werden. Von besonderer Wichtigkeit ist hierbei die Auswahl der betrachteten Szenarien und Zielfunktionen für die Optimierung. Eine Routingkonfiguration die optimal für ein bestimmtes Ziel ist, kann beliebig schlecht für ein anderes Ziel sein. Zum Beispiel kann eine Konfiguration, die eine besonders hohe Fehlerabdeckung erreicht, zu einer sehr schlechten Verkehrsverteilung führen. Im Rahmen der Dissertation werden heuristische Optimierungen des Routings für verschiedene Protokolle und Anwendungsszenarien durchgeführt. Darüber hinaus wird eine Pareto-Optimierung implementiert, die gleichzeitig mehrere Ziele optimieren kann. Die Analysen werden zuerst für normales Routing im fehlerfreien Fall und für Fehlerszenarien durchgeführt. Daraufhin werden verschiedenste Anwendungsfälle des IP Fast-Reroute Mechanismus Loop-Free Alternates (LFA) betrachtet. Hier wird insbesondere auf die Problematik eingegangen, dass LFAs in Abhängigkeit vom eingestellten Routing in bestimmten Fehlerfällen nicht angewendet werden können. Beim Optimieren des Routings muss hier zusätzlich zur Lastverteilung auch noch die Maximierung der Fehlerabdeckung berücksichtigt werden. Schließlich folgt eine Untersuchung und Optimierung des Pre-Congestion Notification (PCN) Verfahren zur Netzzugangskontrolle und Überlaststeuerung. Hier werden verschiedene Architekturvarianten des Protokolls miteinander verglichen und Algorithmen zur Berechnung und Optimierung wichtiger Parameter des Protokolls entwickelt. Das Wachstum der Routingtabellen im Kern des Internets droht zu einem Skalierbarkeitsproblem zu werden. Ein Grund für diese Problematik ist die duale Funktion der IP-Adresse. Sie wird einerseits zur Identifikation eines Geräts benutzt und andererseits zur Weiterleitung der Daten zu diesem Gerät. Neue Mechanismen und Protokolle die eine Trennung zwischen den beiden Funktionalitäten der IP-Adresse ermöglichen sind potentielle Kandidaten für eine bessere Skalierbarkeit des Internetroutings und damit für die Erhaltung der Funktionalität des Internets. Design eines neuen Namens- und Routingprotokolls für skalierbares Interdomain-Routing: In der Dissertation werden grundlegende Eigenschaften die zu diesem Problem führen erörtert. Daraufhin werden vorhandene Ansätze zur Verbesserung der Skalierbarkeit des Internetroutings analysiert, und es werden Gemeinsamkeiten wie auch Schwachstellen identifiziert. Auf dieser Basis wird dann ein Protokoll entwickelt, das eine strikte Trennung zwischen Identifikationsadressen (IDs) und routebaren Locator-Adressen einhält. Das GLI-Split genannte Protokoll geht dabei über den einfachen Split von vorhandenen Architekturvorschlägen hinaus und führt eine weitere Adresse ein die nur für das lokale Routing innerhalb eines Endkunden-Netzes benutzt wird. Hierdurch wird die ID eines Endgeräts vollständig unabhängig vom Routing. Durch das GLI-Split Protokoll kann das globale Routing wieder skalierbar gemacht werden. Zusätzlich bietet es viele Vorteile für Netze die das Protokoll einführen, was als Anreiz nötig ist um den Einsatz eines neuen Protokolls zu motivieren. Solch ein Identifier/Locator Split Protokoll benötigt ein Mappingsystem um die Identifier der Endgeräte in routebare Locator-Adressen zu übersetzen. Im letzten Teil der Dissertation wird eine mehrstufige Mapping-Architektur namens FIRMS entwickelt. Über ein hierarchisches Verteilungssystem, das die Adressvergabestruktur der fünf Regionalen Internet Registrare (RIRs) und der darunterliegenden Lokalen Internet Registrare (LIRs) abbildet, werden die erforderlichen Zuordnungstabellen so verteilt, dass jederzeit schnell auf die benötigten Informationen zugegriffen werden kann. Hierbei wird auch besonders auf Sicherheitsaspekte geachtet. T3 - Würzburger Beiträge zur Leistungsbewertung Verteilter Systeme - 02/15 KW - Netzwerk KW - Routing KW - Optimierung KW - Netzwerkmanagement KW - Optimization KW - Future Internet Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-114165 SN - 1432-8801 ER - TY - THES A1 - Wamser, Florian T1 - Performance Assessment of Resource Management Strategies for Cellular and Wireless Mesh Networks T1 - Leistungsbewertung von Ressourcenmanagementstrategien für zelluläre und drahtlose Mesh-Netzwerke N2 - The rapid growth in the field of communication networks has been truly amazing in the last decades. We are currently experiencing a continuation thereof with an increase in traffic and the emergence of new fields of application. In particular, the latter is interesting since due to advances in the networks and new devices, such as smartphones, tablet PCs, and all kinds of Internet-connected devices, new additional applications arise from different areas. What applies for all these services is that they come from very different directions and belong to different user groups. This results in a very heterogeneous application mix with different requirements and needs on the access networks. The applications within these networks typically use the network technology as a matter of course, and expect that it works in all situations and for all sorts of purposes without any further intervention. Mobile TV, for example, assumes that the cellular networks support the streaming of video data. Likewise, mobile-connected electricity meters rely on the timely transmission of accounting data for electricity billing. From the perspective of the communication networks, this requires not only the technical realization for the individual case, but a broad consideration of all circumstances and all requirements of special devices and applications of the users. Such a comprehensive consideration of all eventualities can only be achieved by a dynamic, customized, and intelligent management of the transmission resources. This management requires to exploit the theoretical capacity as much as possible while also taking system and network architecture as well as user and application demands into account. Hence, for a high level of customer satisfaction, all requirements of the customers and the applications need to be considered, which requires a multi-faceted resource management. The prerequisite for supporting all devices and applications is consequently a holistic resource management at different levels. At the physical level, the technical possibilities provided by different access technologies, e.g., more transmission antennas, modulation and coding of data, possible cooperation between network elements, etc., need to be exploited on the one hand. On the other hand, interference and changing network conditions have to be counteracted at physical level. On the application and user level, the focus should be on the customer demands due to the currently increasing amount of different devices and diverse applications (medical, hobby, entertainment, business, civil protection, etc.). The intention of this thesis is the development, investigation, and evaluation of a holistic resource management with respect to new application use cases and requirements for the networks. Therefore, different communication layers are investigated and corresponding approaches are developed using simulative methods as well as practical emulation in testbeds. The new approaches are designed with respect to different complexity and implementation levels in order to cover the design space of resource management in a systematic way. Since the approaches cannot be evaluated generally for all types of access networks, network-specific use cases and evaluations are finally carried out in addition to the conceptual design and the modeling of the scenario. The first part is concerned with management of resources at physical layer. We study distributed resource allocation approaches under different settings. Due to the ambiguous performance objectives, a high spectrum reuse is conducted in current cellular networks. This results in possible interference between cells that transmit on the same frequencies. The focus is on the identification of approaches that are able to mitigate such interference. Due to the heterogeneity of the applications in the networks, increasingly different application-specific requirements are experienced by the networks. Consequently, the focus is shifted in the second part from optimization of network parameters to consideration and integration of the application and user needs by adjusting network parameters. Therefore, application-aware resource management is introduced to enable efficient and customized access networks. As indicated before, approaches cannot be evaluated generally for all types of access networks. Consequently, the third contribution is the definition and realization of the application-aware paradigm in different access networks. First, we address multi-hop wireless mesh networks. Finally, we focus with the fourth contribution on cellular networks. Application-aware resource management is applied here to the air interface between user device and the base station. Especially in cellular networks, the intensive cost-driven competition among the different operators facilitates the usage of such a resource management to provide cost-efficient and customized networks with respect to the running applications. N2 - In den heutigen Zugangsnetzen steigt der Verkehr immer mehr an. Es gibt immer mehr Applikationen und Anwendungen, resultierend aus dem technischen Fortschritt bei Geräten für den Endverbraucher und dem technologischen Fortschritt im Netzwerk. Gleichzeitig ergeben sich auch immer unterschiedlichere Anwendungsfelder (Maschine-zu-Maschine-Kommunikation, Anwendungen aus dem Gesundheitswesen, Ultra-High-Definition Fernsehen, neue kommerzielle Dienste für das Transportwesen und für Firmen, Assistenzsysteme für ältere Menschen, Sensornetzwerke, etc.) und damit hohe, heterogene Anforderungen an die Zugangsnetze. Aus technischer Sicht der Kommunikationsnetze bedeutet dies, dass nicht nur einzelne Anwendungen im Netzwerk unterstützt werden müssen, sondern dass eine breite Berücksichtigung aller Umstände und Anforderungen nötig ist. Dies gilt zusätzlich zu den üblichen Anforderungen, wie beispielsweise Kosten- und Energieeinsparungen im Netzwerk. Eine solche umfassende Berücksichtigung aller Eventualitäten kann nur durch ein dynamisches, individuelles und intelligentes Management der Übertragungsressourcen erreicht werden. Dabei muss einerseits die theoretische Kapazität soweit wie möglich ausgenutzt werden und andererseits aber sowohl die System- und Netzarchitektur als auch das Nutzer- und Applikationsverhalten angemessen in Betracht gezogen werden. Hierfür ist ein vielschichtiges Ressourcenmanagement auf verschiedenen Ebenen nötig. Das Ziel dieser Doktorarbeit ist die Entwicklung, Untersuchung und Bewertung von einem ganzheitlichen Ressourcenmanagement im Hinblick auf neue Anforderungen und aufkommende, neue Anwendungsfelder. Es werden entsprechende Ansätze auf verschiedenen Kommunikationsebenen mit sowohl Simulationsstudien als auch praktischer Emulationen und Messungen in Testbeds entwickelt. Die untersuchten und entwickelten Ansätze unterscheiden sich hinsichtlich der Komplexität und der Ebene auf der sie arbeiten mit dem Ziel den gesamten Gestaltungsraum auf systematische Art und Weise abzudecken. Da die Ansätze in der Regel nicht allgemeingültig für alle Arten von Zugangsnetzen evaluiert werden können, sind in der Arbeit Implementierungsbeispiele enthalten. Zusätzlich werden technologiespezifische Bewertungen durchgeführt neben der Modellierung des Szenarios und der Applikationsanforderungen. Es werden Mobilfunknetze und drahtlose Mesh-Zugangsnetzwerke in dieser Arbeit betrachtet. Teil 1: Untersuchungen zum Ressourcenmanagement auf der physikalischen Ebene: Der erste Teil beschäftigt sich mit dem Management von Ressourcen auf der physikalischen Übertragungsebene. Es werden verteilte Ressourcenallokationsansätze unter verschiedenen Einstellungen für Mobilfunknetze untersucht. Der Schwerpunkt der Arbeit im ersten Teil liegt auf der Identifizierung von Ansätzen, die in der Lage sind, Interferenzen zu reduzieren. Es werden verschiedene Koordinierungsmechanismen entwickelt und vorgeschlagen, die zu einer effizienteren Ressourcennutzung führen. Teil 2: Spezifikation und Entwicklung von anwendungsorientiertem Ressourcenmanagement: Aufgrund der unterschiedlichen Anwendungen und Dienste, werden die Netze zunehmend mit heterogenen, anwendungsspezifischen Anforderungen von Applikationen konfrontiert. Dementsprechend liegt der Schwerpunkt im zweiten Teil auf der Optimierung der Netzwerkcharakteristiken und -parameter unter Berücksichtigung von Anwendungen und deren Bedürfnissen. Es wird anwendungsbezogenes Ressourcenmanagement eingeführt und spezifiziert, um effiziente und maßgeschneiderte Zugangsnetze zu ermöglichen. Teil 3: Anwendungsbeispiele & Emulation, Messung und Leistungsanalyse von anwendungsbezogenem Ressourcenmanagement für drahtlose Mesh-Zugangsnetzwerke und zelluläre Mobilfunknetze: Man kann Ressourcenmanagementansätze und -algorithmen nicht allgemeingültig für alle Arten von Zugangsnetzen untersuchen. Je nach Netzwerktyp und –technologie ergeben sich unterschiedliche Netzwerkeigenschaften. In der Arbeit werden Anwendungsbeispiele von applikationsbezogenem Ressourcenmanagement gegeben. Zum einen werden drahtlose Multi-Hop Mesh-Netzwerke betrachtet. Mesh-Netzwerke bieten viele verschiedene Optionen und Managementmöglichkeiten bei der Übertragung von Daten. Somit stellt ein solches Netz eine ausgezeichnete Gelegenheit dar, die Vorteile von anwendungsbezogenem Ressourcenmanagement zu quantifizieren. Die Bewertung erfolgt in einem Mesh-Testbed mit empirischen Messungen anhand von YouTube. Diese praktische Implementierung veranschaulicht die Vorteile des Konzepts, zeigt die Machbarkeit und quantifiziert den Nutzen für YouTube. Ein weiterer Typ von Netzwerk, das untersucht wird, ist das Mobilfunknetz. Im letzten Teil der Arbeit wird anwendungsorientiertes Ressourcenmanagement für die Luftschnittstelle im Mobilfunk zwischen Teilnehmergerät und der Basisstation spezifiziert und bewertet. T3 - Würzburger Beiträge zur Leistungsbewertung Verteilter Systeme - 01/15 KW - Leistungsbewertung KW - Netzwerkverwaltung KW - Drahtloses lokales Netz KW - Mobile Telekommunikation KW - Application-Aware Resource Management KW - Cellular Networks KW - Wireless Mesh Networks Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-111517 SN - 1432-8801 ER - TY - THES A1 - Hock, David Rogér T1 - Analysis and Optimization of Resilient Routing in Core Communication Networks T1 - Analyse und Optimierung von ausfallsicherem Routing in Kernkommunikationsnetzen N2 - Routing is one of the most important issues in any communication network. It defines on which path packets are transmitted from the source of a connection to the destination. It allows to control the distribution of flows between different locations in the network and thereby is a means to influence the load distribution or to reach certain constraints imposed by particular applications. As failures in communication networks appear regularly and cannot be completely avoided, routing is required to be resilient against such outages, i.e., routing still has to be able to forward packets on backup paths even if primary paths are not working any more. Throughout the years, various routing technologies have been introduced that are very different in their control structure, in their way of working, and in their ability to handle certain failure cases. Each of the different routing approaches opens up their own specific questions regarding configuration, optimization, and inclusion of resilience issues. This monograph investigates, with the example of three particular routing technologies, some concrete issues regarding the analysis and optimization of resilience. It thereby contributes to a better general, technology-independent understanding of these approaches and of their diverse potential for the use in future network architectures. The first considered routing type, is decentralized intra-domain routing based on administrative IP link costs and the shortest path principle. Typical examples are common today's intra-domain routing protocols OSPF and IS-IS. This type of routing includes automatic restoration abilities in case of failures what makes it in general very robust even in the case of severe network outages including several failed components. Furthermore, special IP-Fast Reroute mechanisms allow for a faster reaction on outages. For routing based on link costs, traffic engineering, e.g. the optimization of the maximum relative link load in the network, can be done indirectly by changing the administrative link costs to adequate values. The second considered routing type, MPLS-based routing, is based on the a priori configuration of primary and backup paths, so-called Label Switched Paths. The routing layout of MPLS paths offers more freedom compared to IP-based routing as it is not restricted by any shortest path constraints but any paths can be setup. However, this in general involves a higher configuration effort. Finally, in the third considered routing type, typically centralized routing using a Software Defined Networking (SDN) architecture, simple switches only forward packets according to routing decisions made by centralized controller units. SDN-based routing layouts offer the same freedom as for explicit paths configured using MPLS. In case of a failure, new rules can be setup by the controllers to continue the routing in the reduced topology. However, new resilience issues arise caused by the centralized architecture. If controllers are not reachable anymore, the forwarding rules in the single nodes cannot be adapted anymore. This might render a rerouting in case of connection problems in severe failure scenarios infeasible. N2 - Routing stellt eine der zentralen Aufgaben in Kommunikationsnetzen dar. Es bestimmt darüber, auf welchem Weg Verkehr von der Quelle zum Ziel transportiert wird. Durch geschicktes Routing kann dadurch eine Verteilung der Verkehrsflüsse zum Beispiel zur Lastverteilung erreicht werden. Da Fehler in Kommunikationsnetzen nicht vollständig verhindert werden können, muss Routing insbesondere ausfallsicher sein, d.h., im Falle von Fehlern im Netz muss das Routing weiterhin in der Lage sein, Pakete auf alternativen Pfaden zum Ziel zu transportieren. Es existieren verschiedene gängige Routingverfahren und Technologien, die sich hinsichtlich Ihrer Arbeitsweise, Ihrer Kontrollstrukturen und Ihrer Funktionalität in bestimmten Fehlerszenarien unterscheiden. Für diese verschiedenen Ansätze ergeben sich jeweils eigene Fragestellungen hinsichtlich der Konfiguration, der Optimierung und der Berücksichtigung von Ausfallsicherheit. Diese Doktorarbeit behandelt am Beispiel bestimmter Technologien einige konkrete Fragestellungen zur Analyse und Optimierung der Ausfallsicherheit. Sie liefert damit einen Beitrag zum besseren generellen Verständnis verschiedenartiger Routingansätze und deren unterschiedlichen Potentials für den Einsatz in zukünftigen Netzarchitekturen. Zuerst wird dezentrales Routing behandelt, basierend auf administrativen Linkgewichten und dem Prinzip der kürzesten Pfade, wie es beispielsweise in den Protokollen IS-IS und OSPF genutzt wird. Diese Routingverfahren beinhalteten automatische Rekonvergenz-Mechanismen um im Falle von Fehlern auf der verbleibenden Netzstruktur weiterhin einen Transport von Verkehr zu ermöglichen. Spezielle IP-Fast Reroute Mechanismen ermöglichen zudem eine schnelle Reaktion im Falle von Fehlern. Routing basierend auf Linkgewichten lässt sich nur indirekt durch die Wahl geeigneter Gewichte beeinflussen und optimieren. Die zweite in der Doktorarbeit behandelte Routingart ist MPLS-basiertes Routing, bei dem Labels für Pakete verwendet werden und Pakete anhand sogenannter vorkonfigurierter Label Switched Paths weitergeleitet werden. Diese Technologie bietet mehr Freiheiten bei der Wahl des Pfadlayouts, was aber wiederum im Allgemeinen einen erhöhten Konfigurationsaufwand mit sich bringt. Schließlich greift die Doktorarbeit auch das Routing in SDN Netzen auf. Dort erfolgt eine Trennung von Control Plane und Data Plane, so dass einzelne dedizierte Controller die Routingentscheidungen festlegen und ansonsten einfache Switches mit reduzierter Komplexität den Verkehr lediglich entsprechend der festgelegten Regeln weiterleiten. Dies ermöglicht die größte Freiheit bei der Konfiguration des Routing bringt aber wiederum neue Fragestellungen bedingt durch die zentralen Kontrolleinheiten mit sich. T3 - Würzburger Beiträge zur Leistungsbewertung Verteilter Systeme - 02/14 KW - Leistungsbewertung KW - Verteiltes System KW - Routing KW - Netzwerk KW - Optimization KW - Routing KW - Software Defined Networking KW - Optimierung Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-101681 SN - 1432-8801 ER - TY - THES A1 - Jarschel, Michael T1 - An Assessment of Applications and Performance Analysis of Software Defined Networking T1 - Eine Untersuchung von Anwendungen und Leistungsbewertung von Software Defined Networking N2 - With the introduction of OpenFlow by the Stanford University in 2008, a process began in the area of network research, which questions the predominant approach of fully distributed network control. OpenFlow is a communication protocol that allows the externalization of the network control plane from the network devices, such as a router, and to realize it as a logically-centralized entity in software. For this concept, the term "Software Defined Networking" (SDN) was coined during scientific discourse. For the network operators, this concept has several advantages. The two most important can be summarized under the points cost savings and flexibility. Firstly, it is possible through the uniform interface for network hardware ("Southbound API"), as implemented by OpenFlow, to combine devices and software from different manufacturers, which increases the innovation and price pressure on them. Secondly, the realization of the network control plane as a freely programmable software with open interfaces ("Northbound API") provides the opportunity to adapt it to the individual circumstances of the operator's network and to exchange information with the applications it serves. This allows the network to be more flexible and to react more quickly to changing circumstances as well as transport the traffic more effectively and tailored to the user’s "Quality of Experience" (QoE). The approach of a separate network control layer for packet-based networks is not new and has already been proposed several times in the past. Therefore, the SDN approach has raised many questions about its feasibility in terms of efficiency and applicability. These questions are caused to some extent by the fact that there is no generally accepted definition of the SDN concept to date. It is therefore a part of this thesis to derive such a definition. In addition, several of the open issues are investigated. This Investigations follow the three aspects: Performance Evaluation of Software Defined Networking, applications on the SDN control layer, and the usability of SDN Northbound-API for creation application-awareness in network operation. Performance Evaluation of Software Defined Networking: The question of the efficiency of an SDN-based system was from the beginning one of the most important. In this thesis, experimental measurements of the performance of OpenFlow-enabled switch hardware and control software were conducted for the purpose of answering this question. The results of these measurements were used as input parameters for establishing an analytical model of the reactive SDN approach. Through the model it could be determined that the performance of the software control layer, often called "Controller", is crucial for the overall performance of the system, but that the approach is generally viable. Based on this finding a software for analyzing the performance of SDN controllers was developed. This software allows the emulation of the forwarding layer of an SDN network towards the control software and can thus determine its performance in different situations and configurations. The measurements with this software showed that there are quite significant differences in the behavior of different control software implementations. Among other things it has been shown that some show different characteristics for various switches, in particular in terms of message processing speed. Under certain circumstances this can lead to network failures. Applications on the SDN control layer: The core piece of software defined networking are the intelligent network applications that operate on the control layer. However, their development is still in its infancy and little is known about the technical possibilities and their limitations. Therefore, the relationship between an SDN-based and classical implementation of a network function is investigated in this thesis. This function is the monitoring of network links and the traffic they carry. A typical approach for this task has been built based on Wiretapping and specialized measurement hardware and compared with an implementation based on OpenFlow switches and a special SDN control application. The results of the comparison show that the SDN version can compete in terms of measurement accuracy for bandwidth and delay estimation with the traditional measurement set-up. However, a compromise has to be found for measurements below the millisecond range. Another question regarding the SDN control applications is whether and how well they can solve existing problems in networks. Two programs have been developed based on SDN in this thesis to solve two typical network issues. Firstly, the tool "IPOM", which enables considerably more flexibility in the study of effects of network structures for a researcher, who is confined to a fixed physical test network topology. The second software provides an interface between the Cloud Orchestration Software "OpenNebula" and an OpenFlow controller. The purpose of this software was to investigate experimentally whether a pre-notification of the network of an impending relocation of a virtual service in a data center is sufficient to ensure the continuous operation of that service. This was demonstrated on the example of a video service. Usability of the SDN Northbound API for creating application-awareness in network operation: Currently, the fact that the network and the applications that run on it are developed and operated separately leads to problems in network operation. SDN offers with the Northbound-API an open interface that enables the exchange between information of both worlds during operation. One aim of this thesis was to investigate whether this interface can be exploited so that the QoE experienced by the user can be maintained on high level. For this purpose, the QoE influence factors were determined on a challenging application by means of a subjective survey study. The application is cloud gaming, in which the calculation of video game environments takes place in the cloud and is transported via video over the network to the user. It was shown that apart from the most important factor influencing QoS, i.e., packet loss on the downlink, also the type of game type and its speed play a role. This demonstrates that in addition to QoS the application state is important and should be communicated to the network. Since an implementation of such a state conscious SDN for the example of Cloud Gaming was not possible due to its proprietary implementation, in this thesis the application “YouTube video streaming” was chosen as an alternative. For this application, status information is retrievable via the "Yomo" tool and can be used for network control. It was shown that an SDN-based implementation of an application-aware network has distinct advantages over traditional network management methods and the user quality can be obtained in spite of disturbances. N2 - Mit der Vorstellung von OpenFlow durch die Stanford Universität im Jahre 2008 begann ein Prozess im Bereich der Netzwerkforschung, der den vorherrschenden Ansatz der völlig verteilten Netzsteuerung in Frage stellt. Bei OpenFlow handelt es sich um ein Kommunikationsprotokoll, das es ermöglicht die Netzsteuerung aus den Netzwerkgeräten, z. B. einem Router, herauszulösen und als logisch-zentralisierte Einheit als reine Software zu realisieren. Ein Konzept für das im Verlauf des wissenschaftlichen Diskurses der Begriff „Software Defined Networking“ (SDN) geprägt wurde. Für die Betreiber von Netzwerken hat dieses Konzept verschiedene Vorteile. Die beiden wichtigsten lassen sich unter den Punkten Kostenersparnis und Flexibilität zusammenfassen. Zum einen ist es durch die einheitliche Schnittstelle zur Netzwerkhardware („Southbound-API“), wie sie von OpenFlow realisiert wird, möglich Geräte und Software verschiedener Hersteller miteinander zu kombinieren, was den Innovations- und Preisdruck auf diese erhöht. Zum anderen besteht durch die Realisierung der Netzwerksteuerung als frei programmierbare Software mit offenen Schnittstellen („Northbound-API“) die Möglichkeit diese an die individuellen Gegebenheiten des Betreibernetzes anzupassen als auch Informationen mit den Applikationen auszutauschen, die es bedient. Dadurch kann das Netz viel flexibler und schneller auf sich ändernde Gegebenheiten reagieren und den Verkehr effektiver und auf die vom Nutzer erfahrene „Quality of Experience“ (QoE) abgestimmt transportieren. Der Ansatz einer von der Hardware getrennten Netzwerkkontrollschicht für paket-basierte Netze ist nicht neu und wurde in der Vergangenheit bereits mehrfach vorgeschlagen. Daher sah und sieht sich der Ansatz von SDN vielen Fragen nach seiner Realisierbarkeit im Bezug auf Leistungsfähigkeit und Anwendbarkeit gegenüber. Diese Fragen rühren zum Teil auch daher, dass es bis dato keine allgemein anerkannte Definition des SDN Begriffes gibt. Daher ist es ein Teil dieser Doktorarbeit eine solche Definition herzuleiten. Darüber hinaus werden verschiedene der offenen Fragen auf ihre Lösung hin untersucht. Diese Untersuchungen folgen drei Teilaspekten: Leistungsbewertung von Software Defined Networking, Anwendungen auf der SDN Kontrollschicht und die Nutzbarkeit der SDN Northbound-API zum Herstellen eines Applikationsbewusstseins im Netzbetrieb. Leistungsbewertung von Software Defined Networking: Die Frage nach der Leistungsfähigkeit eines SDN-basierten Systems war von Beginn an eine der wichtigsten. In dieser Doktorarbeit wurden zu diesem Zweck experimentelle Messungen zur Leistung OpenFlow-fähiger Switch Hardware und Kontrollsoftware durchgeführt. Die Ergebnisse dieser Messungen dienten als Eingabeparameter zur Aufstellung eines analytischen Modells des reaktiven SDN Ansatzes. Durch das Modell ließ sich bestimmen, dass die Leistungsfähigkeit der Software Kontrollschicht, oft „Controller“ genannt, von entscheidender Bedeutung für die Gesamtleistung des Systems ist, aber der Ansatz insgesamt tragfähig ist. Basierend auf dieser Erkenntnis wurde eine Software zur Analyse der Leistungsfähigkeit von SDN Controllern entwickelt. Diese Software ermöglicht die Emulation der Weiterleitungsschicht eines SDN Netzes gegenüber der Kontrollsoftware und kann so deren Leistungsdaten in verschiedenen Situationen und Konfigurationen bestimmen. Die Messungen mit dieser Software zeigten, dass es durchaus gravierende Unterschiede im Verhalten verschiedener Kontrollsoftware Implementierungen gibt. Unter anderem konnte gezeigt werden, dass einige gegenüber verschiedenen Switches ein unterschiedliches Verhalten aufweisen, insbesondere in der Abarbeitungsgeschwindigkeit von Nachrichten. Ein Umstand der in bestimmten Fällen zu Netzausfällen führen kann. Anwendungen auf der SDN Kontrollschicht: Das Kernstück von Software Defined Networking sind die intelligenten Netzwerkapplikationen, die auf der Kontrollschicht betrieben werden. Allerdings steht deren Entwicklung noch am Anfang und es ist wenig über die technischen Möglichkeiten und deren Grenzen bekannt. Daher wurde in dieser Doktorarbeit der Frage nachgegangen, in welchem Verhältnis sich die Realisierung einer Netzwerkaufgabe mit SDN zur klassischen Umsetzung dieser bewegt. Bei dieser Aufgabe handelt es sich im speziellen um das Monitoring von Links und dem darauf befindlichen Netzwerkverkehr. Hier wurde ein typischer Ansatz für diese Aufgabe basierend auf Wiretapping und spezieller Messhardware aufgebaut und mit einer Implementierung durch OpenFlow Switches und einer speziellen SDN Kontrollapplikation verglichen. Die Ergebnisse des Vergleiches zeigen, dass die SDN Variante im Bezug auf Bandbreiten und Verzögerungsabschätzung durchaus mit dem traditionellen Messaufbau im Bezug auf Messgenauigkeit mithalten kann. Jedoch müssen Abstriche bezüglich der Verzögerungsmessung unterhalb des Millisekundenbereiches gemacht werden. Eine weitere Frage bezüglich der SDN Kontrollapplikationen besteht darin, ob und wie gut sich bestehende Probleme in Netzwerken jetzt mit SDN lösen lassen. Diesbezüglich wurden in dieser Doktorarbeit zwei Programme auf SDN Basis entwickelt, die zwei typische Netzwerkprobleme lösen. Zum einen das Tool „IPOM“, dass es ermöglicht via SDN auf Basis einer festen physikalischen Testnetz-Topologie eine andere zu emulieren und so einem Forscher auf dem Testnetz deutlich mehr Flexibilität bei der Untersuchung von Auswirkungen anderer Netzstrukturen zu ermöglichen. Die zweite Software stellt eine Schnittstelle zwischen der Cloud Orchestration Software „OpenNebula“ und einem OpenFlow Controller dar. Der Zweck dieser Software war es experimentell zu untersuchen, ob eine Vorwarnung des Netzes vor einem bevorstehenden Umzug eines virtuellen Dienstes in einem Datenzentrum hinreichend ist, um den kontinuierlichen Betrieb dieses Dienstes zu gewährleisten. Dieses konnte am Beispiel eines Videodienstes demonstriert werden. Nutzbarkeit der SDN Northbound-API zum Herstellen eines Applikationsbewusstseins im Netzbetrieb: Aktuell führt die Tatsache, dass Netz und Applikationen, die darauf laufen, separat entwickelt und betrieben werden zu Problemen im Netzbetrieb. SDN bietet mit der Northbound-API eine Schnittstelle an, die den Austausch zwischen Informationen beider Welten im Betrieb ermöglicht. Ein Ziel dieser Doktorarbeit war es zu untersuchen, ob sich diese Schnittstelle ausnutzen lässt, so dass die vom Nutzer erfahrene QoE hoch gehalten werden kann. Zu diesem Zwecke wurden zunächst mittels einer subjektiven Umfragestudie die Einflussfaktoren auf eine anspruchsvolle Applikation bestimmt. Bei der Applikation handelt es sich um Cloud Gaming, bei dem die Berechnung der Videospiele Umgebung in der Cloud stattfindet und per Video über das Netz transportiert wird. Hier konnte gezeigt werden, dass neben dem wichtigsten QoS Einflussfaktor Paketverlust auf dem Downlink auch die Art des Spieltyps und dessen Geschwindigkeit eine Rolle spielen. Dies belegt, dass neben QoS auch der Applikationszustand wichtig ist und dem Netz mitgeteilt werden sollte. Da eine Umsetzung eines solchen zustandsbewussten SDNs für das Beispiel Cloud Gaming auf Grund dessen proprietärer Implementierung nicht möglich war, wurde in dieser Doktorarbeit auf die Applikation YouTube Video Streaming ausgewichen. Für diese sind mit Hilfe des Tools „YoMo“ Statusinformationen abfragbar und können zur Netzsteuerung genutzt werden. Es konnte gezeigt werden, dass eine SDN-basierte Realisierung eines applikationsbewussten Netzes deutliche Vorteile gegenüber klassischen Netzwerk Management Methoden aufweist und die Nutzerqualität trotz Störfaktoren erhalten werden kann. T3 - Würzburger Beiträge zur Leistungsbewertung Verteilter Systeme - 03/14 KW - Leistungsbewertung KW - Netzwerk KW - Software Defined Networking KW - Quality of Experience KW - Cloud Gaming KW - Performance Evaluation Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-100795 SN - 1432-8801 ER - TY - THES A1 - Klein, Dominik Werner T1 - Design and Evaluation of Components for Future Internet Architectures T1 - Entwurf und Bewertung von Komponenten für zukünftige Internet Architekturen N2 - Die derzeitige Internetarchitektur wurde nicht in einem geplanten Prozess konzipiert und entwickelt, sondern hat vielmehr eine evolutionsartige Entwicklung hinter sich. Auslöser für die jeweiligen Evolutionsschritte waren dabei meist aufstrebende Anwendungen, welche neue Anforderungen an die zugrundeliegende Netzarchitektur gestellt haben. Um diese Anforderungen zu erfüllen, wurden häufig neuartige Dienste oder Protokolle spezifiziert und in die bestehende Architektur integriert. Dieser Prozess ist jedoch meist mit hohem Aufwand verbunden und daher sehr träge, was die Entwicklung und Verbreitung innovativer Dienste beeinträchtigt. Derzeitig diskutierte Konzepte wie Software-Defined Networking (SDN) oder Netzvirtualisierung (NV) werden als eine Möglichkeit angesehen, die Altlasten der bestehenden Internetarchitektur zu lösen. Beiden Konzepten gemein ist die Idee, logische Netze über dem physikalischen Substrat zu betreiben. Diese logischen Netze sind hochdynamisch und können so flexibel an die Anforderungen der jeweiligen Anwendungen angepasst werden. Insbesondere erlaubt das Konzept der Virtualisierung intelligentere Netzknoten, was innovative neue Anwendungsfälle ermöglicht. Ein häufig in diesem Zusammenhang diskutierter Anwendungsfall ist die Mobilität sowohl von Endgeräten als auch von Diensten an sich. Die Mobilität der Dienste wird hierbei ausgenutzt, um die Zugriffsverzögerung oder die belegten Ressourcen im Netz zu reduzieren, indem die Dienste zum Beispiel in für den Nutzer geographisch nahe Datenzentren migriert werden. Neben den reinen Mechanismen bezüglich Dienst- und Endgerätemobilität sind in diesem Zusammenhang auch geeignete Überwachungslösungen relevant, welche die vom Nutzer wahrgenommene Dienstgüte bewerten können. Diese Lösungen liefern wichtige Entscheidungshilfen für die Migration oder überwachen mögliche Effekte der Migration auf die erfahrene Dienstgüte beim Nutzer. Im Falle von Video Streaming ermöglicht ein solcher Anwendungsfall die flexible Anpassung der Streaming Topologie für mobile Nutzer, um so die Videoqualität unabhängig vom Zugangsnetz aufrechterhalten zu können. Im Rahmen dieser Doktorarbeit wird der beschriebene Anwendungsfall am Beispiel einer Video Streaming Anwendung näher analysiert und auftretende Herausforderungen werden diskutiert. Des Weiteren werden Lösungsansätze vorgestellt und bezüglich ihrer Effizienz ausgewertet. Im Detail beschäftigt sich die Arbeit mit der Leistungsanalyse von Mechanismen für die Dienstmobilität und entwickelt eine Architektur zur Optimierung der Dienstmobilität. Im Bereich Endgerätemobilität werden Verbesserungen entwickelt, welche die Latenz zwischen Endgerät und Dienst reduzieren oder die Konnektivität unabhängig vom Zugangsnetz gewährleisten. Im letzten Teilbereich wird eine Lösung zur Überwachung der Videoqualität im Netz entwickelt und bezüglich ihrer Genauigkeit analysiert. N2 - Today’s Internet architecture was not designed from scratch but was driven by new services that emerged during its development. Hence, it is often described as patchwork where additional patches are applied in case new services require modifications to the existing architecture. This process however is rather slow and hinders the development of innovative network services with certain architecture or network requirements. Currently discussed technologies like Software-Defined Networking (SDN) or Network Virtualization (NV) are seen as key enabling technologies to overcome this rigid best effort legacy of the Internet. Both technologies offer the possibility to create virtual networks that accommodate the specific needs of certain services. These logical networks are operated on top of a physical substrate and facilitate flexible network resource allocation as physical resources can be added and removed depending on the current network and load situation. In addition, the clear separation and isolation of networks foster the development of application-aware networks that fulfill the special requirements of emerging applications. A prominent use case that benefits from these extended capabilities of the network is denoted with service component mobility. Services hosted on Virtual Machines (VMs) follow their consuming mobile endpoints, so that access latency as well as consumed network resources are reduced. Especially for applications like video streaming, which consume a large fraction of the available resources, is this an important means to relieve the resource constraints and eventually provide better service quality. Service and endpoint mobility both allow an adaptation of the used paths between an offered service, i.e., video streaming and the consuming users in case the service quality drops due to network problems. To make evidence-based adaptations in case of quality drops, a scalable monitoring component is required that is able to monitor the service quality for video streaming applications with reliable accuracy. This monograph details challenges that arise when deploying a certain service, i.e., video streaming, in a future virtualized network architecture and discusses possible solutions. In particular, this work evaluates the performance of mechanisms enabling service mobility and presents an optimized architecture for service mobility. Concerning endpoint mobility, improvements are developed that reduce the latency between endpoints and consumed services and ensure connectivity regardless of the used mobile access network. In the last part, a network-based video quality monitoring solution is developed and its accuracy is evaluated. T3 - Würzburger Beiträge zur Leistungsbewertung Verteilter Systeme - 01/14 KW - Leistungsbewertung KW - Netzwerkmanagement KW - Virtuelles Netzwerk KW - Mobiles Internet KW - Service Mobility KW - Endpoint Mobility KW - Video Quality Monitoring Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-93134 SN - 1432-8801 ER -