TY - JOUR A1 - Montenegro, Sergio A1 - Dannemann, Frank T1 - Experiences and Best Practice Requirements Engineering for Small Satellites JF - Computing Science and Technology International Journal N2 - The design and implementation of a satellite mission is divided into several different phases. Parallel to these phases an evolution of requirements will take place. Because so many people in different locations and from different background have to work in different subsystems concurrently the ideas and concepts of different subsystems and different locations will diverge. We have to bring them together again. To do this we introduce synchronization points. We bring representatives from all subsystems and all location in a Concurrent Engineering Facility (CEF) room together. Between CEF sessions the different subsystems will diverge again, but each time the diversion will be smaller. Our subjective experience from test projects says this CEF sessions are most effective in the first phases of the development, from Requirements engineering until first coarse design. After Design and the concepts are fix, the developers are going to implementation and the concept divergences will be much smaller, therefore the CEF sessions are not a very big help any more. KW - space missions phases KW - CEF KW - concurrent design facility KW - requirements management Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-153307 VL - 1 IS - 2 ER - TY - THES A1 - Rehfeld, Stephan T1 - Untersuchung der Nebenläufigkeit, Latenz und Konsistenz asynchroner Interaktiver Echtzeitsysteme mittels Profiling und Model Checking T1 - Research on concurrency, latency, and consistency of asynchronous Realtime Interactive Systems using profiling and model checking N2 - Im Rahmen dieser Arbeit werden die Nebenläufigkeit, Konsistenz und Latenz in asynchronen Interaktiven Echtzeitsystemen durch die Techniken des Profilings und des Model Checkings untersucht. Zu Beginn wird erläutert, warum das asynchrone Modell das vielversprechendste für die Nebenläufigkeit in einem Interaktiven Echtzeitsystem ist. Hierzu wird ein Vergleich zu anderen Modellen gezogen. Darüber hinaus wird ein detaillierter Vergleich von Synchronisationstechnologien, welche die Grundlage für Konsistenz schaffen, durchgeführt. Auf der Grundlage dieser beiden Vergleiche und der Betrachtung anderer Systeme wird ein Synchronisationskonzept entwickelt. Auf dieser Basis wird die Nebenläufigkeit, Konsistenz und Latenz mit zwei Verfahren untersucht. Die erste Technik ist das Profiling, wobei einige neue Darstellungsformen von gemessenen Daten entwickelt werden. Diese neu entwickelten Darstellungsformen werden in der Implementierung eines Profilers verwendet. Als zweite Technik wird das Model Checking analysiert, welches bisher noch nicht im Kontext von Interaktiven Echtzeitsystemen verwendet wurde. Model Checking dient dazu, die Verhaltensweise eines Interaktiven Echtzeitsystems vorherzusagen. Diese Vorhersagen werden mit den Messungen aus dem Profiler verglichen. N2 - In this thesis the concurrency, latency, and consistency of asynchronous Realtime Interactive Systems (RIS) are analyzed using profiling and model checking. At the beginning, it is described why the Asynchronous Model is the most promising model to increase concurrency in a RIS. Therefore, it is compared to several other models. Furthermore, synchronization techniques are compared, which are used to provide consistency in a concurrent application. Upon both results, a synchronization concept is created. Using this concept, the concurrency, latency, and consistency are analyzed using two techniques. The first technique is profiling. New visualizations are developed to visualize profiling data measured by profiling. The second technique is model checking. In this thesis, model checking is used for the first time in context of a RIS. Model checking is used to predict the behavior of a RIS. The predicition and the measurement from the profiling are compared. KW - Model Checking KW - Virtuelle Realität KW - Computerspiel KW - Nebenläufigkeit KW - Virtual Reality KW - Augmented Reality KW - Computer Games KW - Parallelisierung KW - Interaktive Echtzeitsysteme KW - Profiling KW - Model Checking KW - Leistungsmessung KW - Leistungsvorhersage Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-147431 ER - TY - THES A1 - Gebert, Steffen Christian T1 - Architectures for Softwarized Networks and Their Performance Evaluation T1 - Architekturen für Software-basierte Netze und deren Leistungsbewertung N2 - This thesis contributes to several issues in the context of SDN and NFV, with an emphasis on performance and management. The main contributions are guide lines for operators migrating to software-based networks, as well as an analytical model for the packet processing in a Linux system using the Kernel NAPI. N2 - In der Dissertation werden mehrere Problemstellungen im Kontext von SDN und NFV, vor allem hinsichtlich Performance und Management, bearbeitet. Die Hauptbeiträge sind Guidelines für Netzbetreiber zum Management Software-basierter Netze sowie ein analytisches Modell, welches den Paketverarbeitungsprozess in der Linux Kernel NAPI beschreibt. T3 - Würzburger Beiträge zur Leistungsbewertung Verteilter Systeme - 01/17 KW - Telekommunikationsnetz KW - Software-based Networks KW - Software Defined Networking KW - Network Functions Virtualisation KW - Netzwerk KW - Software-defined networking KW - Leistungsbewertung Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-150634 SN - 1432-8801 ER - TY - THES A1 - Runge, Armin T1 - Advances in Deflection Routing based Network on Chips T1 - Fortschritte bei Deflection Routing basierten Network on Chips N2 - The progress which has been made in semiconductor chip production in recent years enables a multitude of cores on a single die. However, due to further decreasing structure sizes, fault tolerance and energy consumption will represent key challenges. Furthermore, an efficient communication infrastructure is indispensable due to the high parallelism at those systems. The predominant communication system at such highly parallel systems is a Network on Chip (NoC). The focus of this thesis is on NoCs which are based on deflection routing. In this context, contributions are made to two domains, fault tolerance and dimensioning of the optimal link width. Both aspects are essential for the application of reliable, energy efficient, and deflection routing based NoCs. It is expected that future semiconductor systems have to cope with high fault probabilities. The inherently given high connectivity of most NoC topologies can be exploited to tolerate the breakdown of links and other components. In this thesis, a fault-tolerant router architecture has been developed, which stands out for the deployed interconnection architecture and the method to overcome complex fault situations. The presented simulation results show, all data packets arrive at their destination, even at high fault probabilities. In contrast to routing table based architectures, the hardware costs of the herein presented architecture are lower and, in particular, independent of the number of components in the network. Besides fault tolerance, hardware costs and energy efficiency are of great importance. The utilized link width has a decisive influence on these aspects. In particular, at deflection routing based NoCs, over- and under-sizing of the link width leads to unnecessary high hardware costs and bad performance, respectively. In the second part of this thesis, the optimal link width at deflection routing based NoCs is investigated. Additionally, a method to reduce the link width is introduced. Simulation and synthesis results show, the herein presented method allows a significant reduction of hardware costs at comparable performance. N2 - Die Fortschritte der letzten Jahre bei der Fertigung von Halbleiterchips ermöglichen eine Vielzahl an Rechenkernen auf einem einzelnen Chip. Die in diesem Zusammenhang immer weiter sinkenden Strukturgrößen führen jedoch dazu, dass Fehlertoleranz und Energieverbrauch zentrale Herausforderungen darstellen werden. Aufgrund der hohen Parallelität in solchen Systemen, ist außerdem eine leistungsfähige Kommunikationsinfrastruktur unabdingbar. Das in diesen hochgradig parallelen Systemen überwiegend eingesetzte System zur Datenübertragung ist ein Netzwerk auf einem Chip (engl. Network on Chip (NoC)). Der Fokus dieser Dissertation liegt auf NoCs, die auf dem Prinzip des sog. Deflection Routing basieren. In diesem Kontext wurden Beiträge zu zwei Bereichen geleistet, der Fehlertoleranz und der Dimensionierung der optimalen Breite von Verbindungen. Beide Aspekte sind für den Einsatz zuverlässiger, energieeffizienter, Deflection Routing basierter NoCs essentiell. Es ist davon auszugehen, dass zukünftige Halbleiter-Systeme mit einer hohen Fehlerwahrscheinlichkeit zurecht kommen müssen. Die hohe Konnektivität, die in den meisten NoC Topologien inhärent gegeben ist, kann ausgenutzt werden, um den Ausfall von Verbindungen und anderen Komponenten zu tolerieren. Im Rahmen dieser Arbeit wurde vor diesem Hintergrund eine fehlertolerante Router-Architektur entwickelt, die sich durch das eingesetzte Verbindungsnetzwerk und das Verfahren zur Überwindung komplexer Fehlersituationen auszeichnet. Die präsentierten Simulations-Ergebnisse zeigen, dass selbst bei sehr hohen Fehlerwahrscheinlichkeiten alle Datenpakete ihr Ziel erreichen. Im Vergleich zu Router-Architekturen die auf Routing-Tabellen basieren, sind die Hardware-Kosten der hier vorgestellten Router-Architektur gering und insbesondere unabhängig von der Anzahl an Komponenten im Netzwerk, was den Einsatz in sehr großen Netzen ermöglicht. Neben der Fehlertoleranz sind die Hardware-Kosten sowie die Energieeffizienz von NoCs von großer Bedeutung. Einen entscheidenden Einfluss auf diese Aspekte hat die verwendete Breite der Verbindungen des NoCs. Insbesondere bei Deflection Routing basierten NoCs führt eine Über- bzw. Unterdimensionierung der Breite der Verbindungen zu unnötig hohen Hardware-Kosten bzw. schlechter Performanz. Im zweiten Teil dieser Arbeit wird die optimale Breite der Verbindungen eines Deflection Routing basierten NoCs untersucht. Außerdem wird ein Verfahren zur Reduzierung der Breite dieser Verbindungen vorgestellt. Simulations- und Synthese-Ergebnisse zeigen, dass dieses Verfahren eine erhebliche Reduzierung der Hardware-Kosten bei ähnlicher Performanz ermöglicht. KW - Network-on-Chip KW - System-on-Chip KW - VHDL KW - Network routing KW - Deflection routing Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-149700 ER - TY - THES A1 - Milenkoski, Aleksandar T1 - Evaluation of Intrusion Detection Systems in Virtualized Environments T1 - Bewertung von Angriffserkennungssystemen in Virtualisierten Umgebungen N2 - Virtualization allows the creation of virtual instances of physical devices, such as network and processing units. In a virtualized system, governed by a hypervisor, resources are shared among virtual machines (VMs). Virtualization has been receiving increasing interest as away to reduce costs through server consolidation and to enhance the flexibility of physical infrastructures. Although virtualization provides many benefits, it introduces new security challenges; that is, the introduction of a hypervisor introduces threats since hypervisors expose new attack surfaces. Intrusion detection is a common cyber security mechanism whose task is to detect malicious activities in host and/or network environments. This enables timely reaction in order to stop an on-going attack, or to mitigate the impact of a security breach. The wide adoption of virtualization has resulted in the increasingly common practice of deploying conventional intrusion detection systems (IDSs), for example, hardware IDS appliances or common software-based IDSs, in designated VMs as virtual network functions (VNFs). In addition, the research and industrial communities have developed IDSs specifically designed to operate in virtualized environments (i.e., hypervisorbased IDSs), with components both inside the hypervisor and in a designated VM. The latter are becoming increasingly common with the growing proliferation of virtualized data centers and the adoption of the cloud computing paradigm, for which virtualization is as a key enabling technology. To minimize the risk of security breaches, methods and techniques for evaluating IDSs in an accurate manner are essential. For instance, one may compare different IDSs in terms of their attack detection accuracy in order to identify and deploy the IDS that operates optimally in a given environment, thereby reducing the risks of a security breach. However, methods and techniques for realistic and accurate evaluation of the attack detection accuracy of IDSs in virtualized environments (i.e., IDSs deployed as VNFs or hypervisor-based IDSs) are lacking. That is, workloads that exercise the sensors of an evaluated IDS and contain attacks targeting hypervisors are needed. Attacks targeting hypervisors are of high severity since they may result in, for example, altering the hypervisors’s memory and thus enabling the execution of malicious code with hypervisor privileges. In addition, there are no metrics and measurement methodologies for accurately quantifying the attack detection accuracy of IDSs in virtualized environments with elastic resource provisioning (i.e., on-demand allocation or deallocation of virtualized hardware resources to VMs). Modern hypervisors allow for hotplugging virtual CPUs and memory on the designated VM where the intrusion detection engine of hypervisor-based IDSs, as well as of IDSs deployed as VNFs, typically operates. Resource hotplugging may have a significant impact on the attack detection accuracy of an evaluated IDS, which is not taken into account by existing metrics for quantifying IDS attack detection accuracy. This may lead to inaccurate measurements, which, in turn, may result in the deployment of misconfigured or ill-performing IDSs, increasing the risk of security breaches. This thesis presents contributions that span the standard components of any system evaluation scenario: workloads, metrics, and measurement methodologies. The scientific contributions of this thesis are: A comprehensive systematization of the common practices and the state-of-theart on IDS evaluation. This includes: (i) a definition of an IDS evaluation design space allowing to put existing practical and theoretical work into a common context in a systematic manner; (ii) an overview of common practices in IDS evaluation reviewing evaluation approaches and methods related to each part of the design space; (iii) and a set of case studies demonstrating how different IDS evaluation approaches are applied in practice. Given the significant amount of existing practical and theoretical work related to IDS evaluation, the presented systematization is beneficial for improving the general understanding of the topic by providing an overview of the current state of the field. In addition, it is beneficial for identifying and contrasting advantages and disadvantages of different IDS evaluation methods and practices, while also helping to identify specific requirements and best practices for evaluating current and future IDSs. An in-depth analysis of common vulnerabilities of modern hypervisors as well as a set of attack models capturing the activities of attackers triggering these vulnerabilities. The analysis includes 35 representative vulnerabilities of hypercall handlers (i.e., hypercall vulnerabilities). Hypercalls are software traps from a kernel of a VM to the hypervisor. The hypercall interface of hypervisors, among device drivers and VM exit events, is one of the attack surfaces that hypervisors expose. Triggering a hypercall vulnerability may lead to a crash of the hypervisor or to altering the hypervisor’s memory. We analyze the origins of the considered hypercall vulnerabilities, demonstrate and analyze possible attacks that trigger them (i.e., hypercall attacks), develop hypercall attack models(i.e., systematized activities of attackers targeting the hypercall interface), and discuss future research directions focusing on approaches for securing hypercall interfaces. A novel approach for evaluating IDSs enabling the generation of workloads that contain attacks targeting hypervisors, that is, hypercall attacks. We propose an approach for evaluating IDSs using attack injection (i.e., controlled execution of attacks during regular operation of the environment where an IDS under test is deployed). The injection of attacks is performed based on attack models that capture realistic attack scenarios. We use the hypercall attack models developed as part of this thesis for injecting hypercall attacks. A novel metric and measurement methodology for quantifying the attack detection accuracy of IDSs in virtualized environments that feature elastic resource provisioning. We demonstrate how the elasticity of resource allocations in such environments may impact the IDS attack detection accuracy and show that using existing metrics in such environments may lead to practically challenging and inaccurate measurements. We also demonstrate the practical use of the metric we propose through a set of case studies, where we evaluate common conventional IDSs deployed as VNFs. In summary, this thesis presents the first systematization of the state-of-the-art on IDS evaluation, considering workloads, metrics and measurement methodologies as integral parts of every IDS evaluation approach. In addition, we are the first to examine the hypercall attack surface of hypervisors in detail and to propose an approach using attack injection for evaluating IDSs in virtualized environments. Finally, this thesis presents the first metric and measurement methodology for quantifying the attack detection accuracy of IDSs in virtualized environments that feature elastic resource provisioning. From a technical perspective, as part of the proposed approach for evaluating IDSsthis thesis presents hInjector, a tool for injecting hypercall attacks. We designed hInjector to enable the rigorous, representative, and practically feasible evaluation of IDSs using attack injection. We demonstrate the application and practical usefulness of hInjector, as well as of the proposed approach, by evaluating a representative hypervisor-based IDS designed to detect hypercall attacks. While we focus on evaluating the capabilities of IDSs to detect hypercall attacks, the proposed IDS evaluation approach can be generalized and applied in a broader context. For example, it may be directly used to also evaluate security mechanisms of hypervisors, such as hypercall access control (AC) mechanisms. It may also be applied to evaluate the capabilities of IDSs to detect attacks involving operations that are functionally similar to hypercalls, for example, the input/output control (ioctl) calls that the Kernel-based Virtual Machine (KVM) hypervisor supports. For IDSs in virtualized environments featuring elastic resource provisioning, our approach for injecting hypercall attacks can be applied in combination with the attack detection accuracy metric and measurement methodology we propose. Our approach for injecting hypercall attacks, and our metric and measurement methodology, can also be applied independently beyond the scenarios considered in this thesis. The wide spectrum of security mechanisms in virtualized environments whose evaluation can directly benefit from the contributions of this thesis (e.g., hypervisor-based IDSs, IDSs deployed as VNFs, and AC mechanisms) reflects the practical implication of the thesis. N2 - Virtualisierung ermöglicht die Erstellung virtueller Instanzen physikalischer Geräte, wie z.B. Netzwerkgeräten und Prozessoren. In einem virtualisierten System (welches von einem Hypervisor kontrolliert wird), wird von virtuellen Maschinen (engl. virtual machine - VM) gemeinsam auf Ressourcen zugegriffen. Die Virtualisierung wird zunehmend als technische Möglichkeit in Betracht gezogen, um durch Serverkonsolidierung Kosten zu reduzieren und die Flexibilität physikalischer Infrastrukturen zu erhöhen. Auch wenn die Virtualisierung viele Vorteile bietet, so ergeben sich doch neue Herausforderungen im Bereich der IT-Sicherheit—ein Hypervisor bietet nämlich neuartige Angriffsflächen. Bei der Angriffserkennung handelt es sich um einen weitverbreiteten IT-Sicherheitsmechanismus, mit welchem bosartige Aktivitäten in Rechnern oder Netzwerken identifiziert werden. So können Angriffe rechtzeitig gestoppt oder Sicherheitsverletzungen in ihrer Schwere gemindert werden. Als Folge der weiten Verbreitung von Virtualisierung ergibt sich der verstärkte Einsatz konventioneller, hard- oder softwarebasierter Angriffserkennungssysteme (engl. intrusion detection system - IDS) im Rahmen von dedizierten VMs als virtuelle Netzwerkfunktionen (engl. virtual network function - VNF). Zusätzlich wurden im Forschungs- und Industrieumfeld IDSs konkret für die Verwendung in virtualisierten Umgebungen entwickelt (d.h. hypervisor-basierte IDSs), die in Virtualisierungsebenen mit Komponenten innerhalb des Hypervisors bzw. innerhalb einer dedizierten VM eingesetzt werden. Letztere werden immer üblicher, weil sich die Anzahl der virtualisierten Rechenzentren kontinuierlich vermehrt und im Paradigma des Cloud-Computings die Virtualisierung eine Schlüsseltechnologie darstellt. Um die Risiken durch Sicherheitsverletzungen zu minimieren, sind Methoden und Verfahren zur Bewertung eines IDS von zentraler Bedeutung. Zum Beispiel können unterschiedliche IDSs hinsichtlich ihrer Angriffserkennungsgenauigkeit verglichen werden. Dies hilft um das IDS zu identifizieren und einzusetzen, dessen Leistung als optimal zu bewerten ist. So vermindert sich das Risiko einer Sicherheitsverletzung. Jedoch fehlen Methoden bzw. Verfahren zur realistischen und präzisen Bewertung der Angriffserkennungsgenauigkeit von IDSs in virtualisierten Umgebungen (d.h. IDSs eingesetzt als VNFs oder hypervisor-basierte IDSs). Hierfür sind Arbeitslasten für die Sensoren von zu evaluierenden IDSs notwendig, die Angriffe auf den Hypervisor enthalten. Angriffe auf den Hypervisor sind sehr kritisch, weil sie z.B. Speicherinhalte eines Hypervisors so verändern können, dass dieser schädlichen Code mit erhöhten Privilegien ausführt. Ebenfalls existieren keine Metriken und Messmethodiken, mit denen die Angriffserkennungsgenauigkeit von IDSs in elastischen Umgebungen (d.h. bedarfsgerechte Zuweisungen von Hardware-Ressourcen zu VMs) präzise quantifiziert werden kann. Bei modernen Hypervisoren können virtuelle CPUs sowie Speichereinheiten während des Betriebs an die dedizierte VM zugewiesen werden, in welcher die Angriffserkennung des IDSs ausgeführt wird. Die Zuweisung von Ressourcen im laufenden Betrieb (“Hotplugging“) kann sich beträchtlich auf die Angriffserkennungsgenauigkeit von zu evaluierenden IDSs auswirken, was jedoch von existierenden Metriken nicht berücksichtigt wird. Dies hat ggf. ungenaue Messungen zur Folge, was sich entsprechend im Einsatz von fehlerhaft konfigurierten oder mängelbehafteten IDSs widerspiegelt und so das Risiko von Sicherheitsverletzungen erhöht. Diese Arbeit präsentiert Beiträge, die die Standardkomponenten eines jeden Szenarios zur Systembewertung umfassen: Arbeitslasten, Metriken und Messmethodiken. Die wissenschaftlichen Beiträge dieser Arbeit sind: Eine umfassende Systematisierung der verwendeten Praktiken und des aktuelles Standes bei der Bewertung von IDSs. Die Systematisierung enthält: (i) die Definition eines Entwurfraumes für die IDS-Bewertung, welches praktische und theoretische Arbeiten im Bereich IDS-Bewertung systematisch in einen einheitlichen Kontext stellt; (ii) einen Überblick über verwendete Praktiken im Bereich IDSBewertung, der Ansätze und Methodiken jedes Teils des Entwurfraumes beinhaltet; und eine Sammlung an Fallstudien, die demonstriert, wie unterschiedliche IDS-Bewertungsansätze in der Praxis angewendet werden. Vor dem Hintergrund der beträchtlichen Menge bestehender praktischer und theoretischer Arbeiten im Bereich IDS-Bewertung erweist sich die Systematisierung als vorteilhaft zur Verbesserung des allgemeinen Themenverständnisses, indem ein Überblick zur aktuellen Sachlage des Themengebietes geliefert wird. Zusätzlich ist dies vorteilhaft bei der Identifizierung und Gegenüberstellung von Vor- und Nachteilen unterschiedlicher IDS-Bewertungsmethodiken und -praktiken. Es hilft ebenfalls Vorgaben und Empfehlungen für die Bewertung gegenwärtiger wie auch zukünftiger IDSs zu identifizieren. Eine detaillierte Analyse von Schwachstellen von Hypervisoren wird präsentiert,sowie eine Menge von Angriffsmodellen, die die Aktivitäten eines Angreifers umfassen, der diese Schwachstellen auslöst. Diese Analyse umfasst 35 Schwachstellen in Hypercall-Routinen, sogenannte Hypercall-Schwachstellen. Hypercalls sind an den Hypervisor gerichtete „Software-Traps“ aus dem Betriebssystemkern einer VM. Die Hypercall-Schnittstelle von Hypervisoren ist — neben Gerätetreibern und „VM exit“-Ereignissen — eine ihrer Angriffsflächen. Wird die gegenüber einem Hypercall bestehende Schwachstelle ausgenutzt, kann dies zu einem Absturz des Hypervisors oder zu einer Änderung seines Speicherinhalts führen. Wir analysieren die Gründe der betrachteten Hypercall-Schwachstellen, demonstrieren und analysieren Angriffe, die solche Schwachstellen ausnutzen (d.h. Hypercall-Angriffe), entwickeln Hypercall-Angriffsmodelle (nämlich systematisierte, auf die Schnittstelle der Hypercalls gerichtete Aktivitäten der Angreifer) und diskutieren zukünftige Forschungsrichtungen, die Ansätze betrachten, um die Schnittstellen von Hypercalls abzusichern. Ein neuartiger Ansatz zur Bewertung von IDSs, der die Generierung von Arbeitslasten ermöglichen, die Hypercall-Angriffe enthalten. Wir schlagen einen Ansatz zur Bewertung von IDSs durch die Injektion von Angriffen (d.h. Hypercall- Angriffen) vor. Es handelt sich hier um die kontrollierte Ausführung von Angriffen in einer regulären Systemumgebung, in welcher das betrachtete IDS eingesetzt wird. Die Injektion von Angriffen folgt Angriffsmodellen, die durch Analyse realistischer Angriffe erstellt wurden. Wir verwenden die als Teil dieser Arbeit dargestellten Hypercall-Angriffsmodelle zur Injektion von Hypercall- Angriffen. Eine neuartige Metrik und Messmethodik zur präzisen Quantifizierung der Angriffserkennungsgenauigkeit von IDSs in virtualisierten elastischen Umgebungen. Wir demonstrieren, wie die Elastizität virtualisierter Umgebungen sich auf die Angriffserkennungsgenauigkeit von IDSs auswirkt und zeigen, dass die Verwendung existierender Metriken zu schwierigen und ungenauen Messungen bei der Bewertung von IDSs in virtualisierten elastischen Umgebungen führen. Ausserdem zeigen wir den praktischen Nutzen der von uns vorgeschlagenen Metrik in mehreren Fallstudien. Zusammenfassend präsentiert diese Arbeit die erste Systematisierung des Stands der Technik bei der Bewertung von IDSs unter Beachtung der Arbeitslasten, Metriken und Messmethodiken als integraler Teil eines jeden Ansatzes zur IDS Bewertung. Außerdem sind wir die ersten, die Hypercall-Angriffsflächen im Detail untersuchen und die einen Ansatz zur Bewertung von IDSs in virtualisiertenUmgebungen durch die Injektion von Angriffen vorschlagen. Abschließend präsentiert diese Arbeit die erste Metrik und Messmethodik zur Quantifizierung der Angriffserkennungsgenauigkeit von IDSs in virtualisierten elastischen Umgebungen. Aus technischer Sicht präsentieren wir in dieser Arbeit, als Teil des vorgeschlagenen Ansatzes zur Bewertung von IDSs, ein Werkzeug mit der Bezeichnung „hInjector“, welches zur Injektion von Hypercall-Angriffen dient. Dieses Werkzeug wurde entworfen, um die gründliche, repräsentative und praktisch umsetzbare Bewertung von IDSs per Injektion von Angriffen zu ermöglichen. Wir demonstrieren die Anwendung und den praktischen Wert sowohl von hInjector als auch des vorgeschlagenen Ansatzes durch die Bewertung eines repräsentativen, hypervisor-basierten IDS, das zur Erkennung von Hypercall-Angriffen konzipiert ist. Während wir uns auf die Bewertung der Fähigkeiten von IDSs zur Erkennung von Hypercall-Angriffen fokusieren, kann der vorgeschlagene Ansatz verallgemeinert und in einem breiteren Kontext angewendet werden. Zum Beispiel kann er direkt verwendet werden, um auch Hypervisor-Sicherheitsmechanismen, nämlich etwa Hypercall-Zugangskontrollmechanismen, zu bewerten. Der Ansatz kann auch angewendet werden für die Bewertung von IDSs, die der Erkennung von Angriffen basierend auf Operationen dienen, die eine funktionelle Ähnlichkeit zu Hypercalls aufweisen. Solche Operationen sind z.B. die “input/output control (ioctl)” Aufrufe, die vom “Kernel-based Virtual Machine (KVM)”-Hypervisor unterstützt werden. Für IDSs, die in elastischen virtualisierten Umgebungen eingesetzt werden, kann unser Ansatz zur Injektion von Hypercall-Angriffen in Verbindung mit der von uns vorgeschlagenen Metrik und Messmethodik angewendet werden. Beide können auch unabhängig von den in dieser Arbeit betrachteten Szenarien angewendet werden. Das breite Spektrum von Sicherheitsmechanismen (z.B. hypervisor-basierte IDSs, IDSs eingesetzt als VNFs und Zugangskontrollmechanismen), deren Bewertung von den Beiträgen dieser Arbeit profitieren, spiegelt ihre Praktikabilität wider. KW - intrusion detection KW - evaluation KW - virtualized environments KW - Eindringerkennung KW - Evaluation KW - Virtuelles Netz Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-141846 ER - TY - JOUR A1 - Kirchner, Felix A1 - Dittrich, Marco A1 - Beckenbauer, Phillip A1 - Nöth, Maximilian T1 - OCR bei Inkunabeln – Offizinspezifischer Ansatz der Universitätsbibliothek Würzburg T1 - OCR processing of incunabula: printshop-specific approach of the University Library of Würzburg JF - ABI Technik N2 - Im Rahmen des BMBF-geförderten Projekts KALLIMACHOS an der Universität Würzburg soll unter anderem die Textgrundlage für digitale Editionen per OCR gewonnen werden. Das Bearbeitungskorpus besteht aus deutschen, französischen und lateinischen Inkunabeln. Dieser Artikel zeigt, wie man mit bereits heute existierenden Methoden und Programmen den Problemen bei der OCR von Inkunabeln entgegentreten kann. Hierzu wurde an der Universitätsbibliothek Würzburg ein Verfahren erprobt, mit dem auf ausgewählten Werken einer Druckerwerkstatt bereits Zeichengenauigkeiten von bis zu 95 Prozent und Wortgenauigkeiten von bis zu 73 Prozent erzielt werden. KW - OCR KW - Tesseract KW - Inkunabel KW - OCR KW - Tesseract KW - Incunabula Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-194002 SN - 2191-4664 SN - 0720-6763 N1 - Dieser Beitrag ist mit Zustimmung des Rechteinhabers aufgrund einer (DFG-geförderten) Allianz- bzw. Nationallizenz frei zugänglich. VL - 36 IS - 3 ER - TY - THES A1 - Weinhard, Alexander T1 - Managing RFID Implementations - Implications for Managerial Decision Making T1 - Management von RFID-Implementierungen - Implikationen für die Management Entscheidungsfindung N2 - The present dissertation investigates the management of RFID implementations in retail trade. Our work contributes to this by investigating important aspects that have so far received little attention in scientific literature. We therefore perform three studies about three important aspects of managing RFID implementations. We evaluate in our first study customer acceptance of pervasive retail systems using privacy calculus theory. The results of our study reveal the most important aspects a retailer has to consider when implementing pervasive retail systems. In our second study we analyze RFID-enabled robotic inventory taking with the help of a simulation model. The results show that retailers should implement robotic inventory taking if the accuracy rates of the robots are as high as the robots’ manufacturers claim. In our third and last study we evaluate the potentials of RFID data for supporting managerial decision making. We propose three novel methods in order to extract useful information from RFID data and propose a generic information extraction process. Our work is geared towards practitioners who want to improve their RFID-enabled processes and towards scientists conducting RFID-based research. N2 - Die vorliegende Arbeit beschäftigt sich mit dem Management von RFID Implementierungen im Einzelhandel. Dabei leistet die Arbeit einen Beitrag, indem wichtige aber bisher in der wissenschaftlichen Fachliteratur nur wenig beachtete Aspekte beleuchtet werden. Hierfür werden drei Studien zu drei relevanten Managementaspekten durchgeführt. Zunächst wird die Kundenakzeptanz im Bezug auf pervasive Retail Applikationen betrachtet und mithilfe der Privacy Calculus Theorie ermittelt, welche Aspekte für die Kundenakzeptanz pervasiver Systeme besonders relevant sind. In Studie zwei wird eine RFID-gestützte Roboterinvnetur anhand einer Simulationsstudie evaluiert. Die Studie zeigt, dass eine durch Roboter durchgeführte Inventur für einen Einzelhändler zu empfehlen ist, falls die Roboter tatsächlich mit den von den Herstellern beworbenen Erkennungsraten arbeiten. In der dritten und letzten Studie werden die Potenziale von RFID-Daten zur Entscheidungsunterstützung des Managements evaluiert. Es werden drei Methoden vorgestellt um aus RFID-Daten nützliche Informationen zu gewinnen. Abschließend wird ein generisches Vorgehensmodell zur Informationsextraktion entwickelt. Die Arbeit ist sowohl an Praktiker gerichtet, die ihre RFID-basierten Prozesse verbessern möchten, als auch an Wissenschaftler die RFID-basierte Forschung betreiben. KW - RFID KW - Simulation KW - Management KW - Privatsphäre KW - Roboter KW - Data Analytics Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-178161 ER - TY - THES A1 - Hirth, Matthias Johannes Wilhem T1 - Modeling Crowdsourcing Platforms - A Use-Case Driven Approach T1 - Modellierung von Crowdsourcing-Plattformen anhand von Anwendungsfällen N2 - Computer systems have replaced human work-force in many parts of everyday life, but there still exists a large number of tasks that cannot be automated, yet. This also includes tasks, which we consider to be rather simple like the categorization of image content or subjective ratings. Traditionally, these tasks have been completed by designated employees or outsourced to specialized companies. However, recently the crowdsourcing paradigm is more and more applied to complete such human-labor intensive tasks. Crowdsourcing aims at leveraging the huge number of Internet users all around the globe, which form a potentially highly available, low-cost, and easy accessible work-force. To enable the distribution of work on a global scale, new web-based services emerged, so called crowdsourcing platforms, that act as mediator between employers posting tasks and workers completing tasks. However, the crowdsourcing approach, especially the large anonymous worker crowd, results in two types of challenges. On the one hand, there are technical challenges like the dimensioning of crowdsourcing platform infrastructure or the interconnection of crowdsourcing platforms and machine clouds to build hybrid services. On the other hand, there are conceptual challenges like identifying reliable workers or migrating traditional off-line work to the crowdsourcing environment. To tackle these challenges, this monograph analyzes and models current crowdsourcing systems to optimize crowdsourcing workflows and the underlying infrastructure. First, a categorization of crowdsourcing tasks and platforms is developed to derive generalizable properties. Based on this categorization and an exemplary analysis of a commercial crowdsourcing platform, models for different aspects of crowdsourcing platforms and crowdsourcing mechanisms are developed. A special focus is put on quality assurance mechanisms for crowdsourcing tasks, where the models are used to assess the suitability and costs of existing approaches for different types of tasks. Further, a novel quality assurance mechanism solely based on user-interactions is proposed and its feasibility is shown. The findings from the analysis of existing platforms, the derived models, and the developed quality assurance mechanisms are finally used to derive best practices for two crowdsourcing use-cases, crowdsourcing-based network measurements and crowdsourcing-based subjective user studies. These two exemplary use-cases cover aspects typical for a large range of crowdsourcing tasks and illustrated the potential benefits, but also resulting challenges when using crowdsourcing. With the ongoing digitalization and globalization of the labor markets, the crowdsourcing paradigm is expected to gain even more importance in the next years. This is already evident in the currently new emerging fields of crowdsourcing, like enterprise crowdsourcing or mobile crowdsourcing. The models developed in the monograph enable platform providers to optimize their current systems and employers to optimize their workflows to increase their commercial success. Moreover, the results help to improve the general understanding of crowdsourcing systems, a key for identifying necessary adaptions and future improvements. N2 - Computer haben menschliche Arbeitskräfte mittlerweile in vielen Bereichen des täglichen Lebens ersetzt. Dennoch gibt es immer noch eine große Anzahl von Aufgaben, die derzeit nicht oder nur teilweise automatisierbar sind. Hierzu gehören auch solche, welche als sehr einfach erachtet werden, beispielsweise das Kategorisieren von Bildinhalten oder subjektive Bewertungen. Traditionell wurden diese Aufgaben vorwiegend von eigens angestellten Mitarbeitern oder über Outsourcing gelöst. In den vergangenen Jahren wurde hierfür jedoch immer häufiger Crowdsourcing verwendet, wobei die große Anzahl an weltweiten Internetnutzern als hoch verfügbare, kostengünstige und einfach zu erreichende Arbeiterschaft eingesetzt wird. Um eine weltweite Verteilung von Arbeit zu ermöglichen hat sich eine neue Art von Internetdienstleistern entwickelt, die sogenannten Crowdsourcingplattformen. Diese dienen als Vermittler zwischen Arbeitgebern, welche Aufgaben auf den Plattformen einstellen und Arbeitnehmer, welche diese Aufgaben bearbeiten. Hierbei ergeben sich zwei Arten von Herausforderungen. Einerseits entstehen Herausforderungen technischer Art, wie etwa Fragen bezüglich der Dimensionierung der Plattforminfrastruktur oder der Realisierung von Programmierschnittstellen zur Verbindung von Crowdsourcingplattformen mit anderen Cloudanbietern. Andererseits ergeben sich konzeptionelle Herausforderungen, wie etwa die Identifikation vertrauenswürdiger Arbeitnehmer oder Methoden zur Migration von traditionellen Arbeitsaufgaben in Crowdsourcing-basierte Arbeit. In diesem Monograph werden beide Arten von Herausforderungen adressiert. Hierzu werden aktuelle Crowdsourcingsysteme analysiert und modelliert, um basieren auf den gewonnenen Erkenntnissen, Arbeitsabläufe im Crowdsourcing und die den Systemen zu Grunde liegende Infrastruktur zu optimieren. Zunächst wird hierfür eine Kategorisierung von Crowdsourcing Aufgaben und Plattformen entwickelt um generalisierbare Eigenschaften abzuleiten. Basierend auf dieser Kategorisierung und einer beispielhaften Analyse einer kommerziellen Crowdsourcingplattform werden Modelle entwickelt, die verschiedene Aspekte der Plattformen sowie der eingesetzten Mechanismen abbilden. Hierbei wird ein besonderer Fokus auf die Verlässlichkeit von Qualitätssicherungsmechanismen, deren Kosten und Einsetzbarkeit für verschiedene Aufgabentypen gelegt. Ferner wird ein neuer Qualitätssicherungsmechanismus vorgestellt und evaluiert, welcher lediglich auf den Interaktionen der Crowdsourcingarbeitnehmer mit der Nutzeroberfläche basiert. Die Erkenntnisse, aus der Analyse existierender Plattformen, den abgeleiteten Modellen und dem entwickelten Qualitätssicherungsmechanismus fließen schließlich in konkrete Designempfehlungen für zwei exemplarische Crowdsourcinganwendungsfälle ein. Die beiden gewählten Anwendungsfälle decken Aspekte einer Vielzahl von Crowdsourcingaufgaben ab und zeigen sowohl die Vorteile als auch die Herausforderungen beim Einsatz von Crowdsourcing. Aufgrund der zunehmenden Digitalisierung und Globalisierung des Arbeitsmarkes ist es zu erwarten, dass Crowdsourcing in den nächsten Jahren noch weiter an Bedeutung gewinnt. Dies zeigt sich bereits daran, dass Crowdsourcingansätze mittlerweile vermehrt in Unternehmen oder im mobilen Umfeld eingesetzt werden. Die Modelle aus diesem Monograph, ermöglichen Plattformbetreibern eine Optimierung ihrer Systeme und Arbeitgebern eine Optimierung ihrer Arbeitsabläufe. Weiterhin helfen die gewonnenen Erkenntnisse das prinzipielle Verständnis von Crowdsourcingsystemen zu verbessern, was wiederum eine Grundvoraussetzung für das Erkennen von Anpassungsbedarf und Optimierungspotential ist. T3 - Würzburger Beiträge zur Leistungsbewertung Verteilter Systeme - 02/16 KW - Open Innovation KW - Leistungsbewertung KW - Optimiertung KW - Modellierung KW - Studie KW - Crowdsourcing KW - Quality of Experience KW - Modelling KW - Performance Evaluation KW - Optimization KW - Modellierung KW - Nutzerstudie KW - Crowdsourcing Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-140726 SN - 1432-8801 ER - TY - THES A1 - Rygielski, Piotr T1 - Flexible Modeling of Data Center Networks for Capacity Management T1 - Elastische Modellierung von Rechenzentren-Netzen zwecks Kapazitätsverwaltung N2 - Nowadays, data centers are becoming increasingly dynamic due to the common adoption of virtualization technologies. Systems can scale their capacity on demand by growing and shrinking their resources dynamically based on the current load. However, the complexity and performance of modern data centers is influenced not only by the software architecture, middleware, and computing resources, but also by network virtualization, network protocols, network services, and configuration. The field of network virtualization is not as mature as server virtualization and there are multiple competing approaches and technologies. Performance modeling and prediction techniques provide a powerful tool to analyze the performance of modern data centers. However, given the wide variety of network virtualization approaches, no common approach exists for modeling and evaluating the performance of virtualized networks. The performance community has proposed multiple formalisms and models for evaluating the performance of infrastructures based on different network virtualization technologies. The existing performance models can be divided into two main categories: coarse-grained analytical models and highly-detailed simulation models. Analytical performance models are normally defined at a high level of abstraction and thus they abstract many details of the real network and therefore have limited predictive power. On the other hand, simulation models are normally focused on a selected networking technology and take into account many specific performance influencing factors, resulting in detailed models that are tightly bound to a given technology, infrastructure setup, or to a given protocol stack. Existing models are inflexible, that means, they provide a single solution method without providing means for the user to influence the solution accuracy and solution overhead. To allow for flexibility in the performance prediction, the user is required to build multiple different performance models obtaining multiple performance predictions. Each performance prediction may then have different focus, different performance metrics, prediction accuracy, and solving time. The goal of this thesis is to develop a modeling approach that does not require the user to have experience in any of the applied performance modeling formalisms. The approach offers the flexibility in the modeling and analysis by balancing between: (a) generic character and low overhead of coarse-grained analytical models, and (b) the more detailed simulation models with higher prediction accuracy. The contributions of this thesis intersect with technologies and research areas, such as: software engineering, model-driven software development, domain-specific modeling, performance modeling and prediction, networking and data center networks, network virtualization, Software-Defined Networking (SDN), Network Function Virtualization (NFV). The main contributions of this thesis compose the Descartes Network Infrastructure (DNI) approach and include: • Novel modeling abstractions for virtualized network infrastructures. This includes two meta-models that define modeling languages for modeling data center network performance. The DNI and miniDNI meta-models provide means for representing network infrastructures at two different abstraction levels. Regardless of which variant of the DNI meta-model is used, the modeling language provides generic modeling elements allowing to describe the majority of existing and future network technologies, while at the same time abstracting factors that have low influence on the overall performance. I focus on SDN and NFV as examples of modern virtualization technologies. • Network deployment meta-model—an interface between DNI and other meta- models that allows to define mapping between DNI and other descriptive models. The integration with other domain-specific models allows capturing behaviors that are not reflected in the DNI model, for example, software bottlenecks, server virtualization, and middleware overheads. • Flexible model solving with model transformations. The transformations enable solving a DNI model by transforming it into a predictive model. The model transformations vary in size and complexity depending on the amount of data abstracted in the transformation process and provided to the solver. In this thesis, I contribute six transformations that transform DNI models into various predictive models based on the following modeling formalisms: (a) OMNeT++ simulation, (b) Queueing Petri Nets (QPNs), (c) Layered Queueing Networks (LQNs). For each of these formalisms, multiple predictive models are generated (e.g., models with different level of detail): (a) two for OMNeT++, (b) two for QPNs, (c) two for LQNs. Some predictive models can be solved using multiple alternative solvers resulting in up to ten different automated solving methods for a single DNI model. • A model extraction method that supports the modeler in the modeling process by automatically prefilling the DNI model with the network traffic data. The contributed traffic profile abstraction and optimization method provides a trade-off by balancing between the size and the level of detail of the extracted profiles. • A method for selecting feasible solving methods for a DNI model. The method proposes a set of solvers based on trade-off analysis characterizing each transformation with respect to various parameters such as its specific limitations, expected prediction accuracy, expected run-time, required resources in terms of CPU and memory consumption, and scalability. • An evaluation of the approach in the context of two realistic systems. I evaluate the approach with focus on such factors like: prediction of network capacity and interface throughput, applicability, flexibility in trading-off between prediction accuracy and solving time. Despite not focusing on the maximization of the prediction accuracy, I demonstrate that in the majority of cases, the prediction error is low—up to 20% for uncalibrated models and up to 10% for calibrated models depending on the solving technique. In summary, this thesis presents the first approach to flexible run-time performance prediction in data center networks, including network based on SDN. It provides ability to flexibly balance between performance prediction accuracy and solving overhead. The approach provides the following key benefits: • It is possible to predict the impact of changes in the data center network on the performance. The changes include: changes in network topology, hardware configuration, traffic load, and applications deployment. • DNI can successfully model and predict the performance of multiple different of network infrastructures including proactive SDN scenarios. • The prediction process is flexible, that is, it provides balance between the granularity of the predictive models and the solving time. The decreased prediction accuracy is usually rewarded with savings of the solving time and consumption of resources required for solving. • The users are enabled to conduct performance analysis using multiple different prediction methods without requiring the expertise and experience in each of the modeling formalisms. The components of the DNI approach can be also applied to scenarios that are not considered in this thesis. The approach is generalizable and applicable for the following examples: (a) networks outside of data centers may be analyzed with DNI as long as the background traffic profile is known; (b) uncalibrated DNI models may serve as a basis for design-time performance analysis; (c) the method for extracting and compacting of traffic profiles may be used for other, non-network workloads as well. N2 - Durch Virtualisierung werden moderne Rechenzentren immer dynamischer. Systeme sind in der Lage ihre Kapazität hoch und runter zu skalieren , um die ankommende Last zu bedienen. Die Komplexität der modernen Systeme in Rechenzentren wird nicht nur von der Softwarearchitektur, Middleware und Rechenressourcen sondern auch von der Netzwerkvirtualisierung beeinflusst. Netzwerkvirtualisierung ist noch nicht so ausgereift wie die Virtualisierung von Rechenressourcen und es existieren derzeit unterschiedliche Netzwerkvirtualisierungstechnologien. Man kann aber keine der Technologien als Standardvirtualisierung für Netzwerke bezeichnen. Die Auswahl von Ansätzen durch Performanzanalyse von Netzwerken stellt eine Herausforderung dar, weil existierende Ansätze sich mehrheitlich auf einzelne Virtualisierungstechniken fokussieren und es keinen universellen Ansatz für Performanzanalyse gibt, der alle Techniken in Betracht nimmt. Die Forschungsgemeinschaft bietet verschiedene Performanzmodelle und Formalismen für Evaluierung der Performanz von virtualisierten Netzwerken an. Die bekannten Ansätze können in zwei Gruppen aufgegliedert werden: Grobetaillierte analytische Modelle und feindetaillierte Simulationsmodelle. Die analytischen Performanzmodelle abstrahieren viele Details und liefern daher nur beschränkt nutzbare Performanzvorhersagen. Auf der anderen Seite fokussiert sich die Gruppe der simulationsbasierenden Modelle auf bestimmte Teile des Systems (z.B. Protokoll, Typ von Switches) und ignoriert dadurch das große Bild der Systemlandschaft. ... KW - Modellierung KW - Leistungsbewertung KW - Netzwerk KW - Meta-modeling KW - Model transformation KW - Performance analysis KW - Simulation Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-146235 ER - TY - THES A1 - Ali, Qasim T1 - Distributed Control of Cooperating Mini UAVs T1 - Verteilte Regelung von Kooperierenden Mini UAVs N2 - Mini Unmanned Aerial Vehicles (MUAVs) werden immer beliebtere Forschungsplattformen. Vor allem in den letzten Jahren ziehen sie aufgrund ihrer Erschwinglichkeit und ihrer Flexibilität, die es erlaubt sie in fast allen Lebensbereichen einzusetzen, beträchtliche Aufmerksamkeit auf sich. MUAVs haben offensichtliche Vorteile gegenüber bemannten Plattformen einschließlich ihrer viel geringeren Herstellungs- und Betriebskosten, Risikovermeidung für den menschlichen Piloten, der Möglichkeit sicher niedrig und langsam fliegen zu können, und Realisierung von Operationen, die über die inhärenten Grenzen des menschlichen Körpers hinausgehen. Der Fortschritt in der Micro Electro-Mechanical System (MEMS) Technologie, Avionik und Miniaturisierung von Sensoren spielte auch eine bedeutende Rolle bei der Entwicklung der MUAVs. Diese Fluggeräte reichen von einfachem Spielzeug aus dem Elektrofachhandel bis zu hoch entwickelten, kommerziellen Plattformen, die die Durchführung neuer Aufgaben wie Offshore-Windkraftwerk Inspektionen, 3D-Modellierung von Gebäuden usw. erlauben. MUAVs sind auch umweltfreundlich, da sie weniger Luftverschmutzung und Lärm verursachen. Unbemannt ist daher unübertroffen. Aktuelle Forschung konzentriert sich auf die Möglichkeit mehrere kostengünstige Fluggeräte zusammen fliegen zu lassen, während die erforderliche relative räumliche Trennungen beibehalten wird. Dies ermöglicht es effizient Aufgaben zu erfüllen im Vergleich zu einem einzigen sehr teuren Fluggerät. Durch die Redundanz entfällt auch das Risiko des Scheiterns der Mission durch den Verlust eines einzigen Fluggeräts. Wertvolle Aufgaben, die kooperative Fluggeräte ausführen können, sind beispielsweise gemeinsame Lasttransporte, Such- und Rettungsmissionen, mobile Kommunikationsrelais, Sprühen von Pestiziden und Wetterbeobachtung. Obwohl die Realisierung von Flügen mit mehreren, gekoppelten UAVs komplex ist, rechtfertigen dennoch offensichtliche Vorteile diese mühsame und aufwändige Entwicklungsarbeit. Verteilte Steuerung von kooperierenden Einheiten ist ein multidisziplinäres Thema, das es erfordert in diversifizierten Bereichen zu arbeiten. Dazu gehören MUAV Hardware und Software, Kommunikationstechniken für den notwendigen Informationsaustausch, Flugdynamik, Regelungstechnik, insbesondere für verteilte / kooperative Steuerungstechniken, Graphentheorie für Kommunikationstopologie Modellierung und Sensoren-Technologie wie Differential GPS (DGPS). Für eine Flotte von Agenten, die in unmittelbarer Nähe fliegen, ist eine genaue Positionsbestimmung zwingend nötig um Kollisionen zu vermeiden und die Anforderungen für die meisten Missionen wie Georeferenzierung zu erfüllen. Für solche Szenarien ist DGPS ein potenzieller Kandidat. Ein Teil der Forschung konzentriert sich daher auf die Entwicklung von DGPS Code. Eines der Module dieser Forschung war Hardware-Implementierung. Ein einfacher Test-Aufbau zur Realisierung von Basisfunktionalitäten für Formationsflug von Quadrocoptern wurde am Lehrstuhl für Informationstechnik in der Luft- und Raumfahrt der Universität Würzburg entwickelt. Diese Testumgebung kann nicht nur zur Prüfung und Validierung von Algorithmen für Formationsflug in realer Umgebung genutzt werden, sondern dient auch zur Ausbildung von Studenten. Ein bereits vorhandener Prüfstand für einzelne Quadrocopter wurde mit den notwendigen Kommunikation und verteilten Steuerung erweitert, um Algorithmen für Formationsflüge in drei Freiheitsgraden (Roll / Nick / Gier) zu testen. Diese Studie umfasst die Bereiche der Kommunikation, Steuerungstechnik und Embedded-System-Programmierung. Das Bluetooth-Protokoll wurde für die gegenseitige Kommunikation zwischen zwei Quadrocoptern verwendet. Eine einfache Technik der Proportional-Integral-Differential (PID) Steuerung in Kombination mit Kalman-Filter wurde genutzt. Die MATLAB Instrument Control Toolbox wurde für die Datenanzeige, die Analyse und das Plotten verwendet. Plots können in Echtzeit gezeichnet werden und empfangene Daten können auch in Form von Dateien zur späteren Verwendung und Analyse gespeichert werden. Das System wurde preisgünstig, unter Berücksichtigung eines einfachen Aufbaus, entwickelt. Der vorgeschlagene Aufbau ist sehr flexibel und kann einfach an veränderte Anforderungen angepasst werden. Als verteiltes Steuerungsschema wurde ein zentralisierter, heterogener Formationsflug Positionsregler formuliert, der einen „explicit model following Linear Quadratic Regulator Proportional Integral (LQR PI)“ Regler verwendet. Der Anführer Quadrocopter ist ein stabiles Referenzmodell mit der gewünschten Dynamik, deren Ausgang vollkommen von den beiden Wingmen Quadrocopter verfolgt wird. Der Anführer selbst wird durch Pole Placement Steuerverfahren mit den gewünschten Stabilitätseigenschaften gesteuert, während die beiden Anhänger durch robuste und adaptive LQR PI Steuerverfahren geregelt werden. Für diese Studie wird ein Vollzustandsvektor der Quadrocopter betrachtet während nur die resultierende Leistung verfolgt wird. Die ausgewählte 3D Formationsgeometrie und die statische Stabilität bleibt unter einer Vielzahl von möglichen Störungen erhalten. Bei Kommunikationsverlust zwischen Anführer und einem der Anhänger, leitet der andere Anhänger die Daten, die er vom Anführer erhalten hat, an den betroffenen Anhänger weiter. Die Stabilität des Regelsystems wurde unter Verwendung von Singulärwerten analysiert. Der vorgeschlagene Ansatz für eng gekoppelten Formationsflug von MUAVs wurde mit Hilfe von umfangreichen Simulationen unter MATLAB® / Simulink® validiert und ergab viel versprechende Ergebnisse. Auch die Tracking-Leistung wurde für zeitlich veränderliche Befehle gezeigt. Die vorgeschlagene Architektur ist skalierbar und kann problemlos erweitert werden. Dieser Ansatz ist für die Szenarien geeignet, die eng gekoppelte Formationsflug benötigen, wie kooperatives Greifen oder gemeinsame Lasttransporte. Ein innovatives Framework für die Teamarbeit von zwei Quadrocopter Flotten wurde entwickelt. Als Beispielmission wurde ein Szenario gewählt, bei dem ein Feuer auf einer größeren Fläche gelöscht werden muss. Jede Formation hat ihre angegebene Formationsgeometrie und eine zugewiesene Aufgabe. Die Lageregelung für die Quadrocopter in einer der Formationen wurde durch ein LQR PI-Regelschema, das auf „explicit model following“ basiert, umgesetzt. Die Quadrocopter in anderen Formation werden durch ein LQR PI Servomechanismus Regelsystem gesteuert. Die beiden Steuersysteme werden in Bezug auf ihre Leistung und ihren Steuerungsaufwand verglichen. Beide Formationen werden durch entsprechende Bodenstationen durch virtuelle Anführer kommandiert. Die Bodenstationen tauschen die befohlene Höheninformation aus, um gegenseitig eine sichere Trennung zwischen den Formationen zu gewährleisten. Die Quadrocopter können kommandierte Solltrajektorien folgen und über erwünschten Punkten für eine vorgegebene Zeit schweben. Bei Kommunikationsverlust zwischen Bodenstation und einem der Quadcopter leitet der benachbarte Quadrocopter die Befehlsdaten, die er von der Bodenstation erhalten hat, an die betroffene Einheit weiter. Das vorgeschlagene Framework wurde durch umfangreiche Simulationen mit Hilfe von MATLAB® / Simulink® validiert und liefert sehr brauchbare Ergebnisse. Cluster-Rekonfiguration von Agenten wird in unserer Arbeit ebenfalls gezeigt. Dies erlaubt es die Formationsgeometrie während des Fluges auf eine beliebige neue Form umzuschalten. Für die genannten Anwendungen sind Konsens Algorithmen nicht erwünscht, da wir von den Quadrocopter Flotten fordern, dass sie dem von uns gewählten Weg folgen, und nicht ihren Weg selbst wählen. Eine Reihe der praktischen Probleme von Kommunikationsnetzen kann in geeigneter Weise durch Graphen dargestellt werden. Dies erleichtert die Problemformulierung und den Analyseprozess. Kommunikationstopologien für Netzwerke mit einer großen Anzahl von Einheiten, wie zum Beispiel Schwärme von Luftfahrzeugen, können durch einen graphentheoretischen Ansatz untersucht werden. Um die Bildung solcher Probleme zu erleichtern, wird der Graph mit Hilfe der Laplace-Matrix dargestellt. Eigenwerte der Laplace-Matrix wurden in unserer Studie angemessene Berücksichtigung gegeben einen Einblick in die Graphen / Subgraphen Eigenschaften zu verleihen. Der gleiche wurden genutzt um die bekannte Euler Formel zu verallgemeinern und somit auf Graphen und Subgraphen anwendbar zu machen. Eine modifizierte Euler-Formel wird ebenfalls vorgestellt. Die Verwendung der Graphentheorie in verteilten / kooperativen Regelsystemen wird auch durch Simulationen gezeigt. Kooperative Kontrolschemas, die auf auf Konsens-Algorithmen beruhenden, wurden für die Lageregelung von Quadrocopter-Flotten, in denen kein expliziter Anführer existiert, verwendet. Konsens-Algorithmen wurden in Kombination mit verschiedenen Steuersystemen verwendet, was zur Autonomie von Quadrocoptern beiträgt. Die Steuersysteme, die für diesen Zweck verwendet werden, umfassen LQR PI-Regelung basierend auf „model following“ und LQR PI Servo-Mechanismus. Die Regelungen wurden unter verschiedenen Kommunikationstopologien untersucht, darunter voll verbundene ungerichtete Graphen, gerichteten Graphen und Zyklus-Topologie. Der Informationsfluss unter den Agenten in einem Cluster wurde durch Laplace-Matrix modelliert. Die Auswirkungen von Eingangs Verzerrungen auf Konsens Werte wurden ebenfalls untersucht. Quadrocopter können durch gegenseitigen Konsens Flugbahnen verfolgen und die Zielpunkte erreichen. Die vorgeschlagenen Regelungssysteme wurden unter verschiedenen Kommunikationstopologien in Matlab / Simulink-Umgebung durch umfangreiche Simulationen validiert. Die Ergebnisse bescheinigen die Wirksamkeit der präsentierten Schemata mit dem zusätzlichen Vorteil der Einfachheit der Umsetzung. Das vorgeschlagene Regelungssystem ist skalierbar für große Gruppen von MUAVs. Für Formationsflug sind die Anforderungen an die Positionsgenauigkeit sehr hoch. GPS-Signale allein bieten keine ausreichend hohe Positionsgenauigkeit um die Anforderung zu erfüllen; eine Technik für die genauere Positionsbestimmung ist daher erforderlich, beispielsweise DGPS. Es existiert eine Anzahl von öffentlichen Codes für die GPS-Positionsbestimmung und Baseline-Bestimmung im Offline-Modus. Es existiert jedoch keine Software für DGPS, die Korrekturfaktoren der Basisstationen nutzt, ohne auf Doppel Differenz Informationen zu vertrauen. Um dies zu erreichen, wurde eine Methodik in MATLAB-Umgebung für DGPS mit C/A Pseudoranges nur auf einzelne Frequenz L1 eingeführt es machbar für Empfänger kostengünstig GPS zu nutzen. Unsere Basisstation wird an einem genau vermessen Referenzpunkt aufgestellt. Pseudoranges und geometrische Abstände werden an der Basisstation verglichen, um die Korrekturfaktoren zu berechnen. Diese Korrekturfaktoren, für aller gültigen Satelliten während einer Epoche, werden dann an einen Rover übergeben. Das Rover berücksichtigt innerhalb der entsprechenden Epoche diese für seine eigene wahre Positionsbestimmung. Zur Validierung der vorgeschlagenen Algorithmen wird unsere Rover ebenfalls an einer vorbestimmten Stelle platziert. Der vorgeschlagene Code ist ein geeignetes und einfaches Werkzeug für die Nachbearbeitung von GPS-Rohdaten für eine genaue Positionsbestimmung eines Rover, z.B. eines UAV während der Post-Missionsanalyse. N2 - Mini Unmanned Aerial Vehicles (MUAVs) are becoming popular research platform and drawing considerable attention, particularly during the last decade due to their afford- ability and multi-dimensional applications in almost every walk of life. MUAVs have obvious advantages over manned platforms including their much lower manufacturing and operational costs, risk avoidance for human pilots, flying safely low and slow, and realization of operations that are beyond inherent human limitations. The advancement in Micro Electro-Mechanical System (MEMS) technology, Avionics and miniaturization of sensors also played a significant role in the evolution of MUAVs. These vehicles range from simple toys found at electronic supermarkets for entertainment purpose to highly sophisticated commercial platforms performing novel assignments like offshore wind power station inspection and 3D modelling of buildings etc. MUAVs are also more environment friendly as they cause less air pollution and noise. Unmanned is therefore unmatched. Recent research focuses on use of multiple inexpensive vehicles flying together, while maintaining required relative separations, to carry out the tasks efficiently compared to a single exorbitant vehicle. Redundancy also does away the risk of loss of a single whole-mission dependent vehicle. Some of the valuable applications in the domain of cooperative control include joint load transportation, search and rescue, mobile communication relays, pesticide spraying and weather monitoring etc. Though realization of multi-UAV coupled flight is complex, however obvious advantages justify the laborious work involved... KW - Micro Air Vehicle KW - Dezentrale Steuerung KW - Distributed Control KW - Cooperating UAVs KW - Formation Flight KW - Graph Theory KW - Consensus Control KW - Quadcopter KW - Mini Unmanned Aerial Vehicle Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-140686 ER -