TY - THES A1 - Handwerker, Michael T1 - Optimierung der Schneidleistung oszillierender Knochensägen T1 - Optimization of the chipping-performance of oscillating bone-saws N2 - Grundvoraussetzung einer erfolgreichen zementlosen Endoprothesenverankerungen ist eine hohe Primärstabilität durch formschlüssige Implantation. Nach erfolgreicher Primärfixation entscheidet über die Langzeitfunktion neben der Verschleißsituation insbesondere die funktionelle Spannungsverteilung an der Implantatoberfläche und im angrenzenden Knochen. Um optimale Bedingungen im Bereich der Grenzfläche zwischen Werkstoff und Biosystem zu schaffen, ist die präzise Präparation des Knochens entscheidend. Hierbei spielt neben dem Operateur und der Beschaffenheit des Knochens das verwendete System zur Zerspanung, bestehend aus der Säge und dem Sägeblatt, eine wichtige Rolle. Oszillierende Sägen werden neben der Gipsbehandlung ausschließlich bei der Knochenbearbeitung verwendet, wobei Fragestellungen zu Leistungs- und Qualitätssteigerung auftreten. Ansatzpunkt ist unter anderem das Sägeblatt. Die Modellvielfalt der auf dem Markt erhältlichen Sägeblätter erschwert die richtige Auswahl. Bei verschiedenen Modellen und deren unterschiedlichen Ausführungen ist es schwierig, Vergleiche anzustellen und Verbesserungen einzuführen. Die Charakteristik eines Sägeblattes ist durch die Schärfe beschrieben, um eine schnelle Zerspanung des Knochens zu gewährleisten, und durch die Steifigkeit des Blattes, um eine möglichst geringe Abweichung aus der Sägelinie sicherzustellen. Die Schärfe des Sägeblattes ist von der Zahnform und -geometrie abhängig. Die Steifigkeit ist abhängig von Material, Geometrie, Ausführung und Eigenschwingung/Eigenform des Blattes. Modifikationen an diesem System führen auch zu einer veränderten Eigenform des Sägeblattes. In der folgender Arbeit wurden verschiedene Ausführungen von Sägeblättern hinsichtlich ihrer Eigenform charakterisiert. In einem praktischen Versuch wurde versucht, den Einfluss des Sägeblattes auf die Vibration im Knochen von dem der Säge abzugrenzen. Ziel der Studie war daher die Berechnung der Eigenform der Sägeblätter, die experimentelle Überprüfung der Eigenform und die Abgrenzung des Einflusses von Sägeblatt und Säge auf die Vibration beim Sägevorgang. 9 verschiedene Sägeblätter unterschiedlicher Form und Geometrie wurden untersucht. Zunächst wurde eine Eigenformberechnung mittels der Finiten Elemente Methode durchgeführt. Anschließend erfolgte die Eigenformbestimmung im Shakerversuch. Um den Einfluss der Sägeblätter auf die Beschleunigung im Knochen von dem der Säge abzugrenzen erfolgte die Beschleunigungsmessung in einem Sägeprüfstand. Bezüglich des Eigenschwingungsverhalten konnten die Sägeblätter drei Gruppen zugeordnet werden. Als optimal erweist sich anhand der Eigenformberechnung und -bestimmung ein Sägeblatt mit 2 Löchern und einer Prägung von 136 bar. Hier zeigte sich eine Reduzierung der Maximal-Amplitude von 15,3 % und der Minimal-Amplitude von 23,5 %. N2 - A successful cementless bracing of endoprosthesis is provided by a high primary stabilisation by a form fit implantation. Beneath wear and tear the functional stress-allocation at the implant surface and the bone determines the long time function of the prosthesis after successful implantation. To provide ideal conditions between the material and biosystem an accurate preparation of the bone is arbitrative. Thus the chipping system, including the oscillating saw and the blade, becomes important besides the surgeon and the consistency of the bone. Medical oscillating-saws are primarily used in cast treatment and bone-preparation, where problems of performance enhancement and quality appear. Inter alia the saw blade is the basic approach. The diversity of different sawblades complicates the right choice of the sawblade. Different models and different designs aggravate the comparison and the introduction of innovations. The sawblade characteristics are sharpness and stiffness to provide a fast chipping prcess of the bone and a minimal deviance of the ideal cutting-line. The sharpness depends on the tooth geometry, the stiffness depends on the material, geometry, design and frequency response of the sawblade. Modifications of those parameters yield to a modification in the frequency response of the sawblade. The following study characterises different designed sawblades concerning their frequency response. Within a testing series the influence of the sawblade to the saw was demarcated due to the influence to the vibration in the bone. The Intention of this study was to calculate the frequency response and the experimental verification and the definition of the influence of the saw and the sawblade to the vibration during the chipping process. 9 different sawblades were tested. At first the frequency-response was calculated with the method of the finite elements, followed by the experimental determination of the frequency response with a shaker test. To demark the influence of the sawblade due to the influence to the vibration in the bone a velocity-measurement was done with a experimental sawing unit. The sawblades could be classified to 3 groups regarding to the frequency-response. Concerning calculation and experimental determination of the frequency-response the optimal sawblade is described with two holes and a stamp-pressure of 136 bar. Here a reduction of the Maximum-Amplitude of 15,3 % Minimum-Amplitude of 23,5 % is shown. KW - Oszillierende Knochensägen KW - Optimierung KW - Oscillating bone-saw KW - optimization Y1 - 2002 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-4018 ER - TY - THES A1 - Klug, Andreas T1 - Affine-Scaling Methods for Nonlinear Minimization Problems and Nonlinear Systems of Equations with Bound Constraints T1 - Affine Skalierungsverfahren für nichtlineare Optimierungsaufgaben und nichtlineare Gleichungssyteme mit Box-Restriktionen N2 - In this thesis affine-scaling-methods for two different types of mathematical problems are considered. The first type of problems are nonlinear optimization problems subject to bound constraints. A class of new affine-scaling Newton-type methods is introduced. The methods are shown to be locally quadratically convergent without assuming strict complementarity of the solution. The new methods differ from previous ones mainly in the choice of the scaling matrix. The second type of problems are semismooth system of equations with bound constraints. A new affine-scaling trust-region method for these problems is developed. The method is shown to have strong global and local convergence properties under suitable assumptions. Numerical results are presented for a number of problems arising from different areas. N2 - In dieser Arbeit werden affine Skalierungsverfahren fuer zwei verschiedene mathematische Problemstellungen untersucht. Der erste Problemtyp sind nichtlineare Optimierungsaufgaben mit Box-Restriktionen. Hierfuer wird eine neue Klasse von affinen Skalierungsverfahren eingefuehrt. Fuer diese Verfahren kann lokale quadratische Konvergenz ohne eine strikte Komplementaritaetsannahme bewiesen werde. Die neuen Methoden unterscheiden sich von den bisherigen durch die Wahl der Skalierungsmatrix. Probleme vom zweiten Typ sind semismoothe nichtlineare Gleichungssysteme mit Box-Restriktionen. Ein neues affine Skalierungs Trust-Region-Verfahren fuer diese Probleme wird vorgestellt. Das Verfahren besitzt starke globale und lokale Konvergenzeigenschaften unter ueblichen Voraussetzungen. Fuer eine Vielzahl von Problemstellungen werden numerische Ergebnisse beschrieben. KW - Skalierungsfunktion KW - Optimierung KW - Optimierung KW - Gleichungssysteme KW - Box-Restriktionen KW - Affine Skalierungsverfahren KW - optimization KW - nonlinear systems KW - bound constraints KW - affine scaling methods Y1 - 2006 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-18851 ER - TY - THES A1 - Pries, Jan Rastin T1 - Performance Optimization of Wireless Infrastructure and Mesh Networks T1 - Leistungsoptimierung von drahtlosen Infrastruktur und Mesh Netzen N2 - Future broadband wireless networks should be able to support not only best effort traffic but also real-time traffic with strict Quality of Service (QoS) constraints. In addition, their available resources are scare and limit the number of users. To facilitate QoS guarantees and increase the maximum number of concurrent users, wireless networks require careful planning and optimization. In this monograph, we studied three aspects of performance optimization in wireless networks: resource optimization in WLAN infrastructure networks, quality of experience control in wireless mesh networks, and planning and optimization of wireless mesh networks. An adaptive resource management system is required to effectively utilize the limited resources on the air interface and to guarantee QoS for real-time applications. Thereby, both WLAN infrastructure and WLAN mesh networks have to be considered. An a-priori setting of the access parameters is not meaningful due to the contention-based medium access and the high dynamics of the system. Thus, a management system is required which dynamically adjusts the channel access parameters based on the network load. While this is sufficient for wireless infrastructure networks, interferences on neighboring paths and self-interferences have to be considered for wireless mesh networks. In addition, a careful channel allocation and route assignment is needed. Due to the large parameter space, standard optimization techniques fail for optimizing large wireless mesh networks. In this monograph, we reveal that biology-inspired optimization techniques, namely genetic algorithms, are well-suitable for the planning and optimization of wireless mesh networks. Although genetic algorithms generally do not always find the optimal solution, we show that with a good parameter set for the genetic algorithm, the overall throughput of the wireless mesh network can be significantly improved while still sharing the resources fairly among the users. N2 - Die Anbindung an das Internet erfolgt zunehmend über drahtlose Netze. Deren Ressourcen sind allerdings limitiert, was die Anzahl der unterstützten Nutzer stark einschränkt. Zudem ist ein Trend dieser Nutzer weg von der Verwendung reiner Datendienste zu Diensten mit Echtzeitanforderungen wie Voice over IP (VoIP) zu erkennen, deren Dienstgüteanforderungen eingehalten werden müssen. Heutige drahtlose Zugangsnetze sind jedoch nur für den herkömmlichen Datenverkehr ausgelegt. Der IEEE 802.11 WLAN Standard unterscheidet zwar zwischen verschiedenen Dienstklassen, gibt aber keine Dienstgütegarantien. Um die Dienstgüte (Quality of Service, QoS), bzw. die vom Nutzer erfahrene Dienstgüte (Quality of Experience, QoE) zu garantieren, müssen die zukünftigen drahtlosen Netze daher sorgfältig geplant und optimiert werden. Um die limitierten Ressourcen auf der Luftschnittstelle effektiv zu nutzen und um Dienstgüteanforderungen für Echtzeitanwendungen einzuhalten, bedarf es eines adaptiven Ressourcenmanagements. Dabei sind sowohl drahtlose Infrastruktur, als auch drahtlose Mesh-Netze zu betrachten. Durch den randomisierten Medienzugriff und die hohe Dynamik im System ist eine a-priori Wahl der Zugangsparameter nicht sinnvoll. Vielmehr wird ein Managementsystem benötigt, das die Zugangsparameter dynamisch in Abhängigkeit der Last in einem Netz wählt. Während dies für drahtlose Infrastrukturnetze ausreicht, müssen in drahtlosen Mesh-Netzen zusätzlich noch Interferenzen von Nachbarpfaden und Eigeninterferenzen berücksichtigt werden. Desweiteren ist eine sorgfältige Planung der Kanalzuweisung und des Routings notwendig, um einerseits den Durchsatz in drahtlosen Mesh-Netzen zu maximieren und andererseits die Ressourcen fair zwischen den Stationen aufzuteilen. Da es dabei eine Vielzahl von Parametern zu berücksichtigen gilt, sind neue Optimierungsmethoden notwendig, die es ermöglichen, auch große Mesh-Netze in annehmbarer Zeit zu planen und zu optimieren. Diese Doktorarbeit arbeitet die folgenden drei Optimierungsmöglichkeiten für drahtlose Zugangsnetze aus: Optimierung der Zugangsparameter in drahtlosen Infrastrukturnetzen, Optimierung von drahtlosen Mesh-Netzen unter Berücksichtigung der QoE und Planung und Optimierung von drahtlosen Mesh-Netzen mit Berücksichtigung einer fairen Ressourcenallokation. Die Ergebnisse und Untersuchungen dieser Arbeit gliedern sich entsprechend dieser Optimierungsmöglichkeiten. T3 - Würzburger Beiträge zur Leistungsbewertung Verteilter Systeme - 01/10 KW - IEEE 802.11 KW - Leistungsbewertung KW - Optimierung KW - Dienstgüte KW - Netzplanung KW - Drahtloses lokales Netz KW - WLAN KW - Mesh Netze KW - Genetische Optimierung KW - WLAN KW - Optimization KW - Mesh Networks KW - Genetic Optimization Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-46097 ER - TY - THES A1 - Gutberlet, Marcel T1 - K-Raum-Symmetrie und dichtegewichtete Bildgebung: Optimierung der Magnet-Resonanz-Bildgebung hinsichtlich Signal-zu-Rauschverhältnis, Abbildungsqualität und Messzeit T1 - K-space symmetry and density weighted imaging:Optimization of magnetic resonance imaging with regard to signal-to-noise ratio, image quality and acquisition time N2 - Die Magnet-Resonanz (MR)-Bildgebung ist mit vielfältigen Anwendungen ein nicht mehr wegzudenkendes Instrument der klinischen Diagnostik geworden. Dennoch führt die stark limitierte Messzeit häufig zu einer Einschränkung der erzielbaren räumlichen Auflösung und Abdeckung, einer Beschränkung des Signal-zu-Rauschverhältnis (Signal-to-Noise Ratio) (SNR) sowie einer Signalkontamination durch benachbartes Gewebe. Bereits bestehende Methoden zur Reduktion der Akquisitionszeit sind die partielle Fourier (PF)-Bildgebung und die parallele Bildgebung (PPA). Diese unterscheiden sich zum einen im Schema zur Unterabtastung des k-Raums und zum anderen in der verwendeten Information zur Rekonstruktion der fehlenden k-Raum-Daten aufgrund der beschleunigten Akquisition. Während in der PPA die unterschiedlichen Sensitivitäten einer Mehrkanal-Empfangsspule zur Bildrekonstruktion verwendet werden, basiert die PF-Bildgebung auf der Annahme einer langsamen Variation der Bildphase. Im ersten Abschnitt dieser Arbeit wurde das Konzept der Virtuellen Spulendekonvolutions (Virtual Coil Deconvolution) (VIDE)-Technik vorgestellt, das das gleiche Schema der Unterabtastung des k-Raums wie die konventionelle PPA verwendet, aber anstelle der Spulensensitivität die Bildphase als zusätzliche Information zur Herstellung der fehlenden Daten der beschleunigten Bildgebung verwendet. Zur Minimierung der Rekonstruktionsfehler und der Rauschverstärkung in der VIDE-Technik wurde ein optimiertes Akquisitionsschema entwickelt. Die Kombination der PPA und PF-Bildgebung zur Beschleunigung der MR-Bildgebung wird durch das unterschiedliche Unterabtastschema erschwert. Wie Blaimer et al. in ihrer Arbeit gezeigt haben, kann das Prinzip der VIDE-Technik auf Mehrkanal-Spulen übertragen werden, sodass mit dieser Methode die PPA und die PF-Bildgebung optimal vereint werden können. Dadurch kann die Rauschverstärkung aufgrund der Spulengeometrie ohne zusätzliche Messungen deutlich reduziert werden. Obwohl die Abtastung des k-Raums in der MR-Bildgebung sehr variabel gestaltet werden kann, wird bis heute nahezu ausschließlich die regelmäßige k-Raum-Abtastung in der klinischen Bildgebung verwendet. Der Grund hierfür liegt, neben der schnellen Rekonstruktion und der einfachen Gestaltung der Variation des Bild-Kontrasts, in der Robustheit gegen Artefakte. Allerdings führt die regelmäßige k-Raum-Abtastung zu einer hohen Signalkontamination. Die Optimierung der SRF durch nachträgliches Filtern führt jedoch zu einem SNR-Verlust. Die dichtegewichtete (DW-) Bildgebung ermöglicht die Reduktion der Signal-Kontamination bei optimalem SNR, führt aber zur einer Reduktion des effektiven Gesichtsfelds (FOV) oder einer Erhöhung der Messzeit. Letzteres kann durch eine Kombination der PPA und DW-Bildgebung umgangen werden. Der zweite Teil dieser Arbeit befasste sich mit neuen Aufnahme- und Rekonstruktionsstrategien für die DW-Bildgebung, die eine Erhöhung des FOVs auch ohne Einsatz der PPA erlauben. Durch eine Limitierung der minimalen k-Raum-Abtastdichte konnte durch eine geringfügige Reduktion des SNR-Vorteils der DW-Bildgebung gegenüber der kartesischen, gefilterten Bildgebung eine deutliche Verringerung der Artefakte aufgrund der Unterabtastung in der DW-Bildgebung erreicht werden. Eine asymmetrische Abtastung kann unter der Voraussetzung einer homogenen Bildphase das Aliasing zusätzlich reduzieren. Durch die Rekonstruktion der DW-Daten mit der Virtuelle Spulendekonvolution für die effektive DW-Bildgebung (VIDED)-Bildgebung konnten die Artefakte aufgrund der Unterabtastung eliminiert werden. In der 3d-Bildgebung konnte durch Anwendung der modifizierten DW-Bildgebung eine Steigerung des FOVs in Schichtrichtung ohne Messzeitverlängerung erreicht werden. Die nicht-kartesische k-Raum-Abtastung führt im Fall einer Unterabtastung zu deutlich geringeren, inkohärenten Aliasingartefakten im Vergleich zur kartesischen Abtastung. Durch ein alternierendes DW-Abtastschema wurde eine an die in der MR-Mammografie verwendete Spulengeometrie angepasste k-Raum-Abtastung entwickelt, das bei gleicher Messzeit die räumliche Auflösung, das SNR und das FOV erhöht. Im dritten Teil dieser Arbeit wurde die Verallgemeinerung der DW-Bildgebung auf signalgewichtete Sequenzen, d.h. Sequenzen mit Magnetisierungspräparation (Inversion Recovery (IR), Saturation Recovery (SR)) sowie Sequenzen mit einer Relaxation während der Datenaufnahme (Multi-Gradienten-Echo, Multi-Spin-Echo) vorgestellt, was eine Steigerung der Bildqualität bei optimalem SNR erlaubt. Die Methode wurde auf die SR-Sequenz angewendet und deren praktischer Nutzen wurde in der Herz-Perfusions-Bildgebung gezeigt. Durch die Verwendung der in dieser Arbeit vorgestellten Technik konnte eine Reduktion der Kontamination bei einem SNR-Gewinn von 16% im Vergleich zur konventionellen, kartesischen Abtastung bei gleicher Messzeit erreicht werden. N2 - Magnetic resonance (MR) imaging has become a powerful tool in clinical diagnostics. However, long acquisition times used in MR imaging limit the available signal-to-noise Ratio (SNR), spatial resolution and coverage and cause signal contamination from neighboring tissue. Two established methods used to reduce the scan time of MR imaging are partial parallel acquisition (PPA) and partial fourier (PF) imaging. These methods use different schemes to undersample k-space and use a different kind of information to reconstruct the missing data resulting from the accelerated acquisition. While in PPA the varying sensitivities of a multi-channel receiver coil are used in the image reconstruction, PF imaging is based on the assumption of a smoothly varying image phase. In the first section of this work, the concept of virtual coil deconvolution (VIDE) imaging is proposed. This method uses the identical acquisition scheme for the accelerated measurement of k-space as PPA. However, in contrast to PPA, VIDE imaging uses the image phase instead of the varying coil sensitivities to recover the missing data of the accelerated acquisition. Reconstruction errors and noise amplification of VIDE imaging were minimized by an optimized acquisition scheme. VIDE imaging allows an acceleration of MR imaging by a factor of two. The different sampling schemes used in PF imaging and PPA are disadvantageous for the combination of PF imaging and PPA to increase the acceleration of MRI. Blaimer, Gutberlet et al. showed that the concept of VIDE imaging can be extended to multi-channel receiver coils. This allows an optimal combination of PF imaging and PPA. The noise amplification caused by the coil geometry could be significantly decreased without lengthening the scan time. Although k-space can be measured in a variety of sampling schemes, almost exclusively a Cartesian trajectory is used in clinical imaging. Reasons are the fast and simple reconstruction, the robustness against artifacts and the well-defined contrast of Cartesian imaging. However, the Cartesian acquisition results in increased signal contamination. Post-processing filtering allows reduction of contamination but at the expense of SNR. Density weighted (DW) imaging allows optimization of the spatial response function (SRF) at maximum SNR but results in a reduced effective field of view (FOV) or a lengthening of the scan time. This disadvantage of DW imaging can be eliminated by the application of PPA. In the second section new acquisition and reconstruction methods were presented allowing an increase of the effective FOV in DW imaging even without the use of PPA. The limitation of the minimum sampling density in DW imaging resulted in a significant reduction of aliasing. Moderate filtering to correct the k-space weighting resulted in low reduction of the SNR gain in comparison to Cartesian imaging with the identical scan time. On condition of a homogeneous image phase, the aliasing can be additionally reduced by using an asymmetric DW sampling. Using virtual coil deconvolution for effective density weighted (VIDED) imaging for reconstruction, aliasing could be eliminated. By applying the developed DW method, the spatial coverage of 3D imaging was increased even without a lengthening of the scan time. In case of undersampling k-space, DW acquisition results in significantly reduced incoherent aliasing in comparison to Cartesian imaging. Alternating DW sampling revealed an optimized sampling scheme for the coil geometry used in MR-mammography. In experiments the effective FOV or the spatial resolution in slice direction could be increased significantly. In the third section the extension of DW imaging to signal-weighted sequences, i.e. sequences with magnetization preparation (inversion recovery or saturation recovery) or with relaxation between the acquired echoes (multigradient echo, multi-spin echo), was presented. The method provided increased image quality at optimum SNR in comparison to Cartesian imaging. By applying the new technique to SR-sequences, its practical use could be shown in myocardial perfusion imaging. The method presented in this work allowed an optimization of the SRF with an SNR gain of 16% compared to conventional Cartesian sampling at identical scan time. KW - Kernspintomografie KW - Paralleler Prozess KW - Messprozess KW - Dichtegewichtete Bildgebung KW - Parallele Bildgebung KW - VIDE KW - VIDED KW - density weighted imaging KW - density weighting KW - parallel imaging KW - VIDE KW - VIDED KW - Optimierung KW - NMR-Bildgebung KW - NMR-Mammographie KW - Koronarperfusion Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-71834 ER - TY - THES A1 - Ehses, Philipp T1 - Development of new Acquisition Strategies for fast Parameter Quantification in Magnetic Resonance Imaging T1 - Entwicklung neuer Aufnahmeverfahren zur schnellen Parameterbestimmung in der Magnetresonanztomographie N2 - Magnetic resonance imaging (MRI) is a medical imaging method that involves no ionizing radiation and can be used non-invasively. Another important - if not the most important - reason for the widespread and increasing use of MRI in clinical practice is its interesting and highly flexible image contrast, especially of biological tissue. The main disadvantages of MRI, compared to other widespread imaging modalities like computed tomography (CT), are long measurement times and the directly resulting high costs. In the first part of this work, a new technique for accelerated MRI parameter mapping using a radial IR TrueFISP sequence is presented. IR TrueFISP is a very fast method for the simultaneous quantification of proton density, the longitudinal relaxation time T1, and the transverse relaxation time T2. Chapter 2 presents speed improvements to the original IR TrueFISP method. Using a radial view-sharing technique, it was possible to obtain a full set of relaxometry data in under 6 s per slice. Furthermore, chapter 3 presents the investigation and correction of two major sources of error of the IR TrueFISP method, namely magnetization transfer and imperfect slice profiles. In the second part of this work, a new MRI thermometry method is presented that can be used in MRI-safety investigations of medical implants, e.g. cardiac pacemakers and implantable cardioverter-defibrillators (ICDs). One of the major safety risks associated with MRI examinations of pacemaker and ICD patients is RF induced heating of the pacing electrodes. The design of MRI-safe (or MRI-conditional) pacing electrodes requires elaborate testing. In a first step, many different electrode shapes, electrode positions and sequence parameters are tested in a gel phantom with its geometry and conductivity matched to a human body. The resulting temperature increase is typically observed using temperature probes that are placed at various positions in the gel phantom. An alternative to this local thermometry approach is to use MRI for the temperature measurement. Chapter 5 describes a new approach for MRI thermometry that allows MRI thermometry during RF heating caused by the MRI sequence itself. Specifically, a proton resonance frequency (PRF) shift MRI thermometry method was combined with an MR heating sequence. The method was validated in a gel phantom, with a copper wire serving as a simple model for a medical implant. N2 - Die Magnetresonanztomographie (MRT) zeichnet sich als medizinisches Bildgebungsverfahren dadurch aus, dass sie ohne ionisierende Strahlung auskommt und nicht-invasiv einsetzbar ist. Ein weiterer wichtiger - wenn nicht der wichtigste - Grund für die weite und wachsende Verbreitung der MRT in der klinischen Praxis ist ihr interessantes und hoch-flexibles Kontrastverhalten, und damit die gute Darstellbarkeit biologischen Gewebes. Die Hauptnachteile der MRT sind die, verglichen mit z.B. Computer-Tomographie (CT), langen Messzeiten und die damit direkt verbundenen hohen Untersuchungskosten. Der erste Teil dieser Arbeit beschreibt Verbesserungen der IR TrueFISP Methode zur MR-Parameterbestimmung. IR TrueFISP ist eine schnelle Methode zur gleichzeitigen Quantifizierung der Protonendichte, der longitudinalen Relaxationszeit T1, sowie der transversalen Relaxationszeit T2. In Kapitel 2 dieser Arbeit wird eine Methode zur Beschleunigung der IR TrueFISP Quantifizierung vorgestellt, die es erlaubt einen kompletten Relaxometrie-Datensatz in unter 6 s pro Schicht aufzunehmen. Weiterhin werden in Kapitel 3 zwei allgemeine Fehlerquellen der IR TrueFISP Methode untersucht und Korrekturverfahren vorgestellt. Im zweiten Teil dieser Arbeit werden neuartige MR-Thermometrie Methoden vorgestellt, die sich besonders zur Untersuchung der MR-Sicherheit von medizinischen Implanten, insbesondere Herzschrittmachern und implantierbaren Kardioverter-Defibrillatoren (ICDs), eignen. Momentan sind in den allermeisten Fällen MRT Untersuchungen an Herzschrittmacher- und ICD-Patienten aufgrund der damit verbundenen Risiken kontraindiziert. Das dabei am schwierigste in den Griff zu bekommende und damit größte Risiko ist die mögliche Schädigung des Myokards, hervorgerufen durch die von den geschalteten HF-Feldern induzierten Ströme in den Schrittmacherelektroden. Um eine MR-sichere Elektrode und/oder sichere Messprotokole zu entwickeln ist es notwendig viele verschiedene Elektroden, Elektrodenpositionen und Messparameter-Einstellungen in einem körperähnlichen Gel-Phantom untersucht. Die bei der jeweiligen Messung auftretenden Erhitzungen werden dabei meist mit Hilfe fiberoptischer Thermometer an verschiedenen Positionen im Gel gemessen. Eine Alternative ist die Aufnahme einer globalen Karte der Temperaturerhöhung mit Hilfe der MR-Thermometrie. In dieser Arbeit wird eine Messmethode vorgestellt, die MR-Thermometrie mit HF induziertem Heizen kombiniert. Diese Methode wurde an einem Kupferdraht im Gelphantom validiert und mit fiberoptisch gemessenen Temperaturanstiegen verglichen. KW - Kernspintomografie KW - Messprozess KW - Relaxometrie KW - Thermometrie KW - nicht-kartesische Bildgebung KW - Relaxometry KW - Thermometry KW - non-Cartesian imaging KW - Optimierung KW - MRI KW - NMR-Tomographie Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-72531 ER - TY - THES A1 - Staehle, Barbara T1 - Modeling and Optimization Methods for Wireless Sensor and Mesh Networks T1 - Modellierungs- und Optimierungs-Methoden für drahtlose Sensor- und Mesh-Netze N2 - Im Internet der Zukunft werden Menschen nicht nur mit Menschen, sondern auch mit „Dingen“, und sogar „Dinge“ mit „Dingen“ kommunizieren. Zusätzlich wird das Bedürfnis steigen, immer und überall Zugang zum Internet zu haben. Folglich gewinnen drahtlose Sensornetze (WSNs) und drahtlose Mesh-Netze (WMNs) an Bedeutung, da sie Daten über die Umwelt ins Internet liefern, beziehungsweise einfache Internet-Zugangsmöglichkeiten schaffen. In den vier Teilen dieser Arbeit werden unterschiedliche Modellierungs- und Optimierungsmethoden für WSNs und WMNs vorgestellt. Der Energieverbrauch ist die wichtigste Metrik, wenn es darum geht die Kommunikation in einem WSN zu optimieren. Da sich in der Literatur sehr viele unterschiedliche Energiemodelle finden, untersucht der erste Teil der Arbeit welchen Einfluss unterschiedliche Energiemodelle auf die Optimierung von WSNs haben. Aufbauend auf diesen Überlegungen beschäftigt sich der zweite Teil der Arbeit mit drei Problemen, die überwunden werden müssen um eine standardisierte energieeffiziente Kommunikations-Lösung für WSNs basierend auf IEEE 802.15.4 und ZigBee zu realisieren. Für WMNs sind beide Probleme von geringem Interesse, die Leistung des Netzes jedoch umso mehr. Der dritte Teil der Arbeit führt daher Algorithmen für die Berechnung des Max-Min fairen (MMF) Netzwerk-Durchsatzes in WMNs mit mehreren Linkraten und Internet-Gateways ein. Der letzte Teil der Arbeit untersucht die Auswirkungen des LRA-Konzeptes. Dessen grundlegende Idee ist die folgende. Falls für einen Link eine niedrigere Datenrate als theoretisch möglich verwendet wird, sinkt zwar der Link-Durchsatz, jedoch ist unter Umständen eine größere Anzahl von gleichzeitigen Übertragungen möglich und der Gesamt-Durchsatz des Netzes kann sich erhöhen. Mithilfe einer analytischen LRA Formulierung und einer systematischen Studie kann gezeigt werden, dass eine netzwerkweite Zuordnung robusterer Datenraten als nötig zu einer Erhöhung des MMF Netzwerk-Durchsatzes führt. Desweitern kann gezeigt werden, dass sich LRA positiv auf die Leistungsfähigkeit eines IEEE 802.11 WMNs auswirkt und für die Optimierung des Netzes genutzt werden kann. N2 - In the future Internet, the people-centric communication paradigm will be complemented by a ubiquitous communication among people and devices, or even a communication between devices. This comes along with the need for a more flexible, cheap, widely available Internet access. Two types of wireless networks are considered most appropriate for attaining those goals. While wireless sensor networks (WSNs) enhance the Internet’s reach by providing data about the properties of the environment, wireless mesh networks (WMNs) extend the Internet access possibilities beyond the wired backbone. This monograph contains four chapters which present modeling and optimization methods for WSNs and WMNs. Minimizing energy consumptions is the most important goal of WSN optimization and the literature consequently provides countless energy consumption models. The first part of the monograph studies to what extent the used energy consumption model influences the outcome of analytical WSN optimizations. These considerations enable the second contribution, namely overcoming the problems on the way to a standardized energy-efficient WSN communication stack based on IEEE 802.15.4 and ZigBee. For WMNs both problems are of minor interest whereas the network performance has a higher weight. The third part of the work, therefore, presents algorithms for calculating the max-min fair network throughput in WMNs with multiple link rates and Internet gateway. The last contribution of the monograph investigates the impact of the LRA concept which proposes to systematically assign more robust link rates than actually necessary, thereby allowing to exploit the trade-off between spatial reuse and per-link throughput. A systematical study shows that a network-wide slightly more conservative LRA than necessary increases the throughput of a WMN where max-min fairness is guaranteed. It moreover turns out that LRA is suitable for increasing the performance of a contention-based WMN and is a valuable optimization tool. T3 - Würzburger Beiträge zur Leistungsbewertung Verteilter Systeme - 01/11 KW - Drahtloses Sensorsystem KW - Drahtloses vermaschtes Netz KW - Modellierung KW - Optimierung KW - IEEE 802.11 KW - IEEE 802.15.4 KW - Energieeffizienz KW - Fairness KW - Linkratenanpassung KW - Energy efficiency KW - Fairness KW - Link rate adaptation Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-64884 ER - TY - THES A1 - Curtef, Oana T1 - Rayleigh–quotient optimization on tensor products of Grassmannians T1 - Rayleigh–Quotient Optimierung auf Tensorprodukte von Graßmann-Mannigfaltigkeiten N2 - Applications in various research areas such as signal processing, quantum computing, and computer vision, can be described as constrained optimization tasks on certain subsets of tensor products of vector spaces. In this work, we make use of techniques from Riemannian geometry and analyze optimization tasks on subsets of so-called simple tensors which can be equipped with a differentiable structure. In particular, we introduce a generalized Rayleigh-quotient function on the tensor product of Grassmannians and on the tensor product of Lagrange- Grassmannians. Its optimization enables a unified approach to well-known tasks from different areas of numerical linear algebra, such as: best low-rank approximations of tensors (data compression), computing geometric measures of entanglement (quantum computing) and subspace clustering (image processing). We perform a thorough analysis on the critical points of the generalized Rayleigh-quotient and develop intrinsic numerical methods for its optimization. Explicitly, using the techniques from Riemannian optimization, we present two type of algorithms: a Newton-like and a conjugated gradient algorithm. Their performance is analysed and compared with established methods from the literature. N2 - Viele Fragestellungen aus den unterschiedlichen mathematischen Disziplinen, wie z.B. Signalverarbeitung, Quanten-Computing und Computer-Vision, können als Optimierungsprobleme auf Teilmengen von Tensorprodukten von Vektorräumen beschrieben werden. In dieser Arbeit verwenden wir Techniken aus der Riemannschen Geometrie, um Optimierungsprobleme für Mengen von sogenannten einfachen Tensoren, welche mit einer differenzierbaren Struktur ausgestattet werden können, zu untersuchen. Insbesondere führen wir eine verallgemeinerte Rayleigh-Quotienten-Funktion auf dem Tensorprodukt von Graßmann-Mannigfaltigkeiten bzw. Lagrange-Graßmann-Mannigfaltigkeiten ein. Dies führt zu einem einheitlichen Zugang zu bekannten Problemen aus verschiedenen Bereichen der numerischen linearen Algebra, wie z.B. die Niedrig–Rang–Approximation von Tensoren (Datenkompression), die Beschreibung geometrischer Maße für Quantenverschränkung (Quanten-Computing) und Clustering (Bildverarbeitung). Wir führen eine gründliche Analyse der kritischen Punkte des verallgemeinerten Rayleigh-Quotienten durch und entwickeln intrinsische numerische Methoden für dessen Optimierung. Wir stellen zwei Arten von Algorithmen vor, die wir mit Hilfe von Techniken aus der Riemannsche Optimierung entwickeln: eine mit Gemeinsamkeiten zum Newton-Verfahren und eine zum CG-Verfahren ähnliche. Wir analysieren die Performance der Algorithmen und vergleichen sie mit gängigen Methoden aus der Literatur. KW - Optimierung KW - Riemannsche Optimierung KW - Newtonverfahren KW - Verfahren der konjugierten Gradienten KW - Maße für Quantenverschränkung KW - Riemannian optimization KW - Grassmann Manifold KW - Newton method KW - Conjugate gradient method KW - tensor rank KW - subspace clustering KW - enatnglement measure KW - Riemannsche Geometrie KW - Grassmann-Mannigfaltigkeit KW - Konjugierte-Gradienten-Methode KW - Newton-Verfahren Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-83383 ER - TY - THES A1 - Hock, David Rogér T1 - Analysis and Optimization of Resilient Routing in Core Communication Networks T1 - Analyse und Optimierung von ausfallsicherem Routing in Kernkommunikationsnetzen N2 - Routing is one of the most important issues in any communication network. It defines on which path packets are transmitted from the source of a connection to the destination. It allows to control the distribution of flows between different locations in the network and thereby is a means to influence the load distribution or to reach certain constraints imposed by particular applications. As failures in communication networks appear regularly and cannot be completely avoided, routing is required to be resilient against such outages, i.e., routing still has to be able to forward packets on backup paths even if primary paths are not working any more. Throughout the years, various routing technologies have been introduced that are very different in their control structure, in their way of working, and in their ability to handle certain failure cases. Each of the different routing approaches opens up their own specific questions regarding configuration, optimization, and inclusion of resilience issues. This monograph investigates, with the example of three particular routing technologies, some concrete issues regarding the analysis and optimization of resilience. It thereby contributes to a better general, technology-independent understanding of these approaches and of their diverse potential for the use in future network architectures. The first considered routing type, is decentralized intra-domain routing based on administrative IP link costs and the shortest path principle. Typical examples are common today's intra-domain routing protocols OSPF and IS-IS. This type of routing includes automatic restoration abilities in case of failures what makes it in general very robust even in the case of severe network outages including several failed components. Furthermore, special IP-Fast Reroute mechanisms allow for a faster reaction on outages. For routing based on link costs, traffic engineering, e.g. the optimization of the maximum relative link load in the network, can be done indirectly by changing the administrative link costs to adequate values. The second considered routing type, MPLS-based routing, is based on the a priori configuration of primary and backup paths, so-called Label Switched Paths. The routing layout of MPLS paths offers more freedom compared to IP-based routing as it is not restricted by any shortest path constraints but any paths can be setup. However, this in general involves a higher configuration effort. Finally, in the third considered routing type, typically centralized routing using a Software Defined Networking (SDN) architecture, simple switches only forward packets according to routing decisions made by centralized controller units. SDN-based routing layouts offer the same freedom as for explicit paths configured using MPLS. In case of a failure, new rules can be setup by the controllers to continue the routing in the reduced topology. However, new resilience issues arise caused by the centralized architecture. If controllers are not reachable anymore, the forwarding rules in the single nodes cannot be adapted anymore. This might render a rerouting in case of connection problems in severe failure scenarios infeasible. N2 - Routing stellt eine der zentralen Aufgaben in Kommunikationsnetzen dar. Es bestimmt darüber, auf welchem Weg Verkehr von der Quelle zum Ziel transportiert wird. Durch geschicktes Routing kann dadurch eine Verteilung der Verkehrsflüsse zum Beispiel zur Lastverteilung erreicht werden. Da Fehler in Kommunikationsnetzen nicht vollständig verhindert werden können, muss Routing insbesondere ausfallsicher sein, d.h., im Falle von Fehlern im Netz muss das Routing weiterhin in der Lage sein, Pakete auf alternativen Pfaden zum Ziel zu transportieren. Es existieren verschiedene gängige Routingverfahren und Technologien, die sich hinsichtlich Ihrer Arbeitsweise, Ihrer Kontrollstrukturen und Ihrer Funktionalität in bestimmten Fehlerszenarien unterscheiden. Für diese verschiedenen Ansätze ergeben sich jeweils eigene Fragestellungen hinsichtlich der Konfiguration, der Optimierung und der Berücksichtigung von Ausfallsicherheit. Diese Doktorarbeit behandelt am Beispiel bestimmter Technologien einige konkrete Fragestellungen zur Analyse und Optimierung der Ausfallsicherheit. Sie liefert damit einen Beitrag zum besseren generellen Verständnis verschiedenartiger Routingansätze und deren unterschiedlichen Potentials für den Einsatz in zukünftigen Netzarchitekturen. Zuerst wird dezentrales Routing behandelt, basierend auf administrativen Linkgewichten und dem Prinzip der kürzesten Pfade, wie es beispielsweise in den Protokollen IS-IS und OSPF genutzt wird. Diese Routingverfahren beinhalteten automatische Rekonvergenz-Mechanismen um im Falle von Fehlern auf der verbleibenden Netzstruktur weiterhin einen Transport von Verkehr zu ermöglichen. Spezielle IP-Fast Reroute Mechanismen ermöglichen zudem eine schnelle Reaktion im Falle von Fehlern. Routing basierend auf Linkgewichten lässt sich nur indirekt durch die Wahl geeigneter Gewichte beeinflussen und optimieren. Die zweite in der Doktorarbeit behandelte Routingart ist MPLS-basiertes Routing, bei dem Labels für Pakete verwendet werden und Pakete anhand sogenannter vorkonfigurierter Label Switched Paths weitergeleitet werden. Diese Technologie bietet mehr Freiheiten bei der Wahl des Pfadlayouts, was aber wiederum im Allgemeinen einen erhöhten Konfigurationsaufwand mit sich bringt. Schließlich greift die Doktorarbeit auch das Routing in SDN Netzen auf. Dort erfolgt eine Trennung von Control Plane und Data Plane, so dass einzelne dedizierte Controller die Routingentscheidungen festlegen und ansonsten einfache Switches mit reduzierter Komplexität den Verkehr lediglich entsprechend der festgelegten Regeln weiterleiten. Dies ermöglicht die größte Freiheit bei der Konfiguration des Routing bringt aber wiederum neue Fragestellungen bedingt durch die zentralen Kontrolleinheiten mit sich. T3 - Würzburger Beiträge zur Leistungsbewertung Verteilter Systeme - 02/14 KW - Leistungsbewertung KW - Verteiltes System KW - Routing KW - Netzwerk KW - Optimization KW - Routing KW - Software Defined Networking KW - Optimierung Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-101681 SN - 1432-8801 ER - TY - THES A1 - Hartmann, Matthias T1 - Optimization and Design of Network Architectures for Future Internet Routing T1 - Optimierung und Design von Netzwerkarchitekturen für zukünftiges Internet Routing N2 - At the center of the Internet’s protocol stack stands the Internet Protocol (IP) as a common denominator that enables all communication. To make routing efficient, resilient, and scalable, several aspects must be considered. Care must be taken that traffic is well balanced to make efficient use of the existing network resources, both in failure free operation and in failure scenarios. Finding the optimal routing in a network is an NP-complete problem. Therefore, routing optimization is usually performed using heuristics. This dissertation shows that a routing optimized with one objective function is often not good when looking at other objective functions. It can even be worse than unoptimized routing with respect to that objective function. After looking at failure-free routing and traffic distribution in different failure scenarios, the analysis is extended to include the loop-free alternate (LFA) IP fast reroute mechanism. Different application scenarios of LFAs are examined and a special focus is set on the fact that LFAs usually cannot protect all traffic in a network even against single link failures. Thus, the routing optimization for LFAs is targeted on both link utilization and failure coverage. Finally, the pre-congestion notification mechanism PCN for network admission control and overload protection is analyzed and optimized. Different design options for implementing the protocol are compared, before algorithms are developed for the calculation and optimization of protocol parameters and PCN-based routing. The second part of the thesis tackles a routing problem that can only be resolved on a global scale. The scalability of the Internet is at risk since a major and intensifying growth of the interdomain routing tables has been observed. Several protocols and architectures are analyzed that can be used to make interdomain routing more scalable. The most promising approach is the locator/identifier (Loc/ID) split architecture which separates routing from host identification. This way, changes in connectivity, mobility of end hosts, or traffic-engineering activities are hidden from the routing in the core of the Internet and the routing tables can be kept much smaller. All of the currently proposed Loc/ID split approaches have their downsides. In particular, the fact that most architectures use the ID for routing outside the Internet’s core is a poor design, which inhibits many of the possible features of a new routing architecture. To better understand the problems and to provide a solution for a scalable routing design that implements a true Loc/ID split, the new GLI-Split protocol is developed in this thesis, which provides separation of global and local routing and uses an ID that is independent from any routing decisions. Besides GLI-Split, several other new routing architectures implementing Loc/ID split have been proposed for the Internet. Most of them assume that a mapping system is queried for EID-to-RLOC mappings by an intermediate node at the border of an edge network. When the mapping system is queried by an intermediate node, packets are already on their way towards their destination, and therefore, the mapping system must be fast, scalable, secure, resilient, and should be able to relay packets without locators to nodes that can forward them to the correct destination. The dissertation develops a classification for all proposed mapping system architectures and shows their similarities and differences. Finally, the fast two-level mapping system FIRMS is developed. It includes security and resilience features as well as a relay service for initial packets of a flow when intermediate nodes encounter a cache miss for the EID-to-RLOC mapping. N2 - Daten durch das Internet werden heutzutage mit dem paketbasierten Internet Protokoll (IP) übertragen. Dezentralisierte Routingprotokolle innerhalb der einzelnen Netze sorgen für eine zielgerichtete Weiterleitung der einzelnen Pakete. Diese verteilten Protokolle können auch im Fehlerfall weiterarbeiten, benötigen aber mitunter sehr lange bis Daten wieder zuverlässig am Ziel ankommen. Um im Betrieb des Internets eine hohe Leistungsfähigkeit auch bei auftretenden Problemfällen zu gewährleisten, müssen die eingesetzten Protokolle optimal eingestellt werden. Zielfunktionen zur Optimierung paketbasierter Link-State Intradomain-Routingprotokolle: Ein wichtiger Faktor für die Performanz eines Netzes ist die Auswahl der administrativen Linkkosten, anhand derer die Weiterleitungsentscheidungen im Netz getroffen werden. Mit Hilfe von Modellen für Verkehrsaufkommen und für die darunterliegende Netzarchitektur kann mit geeigneten Optimierungsmethoden das Netz für verschiedene Szenarien bestmöglich eingestellt werden. Von besonderer Wichtigkeit ist hierbei die Auswahl der betrachteten Szenarien und Zielfunktionen für die Optimierung. Eine Routingkonfiguration die optimal für ein bestimmtes Ziel ist, kann beliebig schlecht für ein anderes Ziel sein. Zum Beispiel kann eine Konfiguration, die eine besonders hohe Fehlerabdeckung erreicht, zu einer sehr schlechten Verkehrsverteilung führen. Im Rahmen der Dissertation werden heuristische Optimierungen des Routings für verschiedene Protokolle und Anwendungsszenarien durchgeführt. Darüber hinaus wird eine Pareto-Optimierung implementiert, die gleichzeitig mehrere Ziele optimieren kann. Die Analysen werden zuerst für normales Routing im fehlerfreien Fall und für Fehlerszenarien durchgeführt. Daraufhin werden verschiedenste Anwendungsfälle des IP Fast-Reroute Mechanismus Loop-Free Alternates (LFA) betrachtet. Hier wird insbesondere auf die Problematik eingegangen, dass LFAs in Abhängigkeit vom eingestellten Routing in bestimmten Fehlerfällen nicht angewendet werden können. Beim Optimieren des Routings muss hier zusätzlich zur Lastverteilung auch noch die Maximierung der Fehlerabdeckung berücksichtigt werden. Schließlich folgt eine Untersuchung und Optimierung des Pre-Congestion Notification (PCN) Verfahren zur Netzzugangskontrolle und Überlaststeuerung. Hier werden verschiedene Architekturvarianten des Protokolls miteinander verglichen und Algorithmen zur Berechnung und Optimierung wichtiger Parameter des Protokolls entwickelt. Das Wachstum der Routingtabellen im Kern des Internets droht zu einem Skalierbarkeitsproblem zu werden. Ein Grund für diese Problematik ist die duale Funktion der IP-Adresse. Sie wird einerseits zur Identifikation eines Geräts benutzt und andererseits zur Weiterleitung der Daten zu diesem Gerät. Neue Mechanismen und Protokolle die eine Trennung zwischen den beiden Funktionalitäten der IP-Adresse ermöglichen sind potentielle Kandidaten für eine bessere Skalierbarkeit des Internetroutings und damit für die Erhaltung der Funktionalität des Internets. Design eines neuen Namens- und Routingprotokolls für skalierbares Interdomain-Routing: In der Dissertation werden grundlegende Eigenschaften die zu diesem Problem führen erörtert. Daraufhin werden vorhandene Ansätze zur Verbesserung der Skalierbarkeit des Internetroutings analysiert, und es werden Gemeinsamkeiten wie auch Schwachstellen identifiziert. Auf dieser Basis wird dann ein Protokoll entwickelt, das eine strikte Trennung zwischen Identifikationsadressen (IDs) und routebaren Locator-Adressen einhält. Das GLI-Split genannte Protokoll geht dabei über den einfachen Split von vorhandenen Architekturvorschlägen hinaus und führt eine weitere Adresse ein die nur für das lokale Routing innerhalb eines Endkunden-Netzes benutzt wird. Hierdurch wird die ID eines Endgeräts vollständig unabhängig vom Routing. Durch das GLI-Split Protokoll kann das globale Routing wieder skalierbar gemacht werden. Zusätzlich bietet es viele Vorteile für Netze die das Protokoll einführen, was als Anreiz nötig ist um den Einsatz eines neuen Protokolls zu motivieren. Solch ein Identifier/Locator Split Protokoll benötigt ein Mappingsystem um die Identifier der Endgeräte in routebare Locator-Adressen zu übersetzen. Im letzten Teil der Dissertation wird eine mehrstufige Mapping-Architektur namens FIRMS entwickelt. Über ein hierarchisches Verteilungssystem, das die Adressvergabestruktur der fünf Regionalen Internet Registrare (RIRs) und der darunterliegenden Lokalen Internet Registrare (LIRs) abbildet, werden die erforderlichen Zuordnungstabellen so verteilt, dass jederzeit schnell auf die benötigten Informationen zugegriffen werden kann. Hierbei wird auch besonders auf Sicherheitsaspekte geachtet. T3 - Würzburger Beiträge zur Leistungsbewertung Verteilter Systeme - 02/15 KW - Netzwerk KW - Routing KW - Optimierung KW - Netzwerkmanagement KW - Optimization KW - Future Internet Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-114165 SN - 1432-8801 ER - TY - THES A1 - Feser, Florian T1 - Das Economic Lot Scheduling Problem bei überlappender Fertigung – Berücksichtigung von Transportvorgängen bei simultaner Losgrößen- und Reihenfolgeplanung mit zyklischen Auflagemustern T1 - Lot streaming in the Economic Lot Scheduling Problem – Considering sub-batch shipments for a simultaneous lot-sizing and scheduling problem with cyclic patterns N2 - Die Produktionsplanung und -steuerung (PPS) ist für nahezu jedes fertigende Unternehmen – sowohl im Hinblick auf Lagerbestands- und Kostenoptimierung, als auch für eine termintreue Lieferbereitschaft sowie die dadurch bedingte Kundenzufriedenheit – von zentraler Bedeutung und leistet somit einen erheblichen Beitrag für den Erhalt bzw. den Ausbau der Wettbewerbsfähigkeit. Dabei stellen die Interdependenzen der verschiedenen Teilbereiche innerhalb der PPS sowie zwischen den vor- und nachgelagerten Planungsaufgaben eine – im Zuge der zunehmend angestrebten Integration der gesamten Wertschöpfungskette – immer größer werdende Herausforderung dar. Diese Arbeit widmet sich mit der Planungsaufgabe der Ermittlung kostenminimaler Losgrößen bei simultaner Festlegung der optimalen Produktionsreihenfolge (Economic Lot Scheduling Problem (ELSP) oder Lossequenzproblem) einem zentralen Teilbereich der PPS. Diese Problemstellung ist insbesondere für den Fall einer Serien- und Sortenfertigung von Relevanz, bei dem mehrere, artverwandte Erzeugnisse im Wechsel auf einer Fertigungsanlage mit beschränkter Kapazität bearbeitet werden. Da die Bestimmung der Fertigungslosgrößen und der Produktionsreihenfolge bei der Ermittlung einer überschneidungsfreien Maschinenbelegung unmittelbar miteinander korrelieren, sollte deren Planung zur bestmöglichen Ausnutzung der Kapazitäten und Minimierung der Kosten nicht sukzessiv, sondern weitestgehend simultan erfolgen. Durch diesen Zusammenhang entsteht eine im Allgemeinen nicht triviale und lediglich mittels spezieller Heuristiken adäquat lösbare Planungsaufgabe. Letztere soll in dieser Arbeit um die Möglichkeit des Lossplittings im Sinne einer überlappenden Fertigung (Teil- oder Transportlosbildung) erweitert werden. Dieses logistische Konzept innerhalb der Produktion geht im Allgemeinen sowohl mit einer Verkürzung der Durchlaufzeiten, als auch mit einer Verringerung der Lagerbestände einher. Vor diesem Hintergrund findet eingangs zunächst eine allgemeine Einordung bzw. Abgrenzung der Aufgaben und des Umfelds der simultanen Losgrößen- und Reihenfolgeplanung im Rahmen der PPS statt. Anschließend werden die prinzipiell unterschiedlichen Ansätze zur Lösung des ELSP, mit ihren jeweils individuellen Annahmen und Eigenschaften dargestellt. Hierbei wird insbesondere auf die chronologische Entwicklung des Basisperiodenansatzes (BPA) in der Literatur eingegangen, da dieser im weiteren Verlauf der Arbeit eine zentrale Rolle einnimmt. Abschließend werden die Zusammenhänge zwischen den strukturell verschiedenen Lösungsansätzen zum ELSP nochmals zusammenfassend erörtert sowie eine Auswertung zu deren relativer Verbreitung in der wissenschaftlichen Literatur präsentiert. Nach der Erörterung zweier alternativer Lagerhaltungsmodelle zur Berücksichtigung von Lossplitting im Sinne einer überlappenden Fertigung bildet deren Integration in ausgewählte Lösungsansätze zum ELSP den Hauptteil der Arbeit. Hierfür wird zur Identifizierung und Eingrenzung potentiellen Forschungsbedarfs zunächst ein dedizierter Literaturüberblick gegeben, der eine Kategorisierung der bis dato im engeren Sinne relevanten Veröffentlichungen beinhaltet. Die daraus abgeleiteten Forschungsziele bzw. -fragen werden anschließend in fünf Punkten konkretisiert und beinhalten im Kern die Entwicklung von Modellen zur Berücksichtigung des Lossplittings im ELSP. Dabei wird sowohl das Common Cycle Modell (CCM), als auch der Ansatz variierender Losgrößen (TVL) einbezogen, jedoch steht vor allem eine Heuristik nach dem BPA im Fokus der Ausführungen. Des Weiteren werden bestehende Ansätze zur Integration der Teillosbildung im CCM aus einer neuen Perspektive betrachtet und bezüglich eines eventuellen Optimierungspotentials des Lösungswegs analysiert. Zu den neu entwickelten bzw. erweiterten Modellen werden für die Lösungsfindung Algorithmen formuliert und implementiert, die für beide Alternativen der Teillosbildung eine für alle Produkte einheitliche oder sortenindividuelle Transporthäufigkeit erlauben. Die Evaluation der entwickelten Modelle erfolgt sowohl anhand von ausgewählten Referenzdatensätzen aus der Literatur als auch auf Basis von insgesamt 4000 zufallsgenerierten Parameterkonstellationen. Dabei liegt der Schwerpunkt der Auswertungen auf einer Ergebnisanalyse hinsichtlich der Höhe des Kosteneinsparungspotentials, das durch die Teillosbildung im BPA zum einen gegenüber der „geschlossenen Fertigung“ und zum anderen im Vergleich zu bestehenden Ansätzen mit Lossplitting im CCM erzielbar ist. Die diesbezüglich gewonnenen Erkenntnisse sowie weitere, aus den Resultaten ableitbare Zusammenhänge werden umfassend diskutiert und interpretiert, so dass letztendlich eine Grundlage zur Ableitung von Handlungsempfehlungen gelegt wird. Die Arbeit schließt mit einem Resümee und der kritischen Würdigung der Forschungsziele bzw. -fragen sowie einem Ausblick auf weiteren Forschungsbedarf. N2 - This work studies the Economic Lot Scheduling Problem (ELSP) under consideration of transportation processes in terms of lot streaming. Thus, inventory models with equal- and unequal sized sub-batches with global or sort- respectively position-specific transportation frequencies are integrated in the following ELSP solution approaches: (1) the Common Cycle Model of Hanssmann, (2) the Basic Period Approach of Haessler and (3) the Time-Varying Lot-Sizes Approach of Dobson. The new developed mathematical models are then implemented and illustrated using reference data sets as well as 4000 randomly generated data sets. The results are analysed and evaluated with a main focus on the cost efficiency (1) against a closed batches process (where only complete lots are transferred to the next stage) and (2) between the three considered ELSP solution approaches with the different opportunities of sub-batches and transportation frequencies. KW - Losgröße KW - Optimierung KW - Lossequenzproblem KW - simultane Losgrößen- und Reihenfolgeplanung KW - überlappende Fertigung KW - Transportlosgröße KW - Teillose KW - Economic Lot Scheduling Problem KW - ELSP KW - batch shipments KW - sub-batches KW - lot streaming KW - Lossequenzenplanung KW - Reihenfolgeplanung Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-145268 ER -