TY - THES A1 - Handwerker, Michael T1 - Optimierung der Schneidleistung oszillierender Knochensägen T1 - Optimization of the chipping-performance of oscillating bone-saws N2 - Grundvoraussetzung einer erfolgreichen zementlosen Endoprothesenverankerungen ist eine hohe Primärstabilität durch formschlüssige Implantation. Nach erfolgreicher Primärfixation entscheidet über die Langzeitfunktion neben der Verschleißsituation insbesondere die funktionelle Spannungsverteilung an der Implantatoberfläche und im angrenzenden Knochen. Um optimale Bedingungen im Bereich der Grenzfläche zwischen Werkstoff und Biosystem zu schaffen, ist die präzise Präparation des Knochens entscheidend. Hierbei spielt neben dem Operateur und der Beschaffenheit des Knochens das verwendete System zur Zerspanung, bestehend aus der Säge und dem Sägeblatt, eine wichtige Rolle. Oszillierende Sägen werden neben der Gipsbehandlung ausschließlich bei der Knochenbearbeitung verwendet, wobei Fragestellungen zu Leistungs- und Qualitätssteigerung auftreten. Ansatzpunkt ist unter anderem das Sägeblatt. Die Modellvielfalt der auf dem Markt erhältlichen Sägeblätter erschwert die richtige Auswahl. Bei verschiedenen Modellen und deren unterschiedlichen Ausführungen ist es schwierig, Vergleiche anzustellen und Verbesserungen einzuführen. Die Charakteristik eines Sägeblattes ist durch die Schärfe beschrieben, um eine schnelle Zerspanung des Knochens zu gewährleisten, und durch die Steifigkeit des Blattes, um eine möglichst geringe Abweichung aus der Sägelinie sicherzustellen. Die Schärfe des Sägeblattes ist von der Zahnform und -geometrie abhängig. Die Steifigkeit ist abhängig von Material, Geometrie, Ausführung und Eigenschwingung/Eigenform des Blattes. Modifikationen an diesem System führen auch zu einer veränderten Eigenform des Sägeblattes. In der folgender Arbeit wurden verschiedene Ausführungen von Sägeblättern hinsichtlich ihrer Eigenform charakterisiert. In einem praktischen Versuch wurde versucht, den Einfluss des Sägeblattes auf die Vibration im Knochen von dem der Säge abzugrenzen. Ziel der Studie war daher die Berechnung der Eigenform der Sägeblätter, die experimentelle Überprüfung der Eigenform und die Abgrenzung des Einflusses von Sägeblatt und Säge auf die Vibration beim Sägevorgang. 9 verschiedene Sägeblätter unterschiedlicher Form und Geometrie wurden untersucht. Zunächst wurde eine Eigenformberechnung mittels der Finiten Elemente Methode durchgeführt. Anschließend erfolgte die Eigenformbestimmung im Shakerversuch. Um den Einfluss der Sägeblätter auf die Beschleunigung im Knochen von dem der Säge abzugrenzen erfolgte die Beschleunigungsmessung in einem Sägeprüfstand. Bezüglich des Eigenschwingungsverhalten konnten die Sägeblätter drei Gruppen zugeordnet werden. Als optimal erweist sich anhand der Eigenformberechnung und -bestimmung ein Sägeblatt mit 2 Löchern und einer Prägung von 136 bar. Hier zeigte sich eine Reduzierung der Maximal-Amplitude von 15,3 % und der Minimal-Amplitude von 23,5 %. N2 - A successful cementless bracing of endoprosthesis is provided by a high primary stabilisation by a form fit implantation. Beneath wear and tear the functional stress-allocation at the implant surface and the bone determines the long time function of the prosthesis after successful implantation. To provide ideal conditions between the material and biosystem an accurate preparation of the bone is arbitrative. Thus the chipping system, including the oscillating saw and the blade, becomes important besides the surgeon and the consistency of the bone. Medical oscillating-saws are primarily used in cast treatment and bone-preparation, where problems of performance enhancement and quality appear. Inter alia the saw blade is the basic approach. The diversity of different sawblades complicates the right choice of the sawblade. Different models and different designs aggravate the comparison and the introduction of innovations. The sawblade characteristics are sharpness and stiffness to provide a fast chipping prcess of the bone and a minimal deviance of the ideal cutting-line. The sharpness depends on the tooth geometry, the stiffness depends on the material, geometry, design and frequency response of the sawblade. Modifications of those parameters yield to a modification in the frequency response of the sawblade. The following study characterises different designed sawblades concerning their frequency response. Within a testing series the influence of the sawblade to the saw was demarcated due to the influence to the vibration in the bone. The Intention of this study was to calculate the frequency response and the experimental verification and the definition of the influence of the saw and the sawblade to the vibration during the chipping process. 9 different sawblades were tested. At first the frequency-response was calculated with the method of the finite elements, followed by the experimental determination of the frequency response with a shaker test. To demark the influence of the sawblade due to the influence to the vibration in the bone a velocity-measurement was done with a experimental sawing unit. The sawblades could be classified to 3 groups regarding to the frequency-response. Concerning calculation and experimental determination of the frequency-response the optimal sawblade is described with two holes and a stamp-pressure of 136 bar. Here a reduction of the Maximum-Amplitude of 15,3 % Minimum-Amplitude of 23,5 % is shown. KW - Oszillierende Knochensägen KW - Optimierung KW - Oscillating bone-saw KW - optimization Y1 - 2002 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-4018 ER - TY - THES A1 - Klug, Andreas T1 - Affine-Scaling Methods for Nonlinear Minimization Problems and Nonlinear Systems of Equations with Bound Constraints T1 - Affine Skalierungsverfahren für nichtlineare Optimierungsaufgaben und nichtlineare Gleichungssyteme mit Box-Restriktionen N2 - In this thesis affine-scaling-methods for two different types of mathematical problems are considered. The first type of problems are nonlinear optimization problems subject to bound constraints. A class of new affine-scaling Newton-type methods is introduced. The methods are shown to be locally quadratically convergent without assuming strict complementarity of the solution. The new methods differ from previous ones mainly in the choice of the scaling matrix. The second type of problems are semismooth system of equations with bound constraints. A new affine-scaling trust-region method for these problems is developed. The method is shown to have strong global and local convergence properties under suitable assumptions. Numerical results are presented for a number of problems arising from different areas. N2 - In dieser Arbeit werden affine Skalierungsverfahren fuer zwei verschiedene mathematische Problemstellungen untersucht. Der erste Problemtyp sind nichtlineare Optimierungsaufgaben mit Box-Restriktionen. Hierfuer wird eine neue Klasse von affinen Skalierungsverfahren eingefuehrt. Fuer diese Verfahren kann lokale quadratische Konvergenz ohne eine strikte Komplementaritaetsannahme bewiesen werde. Die neuen Methoden unterscheiden sich von den bisherigen durch die Wahl der Skalierungsmatrix. Probleme vom zweiten Typ sind semismoothe nichtlineare Gleichungssysteme mit Box-Restriktionen. Ein neues affine Skalierungs Trust-Region-Verfahren fuer diese Probleme wird vorgestellt. Das Verfahren besitzt starke globale und lokale Konvergenzeigenschaften unter ueblichen Voraussetzungen. Fuer eine Vielzahl von Problemstellungen werden numerische Ergebnisse beschrieben. KW - Skalierungsfunktion KW - Optimierung KW - Optimierung KW - Gleichungssysteme KW - Box-Restriktionen KW - Affine Skalierungsverfahren KW - optimization KW - nonlinear systems KW - bound constraints KW - affine scaling methods Y1 - 2006 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-18851 ER - TY - THES A1 - Pries, Jan Rastin T1 - Performance Optimization of Wireless Infrastructure and Mesh Networks T1 - Leistungsoptimierung von drahtlosen Infrastruktur und Mesh Netzen N2 - Future broadband wireless networks should be able to support not only best effort traffic but also real-time traffic with strict Quality of Service (QoS) constraints. In addition, their available resources are scare and limit the number of users. To facilitate QoS guarantees and increase the maximum number of concurrent users, wireless networks require careful planning and optimization. In this monograph, we studied three aspects of performance optimization in wireless networks: resource optimization in WLAN infrastructure networks, quality of experience control in wireless mesh networks, and planning and optimization of wireless mesh networks. An adaptive resource management system is required to effectively utilize the limited resources on the air interface and to guarantee QoS for real-time applications. Thereby, both WLAN infrastructure and WLAN mesh networks have to be considered. An a-priori setting of the access parameters is not meaningful due to the contention-based medium access and the high dynamics of the system. Thus, a management system is required which dynamically adjusts the channel access parameters based on the network load. While this is sufficient for wireless infrastructure networks, interferences on neighboring paths and self-interferences have to be considered for wireless mesh networks. In addition, a careful channel allocation and route assignment is needed. Due to the large parameter space, standard optimization techniques fail for optimizing large wireless mesh networks. In this monograph, we reveal that biology-inspired optimization techniques, namely genetic algorithms, are well-suitable for the planning and optimization of wireless mesh networks. Although genetic algorithms generally do not always find the optimal solution, we show that with a good parameter set for the genetic algorithm, the overall throughput of the wireless mesh network can be significantly improved while still sharing the resources fairly among the users. N2 - Die Anbindung an das Internet erfolgt zunehmend über drahtlose Netze. Deren Ressourcen sind allerdings limitiert, was die Anzahl der unterstützten Nutzer stark einschränkt. Zudem ist ein Trend dieser Nutzer weg von der Verwendung reiner Datendienste zu Diensten mit Echtzeitanforderungen wie Voice over IP (VoIP) zu erkennen, deren Dienstgüteanforderungen eingehalten werden müssen. Heutige drahtlose Zugangsnetze sind jedoch nur für den herkömmlichen Datenverkehr ausgelegt. Der IEEE 802.11 WLAN Standard unterscheidet zwar zwischen verschiedenen Dienstklassen, gibt aber keine Dienstgütegarantien. Um die Dienstgüte (Quality of Service, QoS), bzw. die vom Nutzer erfahrene Dienstgüte (Quality of Experience, QoE) zu garantieren, müssen die zukünftigen drahtlosen Netze daher sorgfältig geplant und optimiert werden. Um die limitierten Ressourcen auf der Luftschnittstelle effektiv zu nutzen und um Dienstgüteanforderungen für Echtzeitanwendungen einzuhalten, bedarf es eines adaptiven Ressourcenmanagements. Dabei sind sowohl drahtlose Infrastruktur, als auch drahtlose Mesh-Netze zu betrachten. Durch den randomisierten Medienzugriff und die hohe Dynamik im System ist eine a-priori Wahl der Zugangsparameter nicht sinnvoll. Vielmehr wird ein Managementsystem benötigt, das die Zugangsparameter dynamisch in Abhängigkeit der Last in einem Netz wählt. Während dies für drahtlose Infrastrukturnetze ausreicht, müssen in drahtlosen Mesh-Netzen zusätzlich noch Interferenzen von Nachbarpfaden und Eigeninterferenzen berücksichtigt werden. Desweiteren ist eine sorgfältige Planung der Kanalzuweisung und des Routings notwendig, um einerseits den Durchsatz in drahtlosen Mesh-Netzen zu maximieren und andererseits die Ressourcen fair zwischen den Stationen aufzuteilen. Da es dabei eine Vielzahl von Parametern zu berücksichtigen gilt, sind neue Optimierungsmethoden notwendig, die es ermöglichen, auch große Mesh-Netze in annehmbarer Zeit zu planen und zu optimieren. Diese Doktorarbeit arbeitet die folgenden drei Optimierungsmöglichkeiten für drahtlose Zugangsnetze aus: Optimierung der Zugangsparameter in drahtlosen Infrastrukturnetzen, Optimierung von drahtlosen Mesh-Netzen unter Berücksichtigung der QoE und Planung und Optimierung von drahtlosen Mesh-Netzen mit Berücksichtigung einer fairen Ressourcenallokation. Die Ergebnisse und Untersuchungen dieser Arbeit gliedern sich entsprechend dieser Optimierungsmöglichkeiten. T3 - Würzburger Beiträge zur Leistungsbewertung Verteilter Systeme - 01/10 KW - IEEE 802.11 KW - Leistungsbewertung KW - Optimierung KW - Dienstgüte KW - Netzplanung KW - Drahtloses lokales Netz KW - WLAN KW - Mesh Netze KW - Genetische Optimierung KW - WLAN KW - Optimization KW - Mesh Networks KW - Genetic Optimization Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-46097 ER - TY - THES A1 - Gutberlet, Marcel T1 - K-Raum-Symmetrie und dichtegewichtete Bildgebung: Optimierung der Magnet-Resonanz-Bildgebung hinsichtlich Signal-zu-Rauschverhältnis, Abbildungsqualität und Messzeit T1 - K-space symmetry and density weighted imaging:Optimization of magnetic resonance imaging with regard to signal-to-noise ratio, image quality and acquisition time N2 - Die Magnet-Resonanz (MR)-Bildgebung ist mit vielfältigen Anwendungen ein nicht mehr wegzudenkendes Instrument der klinischen Diagnostik geworden. Dennoch führt die stark limitierte Messzeit häufig zu einer Einschränkung der erzielbaren räumlichen Auflösung und Abdeckung, einer Beschränkung des Signal-zu-Rauschverhältnis (Signal-to-Noise Ratio) (SNR) sowie einer Signalkontamination durch benachbartes Gewebe. Bereits bestehende Methoden zur Reduktion der Akquisitionszeit sind die partielle Fourier (PF)-Bildgebung und die parallele Bildgebung (PPA). Diese unterscheiden sich zum einen im Schema zur Unterabtastung des k-Raums und zum anderen in der verwendeten Information zur Rekonstruktion der fehlenden k-Raum-Daten aufgrund der beschleunigten Akquisition. Während in der PPA die unterschiedlichen Sensitivitäten einer Mehrkanal-Empfangsspule zur Bildrekonstruktion verwendet werden, basiert die PF-Bildgebung auf der Annahme einer langsamen Variation der Bildphase. Im ersten Abschnitt dieser Arbeit wurde das Konzept der Virtuellen Spulendekonvolutions (Virtual Coil Deconvolution) (VIDE)-Technik vorgestellt, das das gleiche Schema der Unterabtastung des k-Raums wie die konventionelle PPA verwendet, aber anstelle der Spulensensitivität die Bildphase als zusätzliche Information zur Herstellung der fehlenden Daten der beschleunigten Bildgebung verwendet. Zur Minimierung der Rekonstruktionsfehler und der Rauschverstärkung in der VIDE-Technik wurde ein optimiertes Akquisitionsschema entwickelt. Die Kombination der PPA und PF-Bildgebung zur Beschleunigung der MR-Bildgebung wird durch das unterschiedliche Unterabtastschema erschwert. Wie Blaimer et al. in ihrer Arbeit gezeigt haben, kann das Prinzip der VIDE-Technik auf Mehrkanal-Spulen übertragen werden, sodass mit dieser Methode die PPA und die PF-Bildgebung optimal vereint werden können. Dadurch kann die Rauschverstärkung aufgrund der Spulengeometrie ohne zusätzliche Messungen deutlich reduziert werden. Obwohl die Abtastung des k-Raums in der MR-Bildgebung sehr variabel gestaltet werden kann, wird bis heute nahezu ausschließlich die regelmäßige k-Raum-Abtastung in der klinischen Bildgebung verwendet. Der Grund hierfür liegt, neben der schnellen Rekonstruktion und der einfachen Gestaltung der Variation des Bild-Kontrasts, in der Robustheit gegen Artefakte. Allerdings führt die regelmäßige k-Raum-Abtastung zu einer hohen Signalkontamination. Die Optimierung der SRF durch nachträgliches Filtern führt jedoch zu einem SNR-Verlust. Die dichtegewichtete (DW-) Bildgebung ermöglicht die Reduktion der Signal-Kontamination bei optimalem SNR, führt aber zur einer Reduktion des effektiven Gesichtsfelds (FOV) oder einer Erhöhung der Messzeit. Letzteres kann durch eine Kombination der PPA und DW-Bildgebung umgangen werden. Der zweite Teil dieser Arbeit befasste sich mit neuen Aufnahme- und Rekonstruktionsstrategien für die DW-Bildgebung, die eine Erhöhung des FOVs auch ohne Einsatz der PPA erlauben. Durch eine Limitierung der minimalen k-Raum-Abtastdichte konnte durch eine geringfügige Reduktion des SNR-Vorteils der DW-Bildgebung gegenüber der kartesischen, gefilterten Bildgebung eine deutliche Verringerung der Artefakte aufgrund der Unterabtastung in der DW-Bildgebung erreicht werden. Eine asymmetrische Abtastung kann unter der Voraussetzung einer homogenen Bildphase das Aliasing zusätzlich reduzieren. Durch die Rekonstruktion der DW-Daten mit der Virtuelle Spulendekonvolution für die effektive DW-Bildgebung (VIDED)-Bildgebung konnten die Artefakte aufgrund der Unterabtastung eliminiert werden. In der 3d-Bildgebung konnte durch Anwendung der modifizierten DW-Bildgebung eine Steigerung des FOVs in Schichtrichtung ohne Messzeitverlängerung erreicht werden. Die nicht-kartesische k-Raum-Abtastung führt im Fall einer Unterabtastung zu deutlich geringeren, inkohärenten Aliasingartefakten im Vergleich zur kartesischen Abtastung. Durch ein alternierendes DW-Abtastschema wurde eine an die in der MR-Mammografie verwendete Spulengeometrie angepasste k-Raum-Abtastung entwickelt, das bei gleicher Messzeit die räumliche Auflösung, das SNR und das FOV erhöht. Im dritten Teil dieser Arbeit wurde die Verallgemeinerung der DW-Bildgebung auf signalgewichtete Sequenzen, d.h. Sequenzen mit Magnetisierungspräparation (Inversion Recovery (IR), Saturation Recovery (SR)) sowie Sequenzen mit einer Relaxation während der Datenaufnahme (Multi-Gradienten-Echo, Multi-Spin-Echo) vorgestellt, was eine Steigerung der Bildqualität bei optimalem SNR erlaubt. Die Methode wurde auf die SR-Sequenz angewendet und deren praktischer Nutzen wurde in der Herz-Perfusions-Bildgebung gezeigt. Durch die Verwendung der in dieser Arbeit vorgestellten Technik konnte eine Reduktion der Kontamination bei einem SNR-Gewinn von 16% im Vergleich zur konventionellen, kartesischen Abtastung bei gleicher Messzeit erreicht werden. N2 - Magnetic resonance (MR) imaging has become a powerful tool in clinical diagnostics. However, long acquisition times used in MR imaging limit the available signal-to-noise Ratio (SNR), spatial resolution and coverage and cause signal contamination from neighboring tissue. Two established methods used to reduce the scan time of MR imaging are partial parallel acquisition (PPA) and partial fourier (PF) imaging. These methods use different schemes to undersample k-space and use a different kind of information to reconstruct the missing data resulting from the accelerated acquisition. While in PPA the varying sensitivities of a multi-channel receiver coil are used in the image reconstruction, PF imaging is based on the assumption of a smoothly varying image phase. In the first section of this work, the concept of virtual coil deconvolution (VIDE) imaging is proposed. This method uses the identical acquisition scheme for the accelerated measurement of k-space as PPA. However, in contrast to PPA, VIDE imaging uses the image phase instead of the varying coil sensitivities to recover the missing data of the accelerated acquisition. Reconstruction errors and noise amplification of VIDE imaging were minimized by an optimized acquisition scheme. VIDE imaging allows an acceleration of MR imaging by a factor of two. The different sampling schemes used in PF imaging and PPA are disadvantageous for the combination of PF imaging and PPA to increase the acceleration of MRI. Blaimer, Gutberlet et al. showed that the concept of VIDE imaging can be extended to multi-channel receiver coils. This allows an optimal combination of PF imaging and PPA. The noise amplification caused by the coil geometry could be significantly decreased without lengthening the scan time. Although k-space can be measured in a variety of sampling schemes, almost exclusively a Cartesian trajectory is used in clinical imaging. Reasons are the fast and simple reconstruction, the robustness against artifacts and the well-defined contrast of Cartesian imaging. However, the Cartesian acquisition results in increased signal contamination. Post-processing filtering allows reduction of contamination but at the expense of SNR. Density weighted (DW) imaging allows optimization of the spatial response function (SRF) at maximum SNR but results in a reduced effective field of view (FOV) or a lengthening of the scan time. This disadvantage of DW imaging can be eliminated by the application of PPA. In the second section new acquisition and reconstruction methods were presented allowing an increase of the effective FOV in DW imaging even without the use of PPA. The limitation of the minimum sampling density in DW imaging resulted in a significant reduction of aliasing. Moderate filtering to correct the k-space weighting resulted in low reduction of the SNR gain in comparison to Cartesian imaging with the identical scan time. On condition of a homogeneous image phase, the aliasing can be additionally reduced by using an asymmetric DW sampling. Using virtual coil deconvolution for effective density weighted (VIDED) imaging for reconstruction, aliasing could be eliminated. By applying the developed DW method, the spatial coverage of 3D imaging was increased even without a lengthening of the scan time. In case of undersampling k-space, DW acquisition results in significantly reduced incoherent aliasing in comparison to Cartesian imaging. Alternating DW sampling revealed an optimized sampling scheme for the coil geometry used in MR-mammography. In experiments the effective FOV or the spatial resolution in slice direction could be increased significantly. In the third section the extension of DW imaging to signal-weighted sequences, i.e. sequences with magnetization preparation (inversion recovery or saturation recovery) or with relaxation between the acquired echoes (multigradient echo, multi-spin echo), was presented. The method provided increased image quality at optimum SNR in comparison to Cartesian imaging. By applying the new technique to SR-sequences, its practical use could be shown in myocardial perfusion imaging. The method presented in this work allowed an optimization of the SRF with an SNR gain of 16% compared to conventional Cartesian sampling at identical scan time. KW - Kernspintomografie KW - Paralleler Prozess KW - Messprozess KW - Dichtegewichtete Bildgebung KW - Parallele Bildgebung KW - VIDE KW - VIDED KW - density weighted imaging KW - density weighting KW - parallel imaging KW - VIDE KW - VIDED KW - Optimierung KW - NMR-Bildgebung KW - NMR-Mammographie KW - Koronarperfusion Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-71834 ER - TY - THES A1 - Ehses, Philipp T1 - Development of new Acquisition Strategies for fast Parameter Quantification in Magnetic Resonance Imaging T1 - Entwicklung neuer Aufnahmeverfahren zur schnellen Parameterbestimmung in der Magnetresonanztomographie N2 - Magnetic resonance imaging (MRI) is a medical imaging method that involves no ionizing radiation and can be used non-invasively. Another important - if not the most important - reason for the widespread and increasing use of MRI in clinical practice is its interesting and highly flexible image contrast, especially of biological tissue. The main disadvantages of MRI, compared to other widespread imaging modalities like computed tomography (CT), are long measurement times and the directly resulting high costs. In the first part of this work, a new technique for accelerated MRI parameter mapping using a radial IR TrueFISP sequence is presented. IR TrueFISP is a very fast method for the simultaneous quantification of proton density, the longitudinal relaxation time T1, and the transverse relaxation time T2. Chapter 2 presents speed improvements to the original IR TrueFISP method. Using a radial view-sharing technique, it was possible to obtain a full set of relaxometry data in under 6 s per slice. Furthermore, chapter 3 presents the investigation and correction of two major sources of error of the IR TrueFISP method, namely magnetization transfer and imperfect slice profiles. In the second part of this work, a new MRI thermometry method is presented that can be used in MRI-safety investigations of medical implants, e.g. cardiac pacemakers and implantable cardioverter-defibrillators (ICDs). One of the major safety risks associated with MRI examinations of pacemaker and ICD patients is RF induced heating of the pacing electrodes. The design of MRI-safe (or MRI-conditional) pacing electrodes requires elaborate testing. In a first step, many different electrode shapes, electrode positions and sequence parameters are tested in a gel phantom with its geometry and conductivity matched to a human body. The resulting temperature increase is typically observed using temperature probes that are placed at various positions in the gel phantom. An alternative to this local thermometry approach is to use MRI for the temperature measurement. Chapter 5 describes a new approach for MRI thermometry that allows MRI thermometry during RF heating caused by the MRI sequence itself. Specifically, a proton resonance frequency (PRF) shift MRI thermometry method was combined with an MR heating sequence. The method was validated in a gel phantom, with a copper wire serving as a simple model for a medical implant. N2 - Die Magnetresonanztomographie (MRT) zeichnet sich als medizinisches Bildgebungsverfahren dadurch aus, dass sie ohne ionisierende Strahlung auskommt und nicht-invasiv einsetzbar ist. Ein weiterer wichtiger - wenn nicht der wichtigste - Grund für die weite und wachsende Verbreitung der MRT in der klinischen Praxis ist ihr interessantes und hoch-flexibles Kontrastverhalten, und damit die gute Darstellbarkeit biologischen Gewebes. Die Hauptnachteile der MRT sind die, verglichen mit z.B. Computer-Tomographie (CT), langen Messzeiten und die damit direkt verbundenen hohen Untersuchungskosten. Der erste Teil dieser Arbeit beschreibt Verbesserungen der IR TrueFISP Methode zur MR-Parameterbestimmung. IR TrueFISP ist eine schnelle Methode zur gleichzeitigen Quantifizierung der Protonendichte, der longitudinalen Relaxationszeit T1, sowie der transversalen Relaxationszeit T2. In Kapitel 2 dieser Arbeit wird eine Methode zur Beschleunigung der IR TrueFISP Quantifizierung vorgestellt, die es erlaubt einen kompletten Relaxometrie-Datensatz in unter 6 s pro Schicht aufzunehmen. Weiterhin werden in Kapitel 3 zwei allgemeine Fehlerquellen der IR TrueFISP Methode untersucht und Korrekturverfahren vorgestellt. Im zweiten Teil dieser Arbeit werden neuartige MR-Thermometrie Methoden vorgestellt, die sich besonders zur Untersuchung der MR-Sicherheit von medizinischen Implanten, insbesondere Herzschrittmachern und implantierbaren Kardioverter-Defibrillatoren (ICDs), eignen. Momentan sind in den allermeisten Fällen MRT Untersuchungen an Herzschrittmacher- und ICD-Patienten aufgrund der damit verbundenen Risiken kontraindiziert. Das dabei am schwierigste in den Griff zu bekommende und damit größte Risiko ist die mögliche Schädigung des Myokards, hervorgerufen durch die von den geschalteten HF-Feldern induzierten Ströme in den Schrittmacherelektroden. Um eine MR-sichere Elektrode und/oder sichere Messprotokole zu entwickeln ist es notwendig viele verschiedene Elektroden, Elektrodenpositionen und Messparameter-Einstellungen in einem körperähnlichen Gel-Phantom untersucht. Die bei der jeweiligen Messung auftretenden Erhitzungen werden dabei meist mit Hilfe fiberoptischer Thermometer an verschiedenen Positionen im Gel gemessen. Eine Alternative ist die Aufnahme einer globalen Karte der Temperaturerhöhung mit Hilfe der MR-Thermometrie. In dieser Arbeit wird eine Messmethode vorgestellt, die MR-Thermometrie mit HF induziertem Heizen kombiniert. Diese Methode wurde an einem Kupferdraht im Gelphantom validiert und mit fiberoptisch gemessenen Temperaturanstiegen verglichen. KW - Kernspintomografie KW - Messprozess KW - Relaxometrie KW - Thermometrie KW - nicht-kartesische Bildgebung KW - Relaxometry KW - Thermometry KW - non-Cartesian imaging KW - Optimierung KW - MRI KW - NMR-Tomographie Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-72531 ER - TY - THES A1 - Staehle, Barbara T1 - Modeling and Optimization Methods for Wireless Sensor and Mesh Networks T1 - Modellierungs- und Optimierungs-Methoden für drahtlose Sensor- und Mesh-Netze N2 - Im Internet der Zukunft werden Menschen nicht nur mit Menschen, sondern auch mit „Dingen“, und sogar „Dinge“ mit „Dingen“ kommunizieren. Zusätzlich wird das Bedürfnis steigen, immer und überall Zugang zum Internet zu haben. Folglich gewinnen drahtlose Sensornetze (WSNs) und drahtlose Mesh-Netze (WMNs) an Bedeutung, da sie Daten über die Umwelt ins Internet liefern, beziehungsweise einfache Internet-Zugangsmöglichkeiten schaffen. In den vier Teilen dieser Arbeit werden unterschiedliche Modellierungs- und Optimierungsmethoden für WSNs und WMNs vorgestellt. Der Energieverbrauch ist die wichtigste Metrik, wenn es darum geht die Kommunikation in einem WSN zu optimieren. Da sich in der Literatur sehr viele unterschiedliche Energiemodelle finden, untersucht der erste Teil der Arbeit welchen Einfluss unterschiedliche Energiemodelle auf die Optimierung von WSNs haben. Aufbauend auf diesen Überlegungen beschäftigt sich der zweite Teil der Arbeit mit drei Problemen, die überwunden werden müssen um eine standardisierte energieeffiziente Kommunikations-Lösung für WSNs basierend auf IEEE 802.15.4 und ZigBee zu realisieren. Für WMNs sind beide Probleme von geringem Interesse, die Leistung des Netzes jedoch umso mehr. Der dritte Teil der Arbeit führt daher Algorithmen für die Berechnung des Max-Min fairen (MMF) Netzwerk-Durchsatzes in WMNs mit mehreren Linkraten und Internet-Gateways ein. Der letzte Teil der Arbeit untersucht die Auswirkungen des LRA-Konzeptes. Dessen grundlegende Idee ist die folgende. Falls für einen Link eine niedrigere Datenrate als theoretisch möglich verwendet wird, sinkt zwar der Link-Durchsatz, jedoch ist unter Umständen eine größere Anzahl von gleichzeitigen Übertragungen möglich und der Gesamt-Durchsatz des Netzes kann sich erhöhen. Mithilfe einer analytischen LRA Formulierung und einer systematischen Studie kann gezeigt werden, dass eine netzwerkweite Zuordnung robusterer Datenraten als nötig zu einer Erhöhung des MMF Netzwerk-Durchsatzes führt. Desweitern kann gezeigt werden, dass sich LRA positiv auf die Leistungsfähigkeit eines IEEE 802.11 WMNs auswirkt und für die Optimierung des Netzes genutzt werden kann. N2 - In the future Internet, the people-centric communication paradigm will be complemented by a ubiquitous communication among people and devices, or even a communication between devices. This comes along with the need for a more flexible, cheap, widely available Internet access. Two types of wireless networks are considered most appropriate for attaining those goals. While wireless sensor networks (WSNs) enhance the Internet’s reach by providing data about the properties of the environment, wireless mesh networks (WMNs) extend the Internet access possibilities beyond the wired backbone. This monograph contains four chapters which present modeling and optimization methods for WSNs and WMNs. Minimizing energy consumptions is the most important goal of WSN optimization and the literature consequently provides countless energy consumption models. The first part of the monograph studies to what extent the used energy consumption model influences the outcome of analytical WSN optimizations. These considerations enable the second contribution, namely overcoming the problems on the way to a standardized energy-efficient WSN communication stack based on IEEE 802.15.4 and ZigBee. For WMNs both problems are of minor interest whereas the network performance has a higher weight. The third part of the work, therefore, presents algorithms for calculating the max-min fair network throughput in WMNs with multiple link rates and Internet gateway. The last contribution of the monograph investigates the impact of the LRA concept which proposes to systematically assign more robust link rates than actually necessary, thereby allowing to exploit the trade-off between spatial reuse and per-link throughput. A systematical study shows that a network-wide slightly more conservative LRA than necessary increases the throughput of a WMN where max-min fairness is guaranteed. It moreover turns out that LRA is suitable for increasing the performance of a contention-based WMN and is a valuable optimization tool. T3 - Würzburger Beiträge zur Leistungsbewertung Verteilter Systeme - 01/11 KW - Drahtloses Sensorsystem KW - Drahtloses vermaschtes Netz KW - Modellierung KW - Optimierung KW - IEEE 802.11 KW - IEEE 802.15.4 KW - Energieeffizienz KW - Fairness KW - Linkratenanpassung KW - Energy efficiency KW - Fairness KW - Link rate adaptation Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-64884 ER - TY - THES A1 - Curtef, Oana T1 - Rayleigh–quotient optimization on tensor products of Grassmannians T1 - Rayleigh–Quotient Optimierung auf Tensorprodukte von Graßmann-Mannigfaltigkeiten N2 - Applications in various research areas such as signal processing, quantum computing, and computer vision, can be described as constrained optimization tasks on certain subsets of tensor products of vector spaces. In this work, we make use of techniques from Riemannian geometry and analyze optimization tasks on subsets of so-called simple tensors which can be equipped with a differentiable structure. In particular, we introduce a generalized Rayleigh-quotient function on the tensor product of Grassmannians and on the tensor product of Lagrange- Grassmannians. Its optimization enables a unified approach to well-known tasks from different areas of numerical linear algebra, such as: best low-rank approximations of tensors (data compression), computing geometric measures of entanglement (quantum computing) and subspace clustering (image processing). We perform a thorough analysis on the critical points of the generalized Rayleigh-quotient and develop intrinsic numerical methods for its optimization. Explicitly, using the techniques from Riemannian optimization, we present two type of algorithms: a Newton-like and a conjugated gradient algorithm. Their performance is analysed and compared with established methods from the literature. N2 - Viele Fragestellungen aus den unterschiedlichen mathematischen Disziplinen, wie z.B. Signalverarbeitung, Quanten-Computing und Computer-Vision, können als Optimierungsprobleme auf Teilmengen von Tensorprodukten von Vektorräumen beschrieben werden. In dieser Arbeit verwenden wir Techniken aus der Riemannschen Geometrie, um Optimierungsprobleme für Mengen von sogenannten einfachen Tensoren, welche mit einer differenzierbaren Struktur ausgestattet werden können, zu untersuchen. Insbesondere führen wir eine verallgemeinerte Rayleigh-Quotienten-Funktion auf dem Tensorprodukt von Graßmann-Mannigfaltigkeiten bzw. Lagrange-Graßmann-Mannigfaltigkeiten ein. Dies führt zu einem einheitlichen Zugang zu bekannten Problemen aus verschiedenen Bereichen der numerischen linearen Algebra, wie z.B. die Niedrig–Rang–Approximation von Tensoren (Datenkompression), die Beschreibung geometrischer Maße für Quantenverschränkung (Quanten-Computing) und Clustering (Bildverarbeitung). Wir führen eine gründliche Analyse der kritischen Punkte des verallgemeinerten Rayleigh-Quotienten durch und entwickeln intrinsische numerische Methoden für dessen Optimierung. Wir stellen zwei Arten von Algorithmen vor, die wir mit Hilfe von Techniken aus der Riemannsche Optimierung entwickeln: eine mit Gemeinsamkeiten zum Newton-Verfahren und eine zum CG-Verfahren ähnliche. Wir analysieren die Performance der Algorithmen und vergleichen sie mit gängigen Methoden aus der Literatur. KW - Optimierung KW - Riemannsche Optimierung KW - Newtonverfahren KW - Verfahren der konjugierten Gradienten KW - Maße für Quantenverschränkung KW - Riemannian optimization KW - Grassmann Manifold KW - Newton method KW - Conjugate gradient method KW - tensor rank KW - subspace clustering KW - enatnglement measure KW - Riemannsche Geometrie KW - Grassmann-Mannigfaltigkeit KW - Konjugierte-Gradienten-Methode KW - Newton-Verfahren Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-83383 ER - TY - THES A1 - Hock, David Rogér T1 - Analysis and Optimization of Resilient Routing in Core Communication Networks T1 - Analyse und Optimierung von ausfallsicherem Routing in Kernkommunikationsnetzen N2 - Routing is one of the most important issues in any communication network. It defines on which path packets are transmitted from the source of a connection to the destination. It allows to control the distribution of flows between different locations in the network and thereby is a means to influence the load distribution or to reach certain constraints imposed by particular applications. As failures in communication networks appear regularly and cannot be completely avoided, routing is required to be resilient against such outages, i.e., routing still has to be able to forward packets on backup paths even if primary paths are not working any more. Throughout the years, various routing technologies have been introduced that are very different in their control structure, in their way of working, and in their ability to handle certain failure cases. Each of the different routing approaches opens up their own specific questions regarding configuration, optimization, and inclusion of resilience issues. This monograph investigates, with the example of three particular routing technologies, some concrete issues regarding the analysis and optimization of resilience. It thereby contributes to a better general, technology-independent understanding of these approaches and of their diverse potential for the use in future network architectures. The first considered routing type, is decentralized intra-domain routing based on administrative IP link costs and the shortest path principle. Typical examples are common today's intra-domain routing protocols OSPF and IS-IS. This type of routing includes automatic restoration abilities in case of failures what makes it in general very robust even in the case of severe network outages including several failed components. Furthermore, special IP-Fast Reroute mechanisms allow for a faster reaction on outages. For routing based on link costs, traffic engineering, e.g. the optimization of the maximum relative link load in the network, can be done indirectly by changing the administrative link costs to adequate values. The second considered routing type, MPLS-based routing, is based on the a priori configuration of primary and backup paths, so-called Label Switched Paths. The routing layout of MPLS paths offers more freedom compared to IP-based routing as it is not restricted by any shortest path constraints but any paths can be setup. However, this in general involves a higher configuration effort. Finally, in the third considered routing type, typically centralized routing using a Software Defined Networking (SDN) architecture, simple switches only forward packets according to routing decisions made by centralized controller units. SDN-based routing layouts offer the same freedom as for explicit paths configured using MPLS. In case of a failure, new rules can be setup by the controllers to continue the routing in the reduced topology. However, new resilience issues arise caused by the centralized architecture. If controllers are not reachable anymore, the forwarding rules in the single nodes cannot be adapted anymore. This might render a rerouting in case of connection problems in severe failure scenarios infeasible. N2 - Routing stellt eine der zentralen Aufgaben in Kommunikationsnetzen dar. Es bestimmt darüber, auf welchem Weg Verkehr von der Quelle zum Ziel transportiert wird. Durch geschicktes Routing kann dadurch eine Verteilung der Verkehrsflüsse zum Beispiel zur Lastverteilung erreicht werden. Da Fehler in Kommunikationsnetzen nicht vollständig verhindert werden können, muss Routing insbesondere ausfallsicher sein, d.h., im Falle von Fehlern im Netz muss das Routing weiterhin in der Lage sein, Pakete auf alternativen Pfaden zum Ziel zu transportieren. Es existieren verschiedene gängige Routingverfahren und Technologien, die sich hinsichtlich Ihrer Arbeitsweise, Ihrer Kontrollstrukturen und Ihrer Funktionalität in bestimmten Fehlerszenarien unterscheiden. Für diese verschiedenen Ansätze ergeben sich jeweils eigene Fragestellungen hinsichtlich der Konfiguration, der Optimierung und der Berücksichtigung von Ausfallsicherheit. Diese Doktorarbeit behandelt am Beispiel bestimmter Technologien einige konkrete Fragestellungen zur Analyse und Optimierung der Ausfallsicherheit. Sie liefert damit einen Beitrag zum besseren generellen Verständnis verschiedenartiger Routingansätze und deren unterschiedlichen Potentials für den Einsatz in zukünftigen Netzarchitekturen. Zuerst wird dezentrales Routing behandelt, basierend auf administrativen Linkgewichten und dem Prinzip der kürzesten Pfade, wie es beispielsweise in den Protokollen IS-IS und OSPF genutzt wird. Diese Routingverfahren beinhalteten automatische Rekonvergenz-Mechanismen um im Falle von Fehlern auf der verbleibenden Netzstruktur weiterhin einen Transport von Verkehr zu ermöglichen. Spezielle IP-Fast Reroute Mechanismen ermöglichen zudem eine schnelle Reaktion im Falle von Fehlern. Routing basierend auf Linkgewichten lässt sich nur indirekt durch die Wahl geeigneter Gewichte beeinflussen und optimieren. Die zweite in der Doktorarbeit behandelte Routingart ist MPLS-basiertes Routing, bei dem Labels für Pakete verwendet werden und Pakete anhand sogenannter vorkonfigurierter Label Switched Paths weitergeleitet werden. Diese Technologie bietet mehr Freiheiten bei der Wahl des Pfadlayouts, was aber wiederum im Allgemeinen einen erhöhten Konfigurationsaufwand mit sich bringt. Schließlich greift die Doktorarbeit auch das Routing in SDN Netzen auf. Dort erfolgt eine Trennung von Control Plane und Data Plane, so dass einzelne dedizierte Controller die Routingentscheidungen festlegen und ansonsten einfache Switches mit reduzierter Komplexität den Verkehr lediglich entsprechend der festgelegten Regeln weiterleiten. Dies ermöglicht die größte Freiheit bei der Konfiguration des Routing bringt aber wiederum neue Fragestellungen bedingt durch die zentralen Kontrolleinheiten mit sich. T3 - Würzburger Beiträge zur Leistungsbewertung Verteilter Systeme - 02/14 KW - Leistungsbewertung KW - Verteiltes System KW - Routing KW - Netzwerk KW - Optimization KW - Routing KW - Software Defined Networking KW - Optimierung Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-101681 SN - 1432-8801 ER - TY - THES A1 - Hartmann, Matthias T1 - Optimization and Design of Network Architectures for Future Internet Routing T1 - Optimierung und Design von Netzwerkarchitekturen für zukünftiges Internet Routing N2 - At the center of the Internet’s protocol stack stands the Internet Protocol (IP) as a common denominator that enables all communication. To make routing efficient, resilient, and scalable, several aspects must be considered. Care must be taken that traffic is well balanced to make efficient use of the existing network resources, both in failure free operation and in failure scenarios. Finding the optimal routing in a network is an NP-complete problem. Therefore, routing optimization is usually performed using heuristics. This dissertation shows that a routing optimized with one objective function is often not good when looking at other objective functions. It can even be worse than unoptimized routing with respect to that objective function. After looking at failure-free routing and traffic distribution in different failure scenarios, the analysis is extended to include the loop-free alternate (LFA) IP fast reroute mechanism. Different application scenarios of LFAs are examined and a special focus is set on the fact that LFAs usually cannot protect all traffic in a network even against single link failures. Thus, the routing optimization for LFAs is targeted on both link utilization and failure coverage. Finally, the pre-congestion notification mechanism PCN for network admission control and overload protection is analyzed and optimized. Different design options for implementing the protocol are compared, before algorithms are developed for the calculation and optimization of protocol parameters and PCN-based routing. The second part of the thesis tackles a routing problem that can only be resolved on a global scale. The scalability of the Internet is at risk since a major and intensifying growth of the interdomain routing tables has been observed. Several protocols and architectures are analyzed that can be used to make interdomain routing more scalable. The most promising approach is the locator/identifier (Loc/ID) split architecture which separates routing from host identification. This way, changes in connectivity, mobility of end hosts, or traffic-engineering activities are hidden from the routing in the core of the Internet and the routing tables can be kept much smaller. All of the currently proposed Loc/ID split approaches have their downsides. In particular, the fact that most architectures use the ID for routing outside the Internet’s core is a poor design, which inhibits many of the possible features of a new routing architecture. To better understand the problems and to provide a solution for a scalable routing design that implements a true Loc/ID split, the new GLI-Split protocol is developed in this thesis, which provides separation of global and local routing and uses an ID that is independent from any routing decisions. Besides GLI-Split, several other new routing architectures implementing Loc/ID split have been proposed for the Internet. Most of them assume that a mapping system is queried for EID-to-RLOC mappings by an intermediate node at the border of an edge network. When the mapping system is queried by an intermediate node, packets are already on their way towards their destination, and therefore, the mapping system must be fast, scalable, secure, resilient, and should be able to relay packets without locators to nodes that can forward them to the correct destination. The dissertation develops a classification for all proposed mapping system architectures and shows their similarities and differences. Finally, the fast two-level mapping system FIRMS is developed. It includes security and resilience features as well as a relay service for initial packets of a flow when intermediate nodes encounter a cache miss for the EID-to-RLOC mapping. N2 - Daten durch das Internet werden heutzutage mit dem paketbasierten Internet Protokoll (IP) übertragen. Dezentralisierte Routingprotokolle innerhalb der einzelnen Netze sorgen für eine zielgerichtete Weiterleitung der einzelnen Pakete. Diese verteilten Protokolle können auch im Fehlerfall weiterarbeiten, benötigen aber mitunter sehr lange bis Daten wieder zuverlässig am Ziel ankommen. Um im Betrieb des Internets eine hohe Leistungsfähigkeit auch bei auftretenden Problemfällen zu gewährleisten, müssen die eingesetzten Protokolle optimal eingestellt werden. Zielfunktionen zur Optimierung paketbasierter Link-State Intradomain-Routingprotokolle: Ein wichtiger Faktor für die Performanz eines Netzes ist die Auswahl der administrativen Linkkosten, anhand derer die Weiterleitungsentscheidungen im Netz getroffen werden. Mit Hilfe von Modellen für Verkehrsaufkommen und für die darunterliegende Netzarchitektur kann mit geeigneten Optimierungsmethoden das Netz für verschiedene Szenarien bestmöglich eingestellt werden. Von besonderer Wichtigkeit ist hierbei die Auswahl der betrachteten Szenarien und Zielfunktionen für die Optimierung. Eine Routingkonfiguration die optimal für ein bestimmtes Ziel ist, kann beliebig schlecht für ein anderes Ziel sein. Zum Beispiel kann eine Konfiguration, die eine besonders hohe Fehlerabdeckung erreicht, zu einer sehr schlechten Verkehrsverteilung führen. Im Rahmen der Dissertation werden heuristische Optimierungen des Routings für verschiedene Protokolle und Anwendungsszenarien durchgeführt. Darüber hinaus wird eine Pareto-Optimierung implementiert, die gleichzeitig mehrere Ziele optimieren kann. Die Analysen werden zuerst für normales Routing im fehlerfreien Fall und für Fehlerszenarien durchgeführt. Daraufhin werden verschiedenste Anwendungsfälle des IP Fast-Reroute Mechanismus Loop-Free Alternates (LFA) betrachtet. Hier wird insbesondere auf die Problematik eingegangen, dass LFAs in Abhängigkeit vom eingestellten Routing in bestimmten Fehlerfällen nicht angewendet werden können. Beim Optimieren des Routings muss hier zusätzlich zur Lastverteilung auch noch die Maximierung der Fehlerabdeckung berücksichtigt werden. Schließlich folgt eine Untersuchung und Optimierung des Pre-Congestion Notification (PCN) Verfahren zur Netzzugangskontrolle und Überlaststeuerung. Hier werden verschiedene Architekturvarianten des Protokolls miteinander verglichen und Algorithmen zur Berechnung und Optimierung wichtiger Parameter des Protokolls entwickelt. Das Wachstum der Routingtabellen im Kern des Internets droht zu einem Skalierbarkeitsproblem zu werden. Ein Grund für diese Problematik ist die duale Funktion der IP-Adresse. Sie wird einerseits zur Identifikation eines Geräts benutzt und andererseits zur Weiterleitung der Daten zu diesem Gerät. Neue Mechanismen und Protokolle die eine Trennung zwischen den beiden Funktionalitäten der IP-Adresse ermöglichen sind potentielle Kandidaten für eine bessere Skalierbarkeit des Internetroutings und damit für die Erhaltung der Funktionalität des Internets. Design eines neuen Namens- und Routingprotokolls für skalierbares Interdomain-Routing: In der Dissertation werden grundlegende Eigenschaften die zu diesem Problem führen erörtert. Daraufhin werden vorhandene Ansätze zur Verbesserung der Skalierbarkeit des Internetroutings analysiert, und es werden Gemeinsamkeiten wie auch Schwachstellen identifiziert. Auf dieser Basis wird dann ein Protokoll entwickelt, das eine strikte Trennung zwischen Identifikationsadressen (IDs) und routebaren Locator-Adressen einhält. Das GLI-Split genannte Protokoll geht dabei über den einfachen Split von vorhandenen Architekturvorschlägen hinaus und führt eine weitere Adresse ein die nur für das lokale Routing innerhalb eines Endkunden-Netzes benutzt wird. Hierdurch wird die ID eines Endgeräts vollständig unabhängig vom Routing. Durch das GLI-Split Protokoll kann das globale Routing wieder skalierbar gemacht werden. Zusätzlich bietet es viele Vorteile für Netze die das Protokoll einführen, was als Anreiz nötig ist um den Einsatz eines neuen Protokolls zu motivieren. Solch ein Identifier/Locator Split Protokoll benötigt ein Mappingsystem um die Identifier der Endgeräte in routebare Locator-Adressen zu übersetzen. Im letzten Teil der Dissertation wird eine mehrstufige Mapping-Architektur namens FIRMS entwickelt. Über ein hierarchisches Verteilungssystem, das die Adressvergabestruktur der fünf Regionalen Internet Registrare (RIRs) und der darunterliegenden Lokalen Internet Registrare (LIRs) abbildet, werden die erforderlichen Zuordnungstabellen so verteilt, dass jederzeit schnell auf die benötigten Informationen zugegriffen werden kann. Hierbei wird auch besonders auf Sicherheitsaspekte geachtet. T3 - Würzburger Beiträge zur Leistungsbewertung Verteilter Systeme - 02/15 KW - Netzwerk KW - Routing KW - Optimierung KW - Netzwerkmanagement KW - Optimization KW - Future Internet Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-114165 SN - 1432-8801 ER - TY - THES A1 - Feser, Florian T1 - Das Economic Lot Scheduling Problem bei überlappender Fertigung – Berücksichtigung von Transportvorgängen bei simultaner Losgrößen- und Reihenfolgeplanung mit zyklischen Auflagemustern T1 - Lot streaming in the Economic Lot Scheduling Problem – Considering sub-batch shipments for a simultaneous lot-sizing and scheduling problem with cyclic patterns N2 - Die Produktionsplanung und -steuerung (PPS) ist für nahezu jedes fertigende Unternehmen – sowohl im Hinblick auf Lagerbestands- und Kostenoptimierung, als auch für eine termintreue Lieferbereitschaft sowie die dadurch bedingte Kundenzufriedenheit – von zentraler Bedeutung und leistet somit einen erheblichen Beitrag für den Erhalt bzw. den Ausbau der Wettbewerbsfähigkeit. Dabei stellen die Interdependenzen der verschiedenen Teilbereiche innerhalb der PPS sowie zwischen den vor- und nachgelagerten Planungsaufgaben eine – im Zuge der zunehmend angestrebten Integration der gesamten Wertschöpfungskette – immer größer werdende Herausforderung dar. Diese Arbeit widmet sich mit der Planungsaufgabe der Ermittlung kostenminimaler Losgrößen bei simultaner Festlegung der optimalen Produktionsreihenfolge (Economic Lot Scheduling Problem (ELSP) oder Lossequenzproblem) einem zentralen Teilbereich der PPS. Diese Problemstellung ist insbesondere für den Fall einer Serien- und Sortenfertigung von Relevanz, bei dem mehrere, artverwandte Erzeugnisse im Wechsel auf einer Fertigungsanlage mit beschränkter Kapazität bearbeitet werden. Da die Bestimmung der Fertigungslosgrößen und der Produktionsreihenfolge bei der Ermittlung einer überschneidungsfreien Maschinenbelegung unmittelbar miteinander korrelieren, sollte deren Planung zur bestmöglichen Ausnutzung der Kapazitäten und Minimierung der Kosten nicht sukzessiv, sondern weitestgehend simultan erfolgen. Durch diesen Zusammenhang entsteht eine im Allgemeinen nicht triviale und lediglich mittels spezieller Heuristiken adäquat lösbare Planungsaufgabe. Letztere soll in dieser Arbeit um die Möglichkeit des Lossplittings im Sinne einer überlappenden Fertigung (Teil- oder Transportlosbildung) erweitert werden. Dieses logistische Konzept innerhalb der Produktion geht im Allgemeinen sowohl mit einer Verkürzung der Durchlaufzeiten, als auch mit einer Verringerung der Lagerbestände einher. Vor diesem Hintergrund findet eingangs zunächst eine allgemeine Einordung bzw. Abgrenzung der Aufgaben und des Umfelds der simultanen Losgrößen- und Reihenfolgeplanung im Rahmen der PPS statt. Anschließend werden die prinzipiell unterschiedlichen Ansätze zur Lösung des ELSP, mit ihren jeweils individuellen Annahmen und Eigenschaften dargestellt. Hierbei wird insbesondere auf die chronologische Entwicklung des Basisperiodenansatzes (BPA) in der Literatur eingegangen, da dieser im weiteren Verlauf der Arbeit eine zentrale Rolle einnimmt. Abschließend werden die Zusammenhänge zwischen den strukturell verschiedenen Lösungsansätzen zum ELSP nochmals zusammenfassend erörtert sowie eine Auswertung zu deren relativer Verbreitung in der wissenschaftlichen Literatur präsentiert. Nach der Erörterung zweier alternativer Lagerhaltungsmodelle zur Berücksichtigung von Lossplitting im Sinne einer überlappenden Fertigung bildet deren Integration in ausgewählte Lösungsansätze zum ELSP den Hauptteil der Arbeit. Hierfür wird zur Identifizierung und Eingrenzung potentiellen Forschungsbedarfs zunächst ein dedizierter Literaturüberblick gegeben, der eine Kategorisierung der bis dato im engeren Sinne relevanten Veröffentlichungen beinhaltet. Die daraus abgeleiteten Forschungsziele bzw. -fragen werden anschließend in fünf Punkten konkretisiert und beinhalten im Kern die Entwicklung von Modellen zur Berücksichtigung des Lossplittings im ELSP. Dabei wird sowohl das Common Cycle Modell (CCM), als auch der Ansatz variierender Losgrößen (TVL) einbezogen, jedoch steht vor allem eine Heuristik nach dem BPA im Fokus der Ausführungen. Des Weiteren werden bestehende Ansätze zur Integration der Teillosbildung im CCM aus einer neuen Perspektive betrachtet und bezüglich eines eventuellen Optimierungspotentials des Lösungswegs analysiert. Zu den neu entwickelten bzw. erweiterten Modellen werden für die Lösungsfindung Algorithmen formuliert und implementiert, die für beide Alternativen der Teillosbildung eine für alle Produkte einheitliche oder sortenindividuelle Transporthäufigkeit erlauben. Die Evaluation der entwickelten Modelle erfolgt sowohl anhand von ausgewählten Referenzdatensätzen aus der Literatur als auch auf Basis von insgesamt 4000 zufallsgenerierten Parameterkonstellationen. Dabei liegt der Schwerpunkt der Auswertungen auf einer Ergebnisanalyse hinsichtlich der Höhe des Kosteneinsparungspotentials, das durch die Teillosbildung im BPA zum einen gegenüber der „geschlossenen Fertigung“ und zum anderen im Vergleich zu bestehenden Ansätzen mit Lossplitting im CCM erzielbar ist. Die diesbezüglich gewonnenen Erkenntnisse sowie weitere, aus den Resultaten ableitbare Zusammenhänge werden umfassend diskutiert und interpretiert, so dass letztendlich eine Grundlage zur Ableitung von Handlungsempfehlungen gelegt wird. Die Arbeit schließt mit einem Resümee und der kritischen Würdigung der Forschungsziele bzw. -fragen sowie einem Ausblick auf weiteren Forschungsbedarf. N2 - This work studies the Economic Lot Scheduling Problem (ELSP) under consideration of transportation processes in terms of lot streaming. Thus, inventory models with equal- and unequal sized sub-batches with global or sort- respectively position-specific transportation frequencies are integrated in the following ELSP solution approaches: (1) the Common Cycle Model of Hanssmann, (2) the Basic Period Approach of Haessler and (3) the Time-Varying Lot-Sizes Approach of Dobson. The new developed mathematical models are then implemented and illustrated using reference data sets as well as 4000 randomly generated data sets. The results are analysed and evaluated with a main focus on the cost efficiency (1) against a closed batches process (where only complete lots are transferred to the next stage) and (2) between the three considered ELSP solution approaches with the different opportunities of sub-batches and transportation frequencies. KW - Losgröße KW - Optimierung KW - Lossequenzproblem KW - simultane Losgrößen- und Reihenfolgeplanung KW - überlappende Fertigung KW - Transportlosgröße KW - Teillose KW - Economic Lot Scheduling Problem KW - ELSP KW - batch shipments KW - sub-batches KW - lot streaming KW - Lossequenzenplanung KW - Reihenfolgeplanung Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-145268 ER - TY - THES A1 - Schwartz, Christian T1 - Modeling and Evaluation of Multi-Stakeholder Scenarios in Communication Networks T1 - Modellierung und Bewertung von Szenarien mit mehreren Akteuren in Kommunikationsnetzen N2 - Today's Internet is no longer only controlled by a single stakeholder, e.g. a standard body or a telecommunications company. Rather, the interests of a multitude of stakeholders, e.g. application developers, hardware vendors, cloud operators, and network operators, collide during the development and operation of applications in the Internet. Each of these stakeholders considers different KPIs to be important and attempts to optimise scenarios in its favour. This results in different, often opposing views and can cause problems for the complete network ecosystem. One example of such a scenario are Signalling Storms in the mobile Internet, with one of the largest occurring in Japan in 2012 due to the release and high popularity of a free instant messaging application. The network traffic generated by the application caused a high number of connections to the Internet being established and terminated. This resulted in a similarly high number of signalling messages in the mobile network, causing overload and a loss of service for 2.5 million users over 4 hours. While the network operator suffers the largest impact of this signalling overload, it does not control the application. Thus, the network operator can not change the application traffic characteristics to generate less network signalling traffic. The stakeholders who could prevent, or at least reduce, such behaviour, i.e. application developers or hardware vendors, have no direct benefit from modifying their products in such a way. This results in a clash of interests which negatively impacts the network performance for all participants. The goal of this monograph is to provide an overview over the complex structures of stakeholder relationships in today's Internet applications in mobile networks. To this end, we study different scenarios where such interests clash and suggest methods where tradeoffs can be optimised for all participants. If such an optimisation is not possible or attempts at it might lead to adverse effects, we discuss the reasons. N2 - Modellierung und Bewertung von Szenarien mit mehreren Akteuren in Kommunikationsnetzen T3 - Würzburger Beiträge zur Leistungsbewertung Verteilter Systeme - 01/16 KW - Leistungsbewertung KW - Telekommunikationsnetz KW - Multi-Stakeholder KW - Optimierung KW - Queueing theory KW - Cloud computing KW - Crowd sourcing KW - Internet Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-133887 SN - 1432-8801 ER - TY - THES A1 - Sprengel, Martin T1 - A Theoretical and Numerical Analysis of a Kohn-Sham Equation and Related Control Problems T1 - Eine theoretische und numerische Untersuchung einer Kohn-Sham-Gleichung und verwandter Steuerungsprobleme N2 - In this work, multi-particle quantum optimal control problems are studied in the framework of time-dependent density functional theory (TDDFT). Quantum control problems are of great importance in both fundamental research and application of atomic and molecular systems. Typical applications are laser induced chemical reactions, nuclear magnetic resonance experiments, and quantum computing. Theoretically, the problem of how to describe a non-relativistic system of multiple particles is solved by the Schrödinger equation (SE). However, due to the exponential increase in numerical complexity with the number of particles, it is impossible to directly solve the Schrödinger equation for large systems of interest. An efficient and successful approach to overcome this difficulty is the framework of TDDFT and the use of the time-dependent Kohn-Sham (TDKS) equations therein. This is done by replacing the multi-particle SE with a set of nonlinear single-particle Schrödinger equations that are coupled through an additional potential. Despite the fact that TDDFT is widely used for physical and quantum chemical calculation and software packages for its use are readily available, its mathematical foundation is still under active development and even fundamental issues remain unproven today. The main purpose of this thesis is to provide a consistent and rigorous setting for the TDKS equations and of the related optimal control problems. In the first part of the thesis, the framework of density functional theory (DFT) and TDDFT are introduced. This includes a detailed presentation of the different functional sets forming DFT. Furthermore, the known equivalence of the TDKS system to the original SE problem is further discussed. To implement the TDDFT framework for multi-particle computations, the TDKS equations provide one of the most successful approaches nowadays. However, only few mathematical results concerning these equations are available and these results do not cover all issues that arise in the formulation of optimal control problems governed by the TDKS model. It is the purpose of the second part of this thesis to address these issues such as higher regularity of TDKS solutions and the case of weaker requirements on external (control) potentials that are instrumental for the formulation of well-posed TDKS control problems. For this purpose, in this work, existence and uniqueness of TDKS solutions are investigated in the Galerkin framework and using energy estimates for the nonlinear TDKS equations. In the third part of this thesis, optimal control problems governed by the TDKS model are formulated and investigated. For this purpose, relevant cost functionals that model the purpose of the control are discussed. Henceforth, TDKS control problems result from the requirement of optimising the given cost functionals subject to the differential constraint given by the TDKS equations. The analysis of these problems is novel and represents one of the main contributions of the present thesis. In particular, existence of minimizers is proved and their characterization by TDKS optimality systems is discussed in detail. To this end, Fréchet differentiability of the TDKS model and of the cost functionals is addressed considering \(H^1\) cost of the control. This part is concluded by deriving the reduced gradient in the \(L^2\) and \(H^1\) inner product. While the \(L^2\) optimization is widespread in the literature, the choice of the \(H^1\) gradient is motivated in this work by theoretical consideration and by resulting numerical advantages. The last part of the thesis is devoted to the numerical approximation of the TDKS optimality systems and to their solution by gradient-based optimization techniques. For the former purpose, Strang time-splitting pseudo-spectral schemes are discussed including a review of some recent theoretical estimates for these schemes and a numerical validation of these estimates. For the latter purpose, nonlinear (projected) conjugate gradient methods are implemented and are used to validate the theoretical analysis of this thesis with results of numerical experiments with different cost functional settings. N2 - In dieser Arbeit werden quantenmechanische Vielteilchen-Optimalsteuerungsprobleme im Rahmen der zeitabhängigen Dichtefunktionaltheorie (TDDFT) untersucht. Quantenmechanische Optimalsteuerungsprobleme sind sowohl in der Grundlagenforschung atomarer und molekularer Systeme als auch in entsprechenden Anwendungen von großer Bedeutung. Typische Anwendungen sind laserinduzierte chemische Reaktionen, Kernspinresonanzexperimente und Quantencomputer. Theoretisch ist das Problem einer nicht-relativistischen Beschreibung von Vielteilchensystemen mit der Schrödingergleichung (SG) gelöst. Tatsächlich ist es aber wegen des exponentiellen Anstiegs der numerischen Komplexität mit der Teilchenzahl unmöglich, die Schrödingergleichung für große Systeme von Interesse direkt zu lösen. Ein effizienter und erfolgreicher Ansatz diese Schwierigkeit zu überwinden ist die TDDFT und die Verwendung der zeitabhängigen Kohn-Sham-Gleichungen (TDKS) im Rahmen der TDDFT. Diese ersetzen die Vielteichlchen-SG durch ein System nichtlinearer Einteilchen-SGn, die mittels eines zusätzlichen Potentials gekoppelt sind. Obwohl die TDDFT für physikalische und quantenchemische Rechungen weit verbreitet ist und Softwarepakete zur direkten Verwendung zur Verfügung stehen, sind die mathematischen Grundlagen der TDDFT noch in der Entwicklung und grundlegende Vermutungen sind noch immer unbewiesen. Das Hauptanliegen der vorliegenden Arbeit ist es, einen konsistenten und mathematisch präzisen Rahmen für die TDKS-Gleichungen und verwandte Optimalsteuerungsprobleme zu liefern. Im ersten Teil der Arbeit wird die Dichtefunktionaltheorie (DFT) und die TDDFT eingeführt. Diese Einführung enthält eine detaillierte Darstellung der für die DFT relevanten Funktionenmengen. Außerdem wird die bereits bekannte Äquivalenz zwischen dem ursprünglichen Schrödingerproblem und dem TDKS-System mathematisch weitergehend diskutiert. Der derzeit erfolgreichste Ansatz, Vielteichenrechnungen im Rahmen der TDDFT umzusetzen, sind die TDKS-Gleichungen. Es sind jedoch bisher nur wenige mathematische Resultate über diese Gleichungen verfügbar und diese Ergebnisse behandeln nicht alle Probleme, die bei der Formulierung von Optimalsteuerungsproblemen bei TDKS-Gleichungen auftreten. Es ist das Ziel des zweiten Teils dieser Arbeit, diese für die Wohldefiniertheit der Formulierung der Optimalsteuerungsaufgabe maßgeblichen Probleme, wie die höhere Regularität der Lösungen der TDKS-Gleichungen und schwächere Voraussetzungen an das externe Kontrollpotential, zu behandeln. Dazu wird die Existenz und Eindeutigkeit von Lösungen der nichtlinearen TDKS-Gleichungen mit dem Galerkin-Ansatz und Energieabschätzungen untersucht. Im dritten Teil dieser Arbeit werden Probleme optimaler Steuerung bei TDKS-Gleichungen formuliert und untersucht. Dafür werden relevante Kostenfunktionale, die das Ziel der Steuerung modellieren, diskutiert. Die Optimalsteuerungsprobleme ergeben sich aus der Optimierung dieser Kosten unter der Nebenbedingung der TDKS-Gleichungen. Die Analyse dieser Probleme ist neu und stellt eines der Hauptergebnisse der vorliegenden Arbeit dar. Insbesondere wird die Existenz einer optimalen Steuerung bewiesen und ihre Charakterisierung mittels eines TDKS-Optimalitätssystem im Detail diskutiert. Dazu wird die Fréchet-Differenzierbarkeit des TDKS-Models und des Kostenfunktionals mit \(H^1\)-Steuerungskosten betrachtet. Abschließend wird der reduzierte Gradient im \(L^2\)- und im \(H^1\)-Skalarprodukt hergeleitet. Während die \(L^2\)-Optimierung in der Literatur weit verbreitet ist, wird in dieser Arbeit die Verwendung des \(H^1\)-Gradienten mit theoretischen Argumenten und resultierenden numerischen Vorteilen motiviert. Der letzte Teil dieser Arbeit ist der numerischen Approximation des TDKS-Optimalitätssystems und seiner Lösung mittels gradientenbasierter Optimierungsmethoden gewidmet. Für ersteres wird die Strang Zeitsplitting-Pseudospektralmethode diskutiert, eine Zusammenfassung einiger aktueller theoretischer Abschätzungen für dieses Schema angegeben und diese Abschätzungen numerisch überprüft. Für letzteres wird das (projizierte) nichtlineare Verfahren der konjugierten Gradienten (NCG) implementiert und verwendet um die theoretische Analyse dieser Arbeit mit den Ergebnissen numerischer Rechnungen für verschiedene Kostenfunktionale zu validieren. KW - Optimale Kontrolle KW - Dichtefunktionalformalismus KW - Optimierung KW - TDDFT KW - TD Kohn-Sham equations KW - optimal control Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-153545 ER - TY - THES A1 - Weil, Frederik T1 - Einfluss von Spendermerkmalen und Kulturmedien auf die histomorphologische Qualität von humanen artifiziellen Vollhautmodellen T1 - Influence of donor sources and culture media on the histo-morphological quality of human artificial skin models N2 - Humane artifizielle Vollhautmodelle gewinnen im Bereich des Tissue Engineerings zunehmend an Bedeutung und werden mittlerweile in vielen verschiedenen Fachbereichen erforscht, optimiert und sogar als die Grundlagenforschung unterstützende Tierersatzmodelle angewendet. Dieses geht mit hohen Ansprüchen an Qualität und Reproduzierbarkeit dergleichen einher. In der vorliegenden Arbeit wurde erstmals der Einfluss von Kulturbedingen und Spendermaterial auf die Qualität humaner in vitro hergestellter Vollhautmodelle systematisch untersucht. Dazu wurde zunächst ein Katalog an histomorphologischen Qualitätskriterien erarbeitet, der sich an echten humanen Hautbiopsien orientierte und eine Gewichtung dieser Kriterien im Hinblick auf die Verwendung als echte Hautersatzmodelle erlaubte. Für die Herstellung der Hautmodelle wurden die etablierten Medien KGM 2 , KGM 2 variant und EpiLife ® und deren Kultivierungsprotokolle verwendet. Die zelluläre Grundlage der vorliegenden Untersuchungen bildeten die Präputien von sechzehn Kindern nach Zirkumzision. Keratinozyten und Fibroblasten wurden isoliert und mit den drei oben genannten Medien und zugrundeliegenden Kultivierungsprotokollen wurden in jeweils dreifacher Ausführung insgesamt 144 humane Vollhautmodelle erstellt, welche dann entsprechend des Bewertungskataloges beurteilt wurden. Die zugrunde gelegten Bewertungs- und Gütekriterien entsprachen histomorphologischen Parametern. Dazu gehörten die Dicke von Epidermis und Dermis, die Adhärenz zwischen Epidermis und Dermis sowie die Abwesenheit von Zellkernen im Stratum corneum der Epidermis. Für die Analyse der Einflussfaktoren Spenderalter und Kultivierungsmedium wurden Regressionsmodelle mittels Generalized Estimating Equations angewandt. Das Spenderalter und das Kultivierungsmedium wurden dabei unabhängig voneinander in einer univariaten Analyse untersucht. Bei der Untersuchung des Einflusses des Kulturmediums auf die terminale Differenzierung innerhalb der Epidermis zeigte sich, dass durch Kultivierung mit EpiLife ® signifikant weniger Vollhautmodelle mit Zellkernen im Stratum corneum hergestellt wurden, im Vergleich zur Kultur mit KGM 2 oder KGM 2 variant. Der Einfluss des Kulturmediums auf die Epidermis- und Dermis-Dicke war jeweils nicht signifikant. Trotzdem zeigte sich ein Trend mit einer dünneren Epidermis und Dermis nach EpiLife ® -Kultivierung. Bei der Analyse des Spenderalters konnte ein positiver Einfluss eines jüngeren Spenders auf die Dicke der Epidermis im Vollhautmodell gezeigt werden. Die Epidermis-Dicke war signifikant größer, je jünger ein Vorhautspender war. Ein höheres Spenderalter dagegen führte zu signifikant weniger Ablösung der Epidermis von der Dermis. Keinen Einfluss hatte das Spenderalter auf die Dermis-Dicke und auf die Abwesenheit von Zellkernen in der Hornschicht. Die drei signifikanten Assoziationen in der univariaten Analyse wurden in einer multivariablen Analyse untersucht. Hierbei zeigte sich der Einfluss des Spenderalters auf die Epidermis-Dicke und die dermo-epidermale Adhäsion unter Einfluss der Kulturmedien, der Abwesenheit von Zellkernen in der Hornschicht und der Dermis-Dicke als Kovariablen ebenfalls signifikant. Auch blieb der Einfluss von EpiLife ® auf die Abwesenheit von Zellkernen in der Hornschicht in der multivariablen Analyse signifikant. Es konnte hierbei außerdem ein signifikanter Einfluss der Dermis auf die Epidermis mit Schrumpfung der Epidermis bei Größerwerden der Dermis gezeigt werden. In einer durchgeführten komplexen statistischen Analyse mittels General Linear Model wurde der Einfluss einer Spender-Medium-Interaktion analysiert, ohne das Spenderalter als Variable mit einzubeziehen. Es zeigte sich ein signifikanter Einfluss der Interaktion des Spenders mit dem Kulturmedium auf die Epidermisund Dermis-Dicke und damit auf die Qualität der in vitro hergestellten Vollhautmodelle. Einerseits bestand also ein unabhängiger Einfluss des Spenderalters und des Mediums, andererseits gab es einen Einfluss von der Abhängigkeit einer optimalen Spender-Medium-Kombination auf die Vollhautmodellqualität. Zusammenfassend konnte in der vorliegenden Arbeit erstmals das komplexe Zusammenspiel von Spenderfaktoren und Kultivierungsbedingungen und deren Auswirkungen auf die Qualität von humanen Vollhautmodellen aufgezeigt werden. Diese Ergebnisse haben Relevanz für den Einsatz dieser Modelle als Tierersatzmodelle in der Forschung. Unter Berücksichtigung dieser Ergebnisse können optimierte organotypische Vollhautmodelle in vitro hergestellt werden, sodass zukünftig komplexere Hautmodelle generiert werden können. In einer Folgearbeit sollen die hier erarbeiteten Grundlagen helfen, Hautmodelle in der Erforschung der akuten GvHD der Haut zu bearbeiten. N2 - Human artificial skin models are increasingly employed as non-animal test platforms for research and medical purposes. However, the overall histopathological quality of such models may vary significantly. Therefore, we studied the effects of manufacturing protocols and donor sources on the quality of skin models built-up from fibroblasts and keratinocytes derived from juvenile foreskins. Histo-morphological parameters such as epidermal thickness, number of epidermal cell layers, dermal thickness, dermo-epidermal adhesion and absence of cellular nuclei in the corneal layer were obtained and scored accordingly. In total, 144 full-thickness skin models derived from 16 different donors, built-up in triplicates using three different culture conditions were successfully generated. In univariate analysis both media and donor age affected the quality of skin models significantly. Both parameters remained statistically significant in multivariate analyses. Performing general linear model analyses we could show that individual medium-donor-interactions influence the quality. These observations suggest that the optimal choice of media may differ from donor to donor and coincides with findings where significant inter-individual variations of growth rates in keratinocytes and fibroblasts have been described. Thus, the consideration of individual medium-donor-interactions may improve the overall quality of human organ models thereby forming a reproducible test platform for sophisticated clinical Research die englische Zusammenfassung ist eine genehmigte Kopie aus der Publikation: Lange, J., F. Weil, C. Riegler, F. Groeber, S. Rebhan, S. Kurdyn, M. Alb, H. Kneitz, G. Gelbrich, H. Walles and S. Mielke (2016). "Interactions of donor sources and media influence the histo-morphological quality of full-thickness skin models." Biotechnol J. KW - Optimierung KW - Einfluss KW - Merkmal KW - Qualität KW - Haut KW - Hautmodell KW - human KW - Kulturmedium KW - Spendermerkmal Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-161882 ER - TY - THES A1 - Steck, Daniel T1 - Lagrange Multiplier Methods for Constrained Optimization and Variational Problems in Banach Spaces T1 - Lagrange-Multiplier-Verfahren für Restringierte Optimierung und Variationsprobleme in Banach-Räumen N2 - This thesis is concerned with a class of general-purpose algorithms for constrained minimization problems, variational inequalities, and quasi-variational inequalities in Banach spaces. A substantial amount of background material from Banach space theory, convex analysis, variational analysis, and optimization theory is presented, including some results which are refinements of those existing in the literature. This basis is used to formulate an augmented Lagrangian algorithm with multiplier safeguarding for the solution of constrained optimization problems in Banach spaces. The method is analyzed in terms of local and global convergence, and many popular problem classes such as nonlinear programming, semidefinite programming, and function space optimization are shown to be included as special cases of the general setting. The algorithmic framework is then extended to variational and quasi-variational inequalities, which include, by extension, Nash and generalized Nash equilibrium problems. For these problem classes, the convergence is analyzed in detail. The thesis then presents a rich collection of application examples for all problem classes, including implementation details and numerical results. N2 - Die vorliegende Arbeit handelt von einer Klasse allgemein anwendbarer Verfahren zur Lösung restringierter Optimierungsprobleme, Variations- und Quasi-Variationsungleichungen in Banach-Räumen. Zur Vorbereitung wird eine erhebliche Menge an Grundmaterial präsentiert. Dies beinhaltet die Theorie von Banach-Räumen, konvexe und variationelle Analysis sowie Optimierungstheorie. Manche der angegebenen Resultate sind hierbei Verfeinerungen der entsprechenden Ergebnisse aus der Literatur. Im Anschluss wird ein Augmented-Lagrange-Verfahren für restingierte Optimierungsprobleme in Banach-Räumen präsentiert. Der Algorithmus wird hinsichtlich lokaler und globaler Konvergenz untersucht, und viele typische Problemklassen wie nichtlineare Programme, semidefinite Programme oder Optimierungsprobleme in Funktionenräumen werden als Spezialfälle aufgezeigt. Der Algorithmus wird dann auf Variations- und Quasi-Variationsungleichungen verallgemeinert, wodurch implizit auch (verallgemeinerte) Nash-Gleichgewichtsprobleme abgehandelt werden. Für diese Problemklassen werden eigene Konvergenzanalysen betrieben. Die Dissertation beinhaltet zudem eine umfangreiche Sammlung von Anwendungsbeispielen und zugehörigen numerischen Ergebnissen. KW - Optimierung KW - Nash-Gleichgewicht KW - Variationsungleichung KW - Banach-Raum KW - Quasi-Variational Inequality KW - Generalized Nash Equilibrium Problem KW - Quasi-Variationsungleichung KW - Verallgemeinertes Nash-Gleichgewichtsproblem Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-174444 ER - TY - THES A1 - Schielein, Richard T1 - Analytische Simulation und Aufnahmeplanung für die industrielle Röntgencomputertomographie T1 - Analytical simulation and acquisition planning for industrial x-ray computed tomography N2 - Röntgencomputertomographie (CT) hat in ihrer industriellen Anwendung ein sehr breites Spektrum möglicher Prüfobjekte. Ziel einer CT-Messung sind dreidimensionale Abbilder der Verteilung des Schwächungskoeffizienten der Objekte mit möglichst großer Genauigkeit. Die Parametrierung eines CT-Systems für ein optimales Messergebnis hängt stark vom zu untersuchenden Objekt ab. Eine Vorhersage der optimalen Parameter muss die physikalischen Wechselwirkungen mit Röntgenstrahlung des Objektes und des CT-Systems berücksichtigen. Die vorliegende Arbeit befasst sich damit, diese Wechselwirkungen zu modellieren und mit der Möglichkeit den Prozess zur Parametrierung anhand von Gütemaßen zu automatisieren. Ziel ist eine simulationsgetriebene, automatische Parameteroptimierungsmethode, welche die Objektabhängigkeit berücksichtigt. Hinsichtlich der Genauigkeit und der Effizienz wird die bestehende Röntgensimulationsmethodik erweitert. Es wird ein Ansatz verfolgt, der es ermöglicht, die Simulation eines CT-Systems auf reale Systeme zu kalibrieren. Darüber hinaus wird ein Modell vorgestellt, welches zur Berechnung der zweiten Ordnung der Streustrahlung im Objekt dient. Wegen des analytischen Ansatzes kann dabei auf eine Monte-Carlo Methode verzichtet werden. Es gibt in der Literatur bisher keine eindeutige Definition für die Güte eines CT-Messergebnisses. Eine solche Definition wird, basierend auf der Informationstheorie von Shannon, entwickelt. Die Verbesserungen der Simulationsmethodik sowie die Anwendung des Gütemaßes zur simulationsgetriebenen Parameteroptimierung werden in Beispielen erfolgreich angewendet beziehungsweise mittels Referenzmethoden validiert. N2 - Industrial X-ray computed tomography (CT) can be applied to a large variety of different specimens. The result of a CT measurement is a three-dimensional image containing the position-dependent attenuation coefficient of the specimen. For an optimal imaging CT-measurement parameters depend on both the properties of the CT-System and the specimen. To predict such an optimal parameterization both the physical interactions with X-rays of the CT-System and the specimen, must be taken into account. This thesis sets out to address the modelling of the interactions as well as the automatization of the parameter finding. The latter is based on a figure of merit for CT-measurements. Aim is a simulation-based, automatic parameter optimization method which includes the object-dependency on distinct specimens. The currently existing X-ray simulation methods are enhanced with respect to accuracy and efficiency. Therefore a method for the calibration of the simulation to a real CT-system is presented. Additionally, a model for second order X-ray scattering is developed in order to calculate the specimen-scattered radiation. This is done using an analytical ansatz and no Monte-Carlo method has to be applied. So far, no universal definition of a figure of merit for CT-results has been given in literature. Using Shannon's information theory such a definition is developed. The improvements of the simulation method and the application of the figure of merit for simulation-based parameter optimization are used in examples or are validated using reference methods. KW - Computertomografie KW - Zerstörungsfreie Werkstoffprüfung KW - Optimierung KW - Aufnahmeplanung KW - Analytische Simulation KW - CT KW - Computersimulation Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-169236 ER - TY - THES A1 - Lange, Stanislav T1 - Optimization of Controller Placement and Information Flow in Softwarized Networks T1 - Optimierungsverfahren für Controllerplatzierung und Informationsaustausch in softwarisierten Netzen N2 - The Software Defined Networking (SDN) paradigm offers network operators numerous improvements in terms of flexibility, scalability, as well as cost efficiency and vendor independence. However, in order to maximize the benefit from these features, several new challenges in areas such as management and orchestration need to be addressed. This dissertation makes contributions towards three key topics from these areas. Firstly, we design, implement, and evaluate two multi-objective heuristics for the SDN controller placement problem. Secondly, we develop and apply mechanisms for automated decision making based on the Pareto frontiers that are returned by the multi-objective optimizers. Finally, we investigate and quantify the performance benefits for the SDN control plane that can be achieved by integrating information from external entities such as Network Management Systems (NMSs) into the control loop. Our evaluation results demonstrate the impact of optimizing various parameters of softwarized networks at different levels and are used to derive guidelines for an efficient operation. N2 - Heutige Kommunikationsnetze müssen ein breites Spektrum an Applikationen mit sehr heterogenen Anforderungen unterstützen sowie mit einer kontinuierlich steigenden Anzahl an Nutzern und Endgeräten skalieren. Softwarisierte Netze, welche sich insbesondere durch Paradigmen wie Software Defined Networking (SDN) und Network Functions Virtualization (NFV) kennzeichnen, zielen auf eine Erhöhung der Flexibilität und Skalierbarkeit ab, um diesen Anforderungen auch in Zukunft gerecht zu werden. Um jedoch in vollem Umfang von den Vorteilen dieser Paradigmen zu profitieren, müssen neue Fragestellungen adressiert werden. Diese umfassen insbesondere die Platzierung neuer Entitäten im Netz sowie deren Integration in bestehende Architekturen und ihre Interaktion mit vorhandenen Komponenten. In dieser Dissertation werden Optimierungsverfahren entwickelt und bewertet, welche zu verschiedenen Zeitpunkten im Lebenszyklus softwarisierter Netze eingesetzt werden und ihre Performanz sowie Automatisierbarkeit steigern. Diese umfassen Verfahren für das Platzieren von Kontrollentitäten in SDN-basierten Netzen, welche eine effiziente Dimensionierung während der Planungsphase ermöglichen. Zudem werden diese Verfahren um Mechanismen erweitert, welche eine automatisierte Anpassung an dynamische Veränderungen ermöglichen und somit die Effizienz des Netzes aufrechterhalten. Zuletzt wird die Integration von Daten aus externen Informationsquellen wie Netzmanagementsystemen in SDN-Komponenten untersucht, um deren Entscheidungen und somit die Performanz im gesamten Netz zu optimieren. T3 - Würzburger Beiträge zur Leistungsbewertung Verteilter Systeme - 03/18 KW - Leistungsbewertung KW - Graph KW - Optimierung KW - Telekommunikationsnetz KW - Platzierungsalgorithmen KW - Softwarisierte Netze Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-174570 SN - 1432-8801 ER - TY - THES A1 - Peng, Dongliang T1 - An Optimization-Based Approach for Continuous Map Generalization T1 - Optimierung für die kontinuierliche Generalisierung von Landkarten N2 - Maps are the main tool to represent geographical information. Geographical information is usually scale-dependent, so users need to have access to maps at different scales. In our digital age, the access is realized by zooming. As discrete changes during the zooming tend to distract users, smooth changes are preferred. This is why some digital maps are trying to make the zooming as continuous as they can. The process of producing maps at different scales with smooth changes is called continuous map generalization. In order to produce maps of high quality, cartographers often take into account additional requirements. These requirements are transferred to models in map generalization. Optimization for map generalization is important not only because it finds optimal solutions in the sense of the models, but also because it helps us to evaluate the quality of the models. Optimization, however, becomes more delicate when we deal with continuous map generalization. In this area, there are requirements not only for a specific map but also for relations between maps at difference scales. This thesis is about continuous map generalization based on optimization. First, we show the background of our research topics. Second, we find optimal sequences for aggregating land-cover areas. We compare the A$^{\!\star}$\xspace algorithm and integer linear programming in completing this task. Third, we continuously generalize county boundaries to provincial boundaries based on compatible triangulations. We morph between the two sets of boundaries, using dynamic programming to compute the correspondence. Fourth, we continuously generalize buildings to built-up areas by aggregating and growing. In this work, we group buildings with the help of a minimum spanning tree. Fifth, we define vertex trajectories that allow us to morph between polylines. We require that both the angles and the edge lengths change linearly over time. As it is impossible to fulfill all of these requirements simultaneously, we mediate between them using least-squares adjustment. Sixth, we discuss the performance of some commonly used data structures for a specific spatial problem. Seventh, we conclude this thesis and present open problems. N2 - Maps are the main tool to represent geographical information. Users often zoom in and out to access maps at different scales. Continuous map generalization tries to make the changes between different scales smooth, which is essential to provide users with comfortable zooming experience. In order to achieve continuous map generalization with high quality, we optimize some important aspects of maps. In this book, we have used optimization in the generalization of land-cover areas, administrative boundaries, buildings, and coastlines. According to our experiments, continuous map generalization indeed benefits from optimization. N2 - Landkarten sind das wichtigste Werkzeug zur Repräsentation geografischer Information. Unter der Generalisierung von Landkarten versteht man die Aufbereitung von geografischen Informationen aus detaillierten Daten zur Generierung von kleinmaßstäbigen Karten. Nutzer von Online-Karten zoomen oft in eine Karte hinein oder aus einer Karte heraus, um mehr Details bzw. mehr Überblick zu bekommen. Die kontinuierliche Generalisierung von Landkarten versucht die Änderungen zwischen verschiedenen Maßstäben stetig zu machen. Dies ist wichtig, um Nutzern eine angenehme Zoom-Erfahrung zu bieten. Um eine qualitativ hochwertige kontinuierliche Generalisierung zu erreichen, kann man wichtige Aspekte bei der Generierung von Online-Karten optimieren. In diesem Buch haben wir Optimierung bei der Generalisierung von Landnutzungskarten, von administrativen Grenzen, Gebäuden und Küstenlinien eingesetzt. Unsere Experimente zeigen, dass die kontinuierliche Generalisierung von Landkarten in der Tat von Optimierung profitiert. KW - land-cover area KW - administrative boundary KW - building KW - morphing KW - data structure KW - zooming KW - Generalisierung KW - Landnutzungskartierung KW - Optimierung Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-174427 SN - 978-3-95826-104-4 SN - 978-3-95826-105-1 N1 - Parallel erschienen als Druckausgabe in Würzburg University Press, 978-3-95826-104-4, 24,90 EUR. PB - Würzburg University Press CY - Würzburg ET - 1. Auflage ER - TY - THES A1 - Karl, Veronika T1 - Augmented Lagrangian Methods for State Constrained Optimal Control Problems T1 - Augmentierte Lagrange-Verfahren für zustandsbeschränkte Optimalsteuerungsprobleme N2 - This thesis is concerned with the solution of control and state constrained optimal control problems, which are governed by elliptic partial differential equations. Problems of this type are challenging since they suffer from the low regularity of the multiplier corresponding to the state constraint. Applying an augmented Lagrangian method we overcome these difficulties by working with multiplier approximations in $L^2(\Omega)$. For each problem class, we introduce the solution algorithm, carry out a thoroughly convergence analysis and illustrate our theoretical findings with numerical examples. The thesis is divided into two parts. The first part focuses on classical PDE constrained optimal control problems. We start by studying linear-quadratic objective functionals, which include the standard tracking type term and an additional regularization term as well as the case, where the regularization term is replaced by an $L^1(\Omega)$-norm term, which makes the problem ill-posed. We deepen our study of the augmented Lagrangian algorithm by examining the more complicated class of optimal control problems that are governed by a semilinear partial differential equation. The second part investigates the broader class of multi-player control problems. While the examination of jointly convex generalized Nash equilibrium problems (GNEP) is a simple extension of the linear elliptic optimal control case, the complexity is increased significantly for pure GNEPs. The existence of solutions of jointly convex GNEPs is well-studied. However, solution algorithms may suffer from non-uniqueness of solutions. Therefore, the last part of this thesis is devoted to the analysis of the uniqueness of normalized equilibria. N2 - Die vorliegende Arbeit beschäftigt sich mit der Lösung von kontroll- und zustandsbeschränkten Optimalsteuerungsproblemen mit elliptischen partiellen Differentialgleichungen als Nebenbedingungen. Da die zur Zustandsbeschränkung zugehörigen Multiplikatoren nur eine niedrige Regularität aufweisen, sind Probleme dieses Typs besonders anspruchsvoll. Zur Lösung dieser Problemklasse wird ein augmentiertes Lagrange-Verfahren angewandt, das Annäherungen der Multiplikatoren in $L^2(\Omega)$ verwendet. Für jede Problemklasse erfolgt eine Präsentation des Lösungsalgorithmus, eine sorgfältige Konvergenzanalysis sowie eine Veranschaulichung der theoretischen Ergebnisse durch numerische Beispiele. Die Arbeit ist in zwei verschiedene Themenbereiche gegliedert. Der erste Teil widmet sich klassischen Optimalsteuerungsproblemen. Dabei wird zuerst der linear-quadratische und somit konvexe Fall untersucht. Hier setzt sich das Kostenfunktional aus einem Tracking-Type Term sowie einem $L^2(\Omega)$-Regularisierungsterm oder einem $L^1(\Omega)$-Term zusammen. Wir erweitern unsere Analysis auf nichtkonvexe Probleme. In diesem Fall erschwert die Nichtlinearität der zugrundeliegenden partiellen Differentialgleichung die Konvergenzanalysis des zugehörigen Optimalsteuerungsproblems maßgeblich. Der zweite Teil der Arbeit nutzt die Grundlagen, die im ersten Teil erarbeitet wurden und untersucht die allgemeiner gehaltene Problemklasse der Nash-Mehrspielerprobleme. Während die Untersuchung von konvexen verallgemeinerten Nash-Gleichsgewichtsproblemen (engl.: Generalized Nash Equilibrium Problem, kurz: GNEP) mit einer für alle Spieler identischen Restriktion eine einfache Erweiterung von linear elliptischen Optimalsteuerungsproblemen darstellt, erhöht sich der Schwierigkeitsgrad für Mehrspielerprobleme ohne gemeinsame Restriktion drastisch. Die Eindeutigkeit von normalisierten Nash-Gleichgewichten ist, im Gegensatz zu deren Existenz, nicht ausreichend erforscht, was insbesondere eine Schwierigkeit für Lösungsalgorithmen darstellt. Aus diesem Grund wird im letzten Teil dieser Arbeit die Eindeutigkeit von Lösungen gesondert betrachtet. KW - Optimale Kontrolle KW - Optimierung KW - Nash-Gleichgewicht KW - optimal control KW - state constraints KW - augmented Lagrangian method KW - Elliptische Differentialgleichung KW - Optimale Steuerung Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-213846 ER - TY - THES A1 - Börgens, Eike Alexander Lars Guido T1 - ADMM-Type Methods for Optimization and Generalized Nash Equilibrium Problems in Hilbert Spaces T1 - ADMM-Methoden für Optimierungs- und Verallgemeinerte Nash-Gleichgewichtsprobleme in Hilberträumen N2 - This thesis is concerned with a certain class of algorithms for the solution of constrained optimization problems and generalized Nash equilibrium problems in Hilbert spaces. This class of algorithms is inspired by the alternating direction method of multipliers (ADMM) and eliminates the constraints using an augmented Lagrangian approach. The alternating direction method consists of splitting the augmented Lagrangian subproblem into smaller and more easily manageable parts. Before the algorithms are discussed, a substantial amount of background material, including the theory of Banach and Hilbert spaces, fixed-point iterations as well as convex and monotone set-valued analysis, is presented. Thereafter, certain optimization problems and generalized Nash equilibrium problems are reformulated and analyzed using variational inequalities and set-valued mappings. The analysis of the algorithms developed in the course of this thesis is rooted in these reformulations as variational inequalities and set-valued mappings. The first algorithms discussed and analyzed are one weakly and one strongly convergent ADMM-type algorithm for convex, linearly constrained optimization. By equipping the associated Hilbert space with the correct weighted scalar product, the analysis of these two methods is accomplished using the proximal point method and the Halpern method. The rest of the thesis is concerned with the development and analysis of ADMM-type algorithms for generalized Nash equilibrium problems that jointly share a linear equality constraint. The first class of these algorithms is completely parallelizable and uses a forward-backward idea for the analysis, whereas the second class of algorithms can be interpreted as a direct extension of the classical ADMM-method to generalized Nash equilibrium problems. At the end of this thesis, the numerical behavior of the discussed algorithms is demonstrated on a collection of examples. N2 - Die vorliegende Arbeit behandelt eine Klasse von Algorithmen zur Lösung restringierter Optimierungsprobleme und verallgemeinerter Nash-Gleichgewichtsprobleme in Hilberträumen. Diese Klasse von Algorithmen ist angelehnt an die Alternating Direction Method of Multipliers (ADMM) und eliminiert die Nebenbedingungen durch einen Augmented-Lagrangian-Ansatz. Im Rahmen dessen wird in der Alternating Direction Method of Multipliers das jeweilige Augmented-Lagrangian-Teilproblem in kleinere Teilprobleme aufgespaltet. Zur Vorbereitung wird eine Vielzahl grundlegender Resultate präsentiert. Dies beinhaltet entsprechende Ergebnisse aus der Literatur zu der Theorie von Banach- und Hilberträumen, Fixpunktmethoden sowie konvexer und monotoner mengenwertiger Analysis. Im Anschluss werden gewisse Optimierungsprobleme sowie verallgemeinerte Nash-Gleichgewichtsprobleme als Variationsungleichungen und Inklusionen mit mengenwertigen Operatoren formuliert und analysiert. Die Analysis der im Rahmen dieser Arbeit entwickelten Algorithmen bezieht sich auf diese Reformulierungen als Variationsungleichungen und Inklusionsprobleme. Zuerst werden ein schwach und ein stark konvergenter paralleler ADMM-Algorithmus zur Lösung von separablen Optimierungsaufgaben mit linearen Gleichheitsnebenbedingungen präsentiert und analysiert. Durch die Ausstattung des zugehörigen Hilbertraums mit dem richtigen gewichteten Skalarprodukt gelingt die Analyse dieser beiden Methoden mit Hilfe der Proximalpunktmethode und der Halpern-Methode. Der Rest der Arbeit beschäftigt sich mit Algorithmen für verallgemeinerte Nash-Gleichgewichtsprobleme, die gemeinsame lineare Gleichheitsnebenbedingungen besitzen. Die erste Klasse von Algorithmen ist vollständig parallelisierbar und es wird ein Forward-Backward-Ansatz für die Analyse genutzt. Die zweite Klasse von Algorithmen kann hingegen als direkte Erweiterung des klassischen ADMM-Verfahrens auf verallgemeinerte Nash-Gleichgewichtsprobleme aufgefasst werden. Abschließend wird das Konvergenzverhalten der entwickelten Algorithmen an einer Sammlung von Beispielen demonstriert. KW - Constrained optimization KW - Nash-Gleichgewicht KW - ADMM KW - Generalized Nash Equilibrium Problem KW - Verallgemeinertes Nash-Gleichgewichtsproblem KW - Hilbert-Raum KW - Optimierung Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-218777 ER - TY - THES A1 - Herrmann, Marc T1 - The Total Variation on Surfaces and of Surfaces T1 - Die totale Variation auf Oberflächen und von Oberflächen N2 - This thesis is concerned with applying the total variation (TV) regularizer to surfaces and different types of shape optimization problems. The resulting problems are challenging since they suffer from the non-differentiability of the TV-seminorm, but unlike most other priors it favors piecewise constant solutions, which results in piecewise flat geometries for shape optimization problems.The first part of this thesis deals with an analogue of the TV image reconstruction approach [Rudin, Osher, Fatemi (Physica D, 1992)] for images on smooth surfaces. A rigorous analytical framework is developed for this model and its Fenchel predual, which is a quadratic optimization problem with pointwise inequality constraints on the surface. A function space interior point method is proposed to solve it. Afterwards, a discrete variant (DTV) based on a nodal quadrature formula is defined for piecewise polynomial, globally discontinuous and continuous finite element functions on triangulated surface meshes. DTV has favorable properties, which include a convenient dual representation. Next, an analogue of the total variation prior for the normal vector field along the boundary of smooth shapes in 3D is introduced. Its analysis is based on a differential geometric setting in which the unit normal vector is viewed as an element of the two-dimensional sphere manifold. Shape calculus is used to characterize the relevant derivatives and an variant of the split Bregman method for manifold valued functions is proposed. This is followed by an extension of the total variation prior for the normal vector field for piecewise flat surfaces and the previous variant of split Bregman method is adapted. Numerical experiments confirm that the new prior favours polyhedral shapes. N2 - Die vorliegende Arbeit beschäftigt sich mit der Anwendung der totalen Variation (TV) als Regularisierung auf Oberflächen und in verschiedenen Problemen der Formoptimierung. Die daraus entstehenden Optimierungsprobleme sind aufgrund der TV-Seminorm nicht differenzierbar und daher eine Herausforderung. Allerdings werden dadurch, im Gegensatz zu anderen Regularisierungen, stückweise konstante Lösungen favorisiert. Dies führt bei Problemen der Formoptimierung zu stückweise flachen Geometrien. Der erste Teil dieser Arbeit widmet sich der Erweiterung des Ansatzes zur mathematischen Bildverarbeitung [Rudin, Osher, Fatemi (Physica D, 1992)] von flachen Bildern auf glatte Oberflächen und deren Texturen. Für das damit verbundene Optimierungsproblem wird das Fenchel präduale Problem hergeleitet. Dies ist ein quadratisches Optimierungsproblem mit Ungleichungsrestriktionen für dessen Lösung ein Innere-Punkte-Verfahren in Funktionenräumen vorgestellt wird. Basierend auf einer Quadraturformel, wird im Anschluss eine diskrete Variante (DTV) der TV-Seminorm für global unstetige und stetige Finite- Elemente-Funktionen auf triangulierten Oberflächen entwickelt. (DTV) besitzt positive Eigenschaften, wie eine praktische duale Darstellung. Im letzten Teil wird zuerst ein TV-Analogon für die Oberflächennormale von glatten Formen in 3D gezeigt und mit Hilfe von Differentialgeometrie analysiert. Danach wird eine mögliche Erweiterungen für stückweise glatte Oberflächen vorgestellt. Zur Lösung von beiden Regularisierungen wird eine Variante des Split-Bregman-Verfahrens für Funktionen mitWerten auf Mannigfaltigkeiten benutzt. KW - Gestaltoptimierung KW - optimization KW - total variation KW - Formoptimierung KW - Shape Optimization KW - Optimierung KW - Totale Variation KW - Finite-Elemente-Methode Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-240736 ER - TY - THES A1 - Lechner, Theresa T1 - Proximal Methods for Nonconvex Composite Optimization Problems T1 - Proximal-Verfahren für nichtkonvexe zusammengesetzte Optimierungsprobleme N2 - Optimization problems with composite functions deal with the minimization of the sum of a smooth function and a convex nonsmooth function. In this thesis several numerical methods for solving such problems in finite-dimensional spaces are discussed, which are based on proximity operators. After some basic results from convex and nonsmooth analysis are summarized, a first-order method, the proximal gradient method, is presented and its convergence properties are discussed in detail. Known results from the literature are summarized and supplemented by additional ones. Subsequently, the main part of the thesis is the derivation of two methods which, in addition, make use of second-order information and are based on proximal Newton and proximal quasi-Newton methods, respectively. The difference between the two methods is that the first one uses a classical line search, while the second one uses a regularization parameter instead. Both techniques lead to the advantage that, in contrast to many similar methods, in the respective detailed convergence analysis global convergence to stationary points can be proved without any restricting precondition. Furthermore, comprehensive results show the local convergence properties as well as convergence rates of these algorithms, which are based on rather weak assumptions. Also a method for the solution of the arising proximal subproblems is investigated. In addition, the thesis contains an extensive collection of application examples and a detailed discussion of the related numerical results. N2 - In Optimierungsproblemen mit zusammengesetzten Funktionen wird die Summe aus einer glatten und einer konvexen, nicht glatten Funktion minimiert. Die vorliegende Arbeit behan- delt mehrere numerische Verfahren zur Lösung solcher Probleme in endlich-dimensionalen Räumen, welche auf Proximity Operatoren basieren. Nach der Zusammenfassung einiger grundlegender Resultate aus der konvexen und nicht- glatten Analysis wird ein Verfahren erster Ordnung, das Proximal-Gradienten-Verfahren, vorgestellt und dessen Konvergenzeigenschaften ausführlich behandelt. Bekannte Resultate aus der Literatur werden dabei zusammengefasst und durch weitere Ergebnisse ergänzt. Im Anschluss werden im Hauptteil der Arbeit zwei Verfahren hergeleitet, die zusätzlich Informationen zweiter Ordnung nutzen und auf Proximal-Newton- beziehungsweise Proximal-Quasi- Newton-Verfahren beruhen. Der Unterschied zwischen beiden Verfahren liegt darin, dass bei ersterem eine klassische Schrittweitensuche verwendet wird, während das zweite stattdessen einen Regularisierungsparameter nutzt. Beide Techniken führen dazu, dass im Gegensatz zu vielen verwandten Verfahren in der jeweils ausführlichen Konvergenzanalyse die globale Konvergenz zu stationären Punkten ohne weitere einschränkende Voraussetzungen bewiesen werden kann. Ferner zeigen umfassende Resultate die lokalen Konvergenzeigenschaften sowie Konvergenzraten der Algorithmen auf, welche auf lediglich schwachen Annahmen beruhen. Ein Verfahren zur Lösung auftretender Proximal-Teilprobleme ist ebenfalls Bestandteil dieser Arbeit. Die Dissertation beinhaltet zudem eine umfangreiche Sammlung von Anwendungsbeispielen und zugehörigen numerischen Ergebnissen. KW - Optimierung KW - composite optimization KW - proximal gradient method KW - proximal Newton method Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-289073 ER -