Refine
Has Fulltext
- yes (22)
Is part of the Bibliography
- yes (22)
Year of publication
Document Type
- Doctoral Thesis (22)
Keywords
- Optimierung (22) (remove)
Grundvoraussetzung einer erfolgreichen zementlosen Endoprothesenverankerungen ist eine hohe Primärstabilität durch formschlüssige Implantation. Nach erfolgreicher Primärfixation entscheidet über die Langzeitfunktion neben der Verschleißsituation insbesondere die funktionelle Spannungsverteilung an der Implantatoberfläche und im angrenzenden Knochen. Um optimale Bedingungen im Bereich der Grenzfläche zwischen Werkstoff und Biosystem zu schaffen, ist die präzise Präparation des Knochens entscheidend. Hierbei spielt neben dem Operateur und der Beschaffenheit des Knochens das verwendete System zur Zerspanung, bestehend aus der Säge und dem Sägeblatt, eine wichtige Rolle. Oszillierende Sägen werden neben der Gipsbehandlung ausschließlich bei der Knochenbearbeitung verwendet, wobei Fragestellungen zu Leistungs- und Qualitätssteigerung auftreten. Ansatzpunkt ist unter anderem das Sägeblatt. Die Modellvielfalt der auf dem Markt erhältlichen Sägeblätter erschwert die richtige Auswahl. Bei verschiedenen Modellen und deren unterschiedlichen Ausführungen ist es schwierig, Vergleiche anzustellen und Verbesserungen einzuführen. Die Charakteristik eines Sägeblattes ist durch die Schärfe beschrieben, um eine schnelle Zerspanung des Knochens zu gewährleisten, und durch die Steifigkeit des Blattes, um eine möglichst geringe Abweichung aus der Sägelinie sicherzustellen. Die Schärfe des Sägeblattes ist von der Zahnform und -geometrie abhängig. Die Steifigkeit ist abhängig von Material, Geometrie, Ausführung und Eigenschwingung/Eigenform des Blattes. Modifikationen an diesem System führen auch zu einer veränderten Eigenform des Sägeblattes. In der folgender Arbeit wurden verschiedene Ausführungen von Sägeblättern hinsichtlich ihrer Eigenform charakterisiert. In einem praktischen Versuch wurde versucht, den Einfluss des Sägeblattes auf die Vibration im Knochen von dem der Säge abzugrenzen. Ziel der Studie war daher die Berechnung der Eigenform der Sägeblätter, die experimentelle Überprüfung der Eigenform und die Abgrenzung des Einflusses von Sägeblatt und Säge auf die Vibration beim Sägevorgang. 9 verschiedene Sägeblätter unterschiedlicher Form und Geometrie wurden untersucht. Zunächst wurde eine Eigenformberechnung mittels der Finiten Elemente Methode durchgeführt. Anschließend erfolgte die Eigenformbestimmung im Shakerversuch. Um den Einfluss der Sägeblätter auf die Beschleunigung im Knochen von dem der Säge abzugrenzen erfolgte die Beschleunigungsmessung in einem Sägeprüfstand. Bezüglich des Eigenschwingungsverhalten konnten die Sägeblätter drei Gruppen zugeordnet werden. Als optimal erweist sich anhand der Eigenformberechnung und -bestimmung ein Sägeblatt mit 2 Löchern und einer Prägung von 136 bar. Hier zeigte sich eine Reduzierung der Maximal-Amplitude von 15,3 % und der Minimal-Amplitude von 23,5 %.
In this thesis affine-scaling-methods for two different types of mathematical problems are considered. The first type of problems are nonlinear optimization problems subject to bound constraints. A class of new affine-scaling Newton-type methods is introduced. The methods are shown to be locally quadratically convergent without assuming strict complementarity of the solution. The new methods differ from previous ones mainly in the choice of the scaling matrix. The second type of problems are semismooth system of equations with bound constraints. A new affine-scaling trust-region method for these problems is developed. The method is shown to have strong global and local convergence properties under suitable assumptions. Numerical results are presented for a number of problems arising from different areas.
Future broadband wireless networks should be able to support not only best effort traffic but also real-time traffic with strict Quality of Service (QoS) constraints. In addition, their available resources are scare and limit the number of users. To facilitate QoS guarantees and increase the maximum number of concurrent users, wireless networks require careful planning and optimization. In this monograph, we studied three aspects of performance optimization in wireless networks: resource optimization in WLAN infrastructure networks, quality of experience control in wireless mesh networks, and planning and optimization of wireless mesh networks. An adaptive resource management system is required to effectively utilize the limited resources on the air interface and to guarantee QoS for real-time applications. Thereby, both WLAN infrastructure and WLAN mesh networks have to be considered. An a-priori setting of the access parameters is not meaningful due to the contention-based medium access and the high dynamics of the system. Thus, a management system is required which dynamically adjusts the channel access parameters based on the network load. While this is sufficient for wireless infrastructure networks, interferences on neighboring paths and self-interferences have to be considered for wireless mesh networks. In addition, a careful channel allocation and route assignment is needed. Due to the large parameter space, standard optimization techniques fail for optimizing large wireless mesh networks. In this monograph, we reveal that biology-inspired optimization techniques, namely genetic algorithms, are well-suitable for the planning and optimization of wireless mesh networks. Although genetic algorithms generally do not always find the optimal solution, we show that with a good parameter set for the genetic algorithm, the overall throughput of the wireless mesh network can be significantly improved while still sharing the resources fairly among the users.
Die Magnet-Resonanz (MR)-Bildgebung ist mit vielfältigen Anwendungen ein nicht mehr wegzudenkendes Instrument der klinischen Diagnostik geworden. Dennoch führt die stark limitierte Messzeit häufig zu einer Einschränkung der erzielbaren räumlichen Auflösung und Abdeckung, einer Beschränkung des Signal-zu-Rauschverhältnis (Signal-to-Noise Ratio) (SNR) sowie einer Signalkontamination durch benachbartes Gewebe. Bereits bestehende Methoden zur Reduktion der Akquisitionszeit sind die partielle Fourier (PF)-Bildgebung und die parallele Bildgebung (PPA). Diese unterscheiden sich zum einen im Schema zur Unterabtastung des k-Raums und zum anderen in der verwendeten Information zur Rekonstruktion der fehlenden k-Raum-Daten aufgrund der beschleunigten Akquisition. Während in der PPA die unterschiedlichen Sensitivitäten einer Mehrkanal-Empfangsspule zur Bildrekonstruktion verwendet werden, basiert die PF-Bildgebung auf der Annahme einer langsamen Variation der Bildphase. Im ersten Abschnitt dieser Arbeit wurde das Konzept der Virtuellen Spulendekonvolutions (Virtual Coil Deconvolution) (VIDE)-Technik vorgestellt, das das gleiche Schema der Unterabtastung des k-Raums wie die konventionelle PPA verwendet, aber anstelle der Spulensensitivität die Bildphase als zusätzliche Information zur Herstellung der fehlenden Daten der beschleunigten Bildgebung verwendet. Zur Minimierung der Rekonstruktionsfehler und der Rauschverstärkung in der VIDE-Technik wurde ein optimiertes Akquisitionsschema entwickelt. Die Kombination der PPA und PF-Bildgebung zur Beschleunigung der MR-Bildgebung wird durch das unterschiedliche Unterabtastschema erschwert. Wie Blaimer et al. in ihrer Arbeit gezeigt haben, kann das Prinzip der VIDE-Technik auf Mehrkanal-Spulen übertragen werden, sodass mit dieser Methode die PPA und die PF-Bildgebung optimal vereint werden können. Dadurch kann die Rauschverstärkung aufgrund der Spulengeometrie ohne zusätzliche Messungen deutlich reduziert werden. Obwohl die Abtastung des k-Raums in der MR-Bildgebung sehr variabel gestaltet werden kann, wird bis heute nahezu ausschließlich die regelmäßige k-Raum-Abtastung in der klinischen Bildgebung verwendet. Der Grund hierfür liegt, neben der schnellen Rekonstruktion und der einfachen Gestaltung der Variation des Bild-Kontrasts, in der Robustheit gegen Artefakte. Allerdings führt die regelmäßige k-Raum-Abtastung zu einer hohen Signalkontamination. Die Optimierung der SRF durch nachträgliches Filtern führt jedoch zu einem SNR-Verlust. Die dichtegewichtete (DW-) Bildgebung ermöglicht die Reduktion der Signal-Kontamination bei optimalem SNR, führt aber zur einer Reduktion des effektiven Gesichtsfelds (FOV) oder einer Erhöhung der Messzeit. Letzteres kann durch eine Kombination der PPA und DW-Bildgebung umgangen werden. Der zweite Teil dieser Arbeit befasste sich mit neuen Aufnahme- und Rekonstruktionsstrategien für die DW-Bildgebung, die eine Erhöhung des FOVs auch ohne Einsatz der PPA erlauben. Durch eine Limitierung der minimalen k-Raum-Abtastdichte konnte durch eine geringfügige Reduktion des SNR-Vorteils der DW-Bildgebung gegenüber der kartesischen, gefilterten Bildgebung eine deutliche Verringerung der Artefakte aufgrund der Unterabtastung in der DW-Bildgebung erreicht werden. Eine asymmetrische Abtastung kann unter der Voraussetzung einer homogenen Bildphase das Aliasing zusätzlich reduzieren. Durch die Rekonstruktion der DW-Daten mit der Virtuelle Spulendekonvolution für die effektive DW-Bildgebung (VIDED)-Bildgebung konnten die Artefakte aufgrund der Unterabtastung eliminiert werden. In der 3d-Bildgebung konnte durch Anwendung der modifizierten DW-Bildgebung eine Steigerung des FOVs in Schichtrichtung ohne Messzeitverlängerung erreicht werden. Die nicht-kartesische k-Raum-Abtastung führt im Fall einer Unterabtastung zu deutlich geringeren, inkohärenten Aliasingartefakten im Vergleich zur kartesischen Abtastung. Durch ein alternierendes DW-Abtastschema wurde eine an die in der MR-Mammografie verwendete Spulengeometrie angepasste k-Raum-Abtastung entwickelt, das bei gleicher Messzeit die räumliche Auflösung, das SNR und das FOV erhöht. Im dritten Teil dieser Arbeit wurde die Verallgemeinerung der DW-Bildgebung auf signalgewichtete Sequenzen, d.h. Sequenzen mit Magnetisierungspräparation (Inversion Recovery (IR), Saturation Recovery (SR)) sowie Sequenzen mit einer Relaxation während der Datenaufnahme (Multi-Gradienten-Echo, Multi-Spin-Echo) vorgestellt, was eine Steigerung der Bildqualität bei optimalem SNR erlaubt. Die Methode wurde auf die SR-Sequenz angewendet und deren praktischer Nutzen wurde in der Herz-Perfusions-Bildgebung gezeigt. Durch die Verwendung der in dieser Arbeit vorgestellten Technik konnte eine Reduktion der Kontamination bei einem SNR-Gewinn von 16% im Vergleich zur konventionellen, kartesischen Abtastung bei gleicher Messzeit erreicht werden.
Magnetic resonance imaging (MRI) is a medical imaging method that involves no ionizing radiation and can be used non-invasively. Another important - if not the most important - reason for the widespread and increasing use of MRI in clinical practice is its interesting and highly flexible image contrast, especially of biological tissue. The main disadvantages of MRI, compared to other widespread imaging modalities like computed tomography (CT), are long measurement times and the directly resulting high costs. In the first part of this work, a new technique for accelerated MRI parameter mapping using a radial IR TrueFISP sequence is presented. IR TrueFISP is a very fast method for the simultaneous quantification of proton density, the longitudinal relaxation time T1, and the transverse relaxation time T2. Chapter 2 presents speed improvements to the original IR TrueFISP method. Using a radial view-sharing technique, it was possible to obtain a full set of relaxometry data in under 6 s per slice. Furthermore, chapter 3 presents the investigation and correction of two major sources of error of the IR TrueFISP method, namely magnetization transfer and imperfect slice profiles. In the second part of this work, a new MRI thermometry method is presented that can be used in MRI-safety investigations of medical implants, e.g. cardiac pacemakers and implantable cardioverter-defibrillators (ICDs). One of the major safety risks associated with MRI examinations of pacemaker and ICD patients is RF induced heating of the pacing electrodes. The design of MRI-safe (or MRI-conditional) pacing electrodes requires elaborate testing. In a first step, many different electrode shapes, electrode positions and sequence parameters are tested in a gel phantom with its geometry and conductivity matched to a human body. The resulting temperature increase is typically observed using temperature probes that are placed at various positions in the gel phantom. An alternative to this local thermometry approach is to use MRI for the temperature measurement. Chapter 5 describes a new approach for MRI thermometry that allows MRI thermometry during RF heating caused by the MRI sequence itself. Specifically, a proton resonance frequency (PRF) shift MRI thermometry method was combined with an MR heating sequence. The method was validated in a gel phantom, with a copper wire serving as a simple model for a medical implant.
In the future Internet, the people-centric communication paradigm will be complemented by a ubiquitous communication among people and devices, or even a communication between devices. This comes along with the need for a more flexible, cheap, widely available Internet access. Two types of wireless networks are considered most appropriate for attaining those goals. While wireless sensor networks (WSNs) enhance the Internet’s reach by providing data about the properties of the environment, wireless mesh networks (WMNs) extend the Internet access possibilities beyond the wired backbone. This monograph contains four chapters which present modeling and optimization methods for WSNs and WMNs. Minimizing energy consumptions is the most important goal of WSN optimization and the literature consequently provides countless energy consumption models. The first part of the monograph studies to what extent the used energy consumption model influences the outcome of analytical WSN optimizations. These considerations enable the second contribution, namely overcoming the problems on the way to a standardized energy-efficient WSN communication stack based on IEEE 802.15.4 and ZigBee. For WMNs both problems are of minor interest whereas the network performance has a higher weight. The third part of the work, therefore, presents algorithms for calculating the max-min fair network throughput in WMNs with multiple link rates and Internet gateway. The last contribution of the monograph investigates the impact of the LRA concept which proposes to systematically assign more robust link rates than actually necessary, thereby allowing to exploit the trade-off between spatial reuse and per-link throughput. A systematical study shows that a network-wide slightly more conservative LRA than necessary increases the throughput of a WMN where max-min fairness is guaranteed. It moreover turns out that LRA is suitable for increasing the performance of a contention-based WMN and is a valuable optimization tool.
Applications in various research areas such as signal processing, quantum computing, and computer vision, can be described as constrained optimization tasks on certain subsets of tensor products of vector spaces. In this work, we make use of techniques from Riemannian geometry and analyze optimization tasks on subsets of so-called simple tensors which can be equipped with a differentiable structure. In particular, we introduce a generalized Rayleigh-quotient function on the tensor product of Grassmannians and on the tensor product of Lagrange- Grassmannians. Its optimization enables a unified approach to well-known tasks from different areas of numerical linear algebra, such as: best low-rank approximations of tensors (data compression), computing geometric measures of entanglement (quantum computing) and subspace clustering (image processing). We perform a thorough analysis on the critical points of the generalized Rayleigh-quotient and develop intrinsic numerical methods for its optimization. Explicitly, using the techniques from Riemannian optimization, we present two type of algorithms: a Newton-like and a conjugated gradient algorithm. Their performance is analysed and compared with established methods from the literature.
Routing is one of the most important issues in any communication network. It defines on which path packets are transmitted from the source of a connection to the destination. It allows to control the distribution of flows between different locations in the network and thereby is a means to influence the load distribution or to reach certain constraints imposed by particular applications. As failures in communication networks appear regularly and cannot be completely avoided, routing is required to be resilient against such outages, i.e., routing still has to be able to forward packets on backup paths even if primary paths are not working any more.
Throughout the years, various routing technologies have been introduced that are very different in their control structure, in their way of working, and in their ability to handle certain failure cases. Each of the different routing approaches opens up their own specific questions regarding configuration, optimization, and inclusion of resilience issues. This monograph investigates, with the example of three particular routing technologies, some concrete issues regarding the analysis and optimization of resilience. It thereby contributes to a better general, technology-independent understanding of these approaches and of their diverse potential for the use in future network architectures.
The first considered routing type, is decentralized intra-domain routing based on administrative IP link costs and the shortest path principle. Typical examples are common today's intra-domain routing protocols OSPF and IS-IS. This type of routing includes automatic restoration abilities in case of failures what makes it in general very robust even in the case of severe network outages including several failed components. Furthermore, special IP-Fast Reroute mechanisms allow for a faster reaction on outages. For routing based on link costs, traffic engineering, e.g. the optimization of the maximum relative link load in the network, can be done indirectly by changing the administrative link costs to adequate values.
The second considered routing type, MPLS-based routing, is based on the a priori configuration of primary and backup paths, so-called Label Switched Paths. The routing layout of MPLS paths offers more freedom compared to IP-based routing as it is not restricted by any shortest path constraints but any paths can be setup. However, this in general involves a higher configuration effort.
Finally, in the third considered routing type, typically centralized routing using a Software Defined Networking (SDN) architecture, simple switches only forward packets according to routing decisions made by centralized controller units. SDN-based routing layouts offer the same freedom as for explicit paths configured using MPLS. In case of a failure, new rules can be setup by the controllers to continue the routing in the reduced topology. However, new resilience issues arise caused by the centralized architecture. If controllers are not reachable anymore, the forwarding rules in the single nodes cannot be adapted anymore. This might render a rerouting in case of connection problems in severe failure scenarios infeasible.
At the center of the Internet’s protocol stack stands the Internet Protocol (IP) as a common denominator that enables all communication. To make routing efficient, resilient, and scalable, several aspects must be considered. Care must be taken that traffic is well balanced to make efficient use of the existing network resources, both in failure free operation and in failure scenarios.
Finding the optimal routing in a network is an NP-complete problem. Therefore, routing optimization is usually performed using heuristics. This dissertation shows that a routing optimized with one objective function is often not good when looking at other objective functions. It can even be worse than unoptimized routing with respect to that objective function. After looking at failure-free routing and traffic distribution in different failure scenarios, the analysis is extended to include the loop-free alternate (LFA) IP fast reroute mechanism. Different application scenarios of LFAs are examined and a special focus is set on the fact that LFAs usually cannot protect all traffic in a network even against single link failures. Thus, the routing optimization for LFAs is targeted on both link utilization and failure coverage. Finally, the pre-congestion notification mechanism PCN for network admission control and overload protection is analyzed and optimized. Different design options for implementing the protocol are compared, before algorithms are developed for the calculation and optimization of protocol parameters and PCN-based routing.
The second part of the thesis tackles a routing problem that can only be resolved on a global scale. The scalability of the Internet is at risk since a major and intensifying growth of the interdomain routing tables has been observed. Several protocols and architectures are analyzed that can be used to make interdomain routing more scalable. The most promising approach is the locator/identifier (Loc/ID) split architecture which separates routing from host identification. This way, changes in connectivity, mobility of end hosts, or traffic-engineering activities are hidden from the routing in the core of the Internet and the routing tables can be kept much smaller. All of the currently proposed Loc/ID split approaches have their downsides. In particular, the fact that most architectures use the ID for routing outside the Internet’s core is a poor design, which inhibits many of the possible features of a new routing architecture. To better understand the problems and to provide a solution for a scalable routing design that implements a true Loc/ID split, the new GLI-Split protocol is developed in this thesis, which provides separation of global and local routing and uses an ID that is independent from any routing decisions.
Besides GLI-Split, several other new routing architectures implementing Loc/ID split have been proposed for the Internet. Most of them assume that a mapping system is queried for EID-to-RLOC mappings by an intermediate node at the border of an edge network. When the mapping system is queried by an intermediate node, packets are already on their way towards their destination, and therefore, the mapping system must be fast, scalable, secure, resilient, and should be able to relay packets without locators to nodes that can forward them to the correct destination. The dissertation develops a classification for all proposed mapping system architectures and shows their similarities and differences. Finally, the fast two-level mapping system FIRMS is developed. It includes security and resilience features as well as a relay service for initial packets of a flow when intermediate nodes encounter a cache miss for the EID-to-RLOC mapping.
Die Produktionsplanung und -steuerung (PPS) ist für nahezu jedes fertigende Unternehmen – sowohl im Hinblick auf Lagerbestands- und Kostenoptimierung, als auch für eine termintreue Lieferbereitschaft sowie die dadurch bedingte Kundenzufriedenheit – von zentraler Bedeutung und leistet somit einen erheblichen Beitrag für den Erhalt bzw. den Ausbau der Wettbewerbsfähigkeit. Dabei stellen die Interdependenzen der verschiedenen Teilbereiche innerhalb der PPS sowie zwischen den vor- und nachgelagerten Planungsaufgaben eine – im Zuge der zunehmend angestrebten Integration der gesamten Wertschöpfungskette – immer größer werdende Herausforderung dar.
Diese Arbeit widmet sich mit der Planungsaufgabe der Ermittlung kostenminimaler Losgrößen bei simultaner Festlegung der optimalen Produktionsreihenfolge (Economic Lot Scheduling Problem (ELSP) oder Lossequenzproblem) einem zentralen Teilbereich der PPS. Diese Problemstellung ist insbesondere für den Fall einer Serien- und Sortenfertigung von Relevanz, bei dem mehrere, artverwandte Erzeugnisse im Wechsel auf einer Fertigungsanlage mit beschränkter Kapazität bearbeitet werden. Da die Bestimmung der Fertigungslosgrößen und der Produktionsreihenfolge bei der Ermittlung einer überschneidungsfreien Maschinenbelegung unmittelbar miteinander korrelieren, sollte deren Planung zur bestmöglichen Ausnutzung der Kapazitäten und Minimierung der Kosten nicht sukzessiv, sondern weitestgehend simultan erfolgen. Durch diesen Zusammenhang entsteht eine im Allgemeinen nicht triviale und lediglich mittels spezieller Heuristiken adäquat lösbare Planungsaufgabe. Letztere soll in dieser Arbeit um die Möglichkeit des Lossplittings im Sinne einer überlappenden Fertigung (Teil- oder Transportlosbildung) erweitert werden. Dieses logistische Konzept innerhalb der Produktion geht im Allgemeinen sowohl mit einer Verkürzung der Durchlaufzeiten, als auch mit einer Verringerung der Lagerbestände einher.
Vor diesem Hintergrund findet eingangs zunächst eine allgemeine Einordung bzw. Abgrenzung der Aufgaben und des Umfelds der simultanen Losgrößen- und Reihenfolgeplanung im Rahmen der PPS statt. Anschließend werden die prinzipiell unterschiedlichen Ansätze zur Lösung des ELSP, mit ihren jeweils individuellen Annahmen und Eigenschaften dargestellt. Hierbei wird insbesondere auf die chronologische Entwicklung des Basisperiodenansatzes (BPA) in der Literatur eingegangen, da dieser im weiteren Verlauf der Arbeit eine zentrale Rolle einnimmt. Abschließend werden die Zusammenhänge zwischen den strukturell verschiedenen Lösungsansätzen zum ELSP nochmals zusammenfassend erörtert sowie eine Auswertung zu deren relativer Verbreitung in der wissenschaftlichen Literatur präsentiert.
Nach der Erörterung zweier alternativer Lagerhaltungsmodelle zur Berücksichtigung von Lossplitting im Sinne einer überlappenden Fertigung bildet deren Integration in ausgewählte Lösungsansätze zum ELSP den Hauptteil der Arbeit. Hierfür wird zur Identifizierung und Eingrenzung potentiellen Forschungsbedarfs zunächst ein dedizierter Literaturüberblick gegeben, der eine Kategorisierung der bis dato im engeren Sinne relevanten Veröffentlichungen beinhaltet. Die daraus abgeleiteten Forschungsziele bzw. -fragen werden anschließend in fünf Punkten konkretisiert und beinhalten im Kern die Entwicklung von Modellen zur Berücksichtigung des Lossplittings im ELSP. Dabei wird sowohl das Common Cycle Modell (CCM), als auch der Ansatz variierender Losgrößen (TVL) einbezogen, jedoch steht vor allem eine Heuristik nach dem BPA im Fokus der Ausführungen. Des Weiteren werden bestehende Ansätze zur Integration der Teillosbildung im CCM aus einer neuen Perspektive betrachtet und bezüglich eines eventuellen Optimierungspotentials des Lösungswegs analysiert. Zu den neu entwickelten bzw. erweiterten Modellen werden für die Lösungsfindung Algorithmen formuliert und implementiert, die für beide Alternativen der Teillosbildung eine für alle Produkte einheitliche oder sortenindividuelle Transporthäufigkeit erlauben.
Die Evaluation der entwickelten Modelle erfolgt sowohl anhand von ausgewählten Referenzdatensätzen aus der Literatur als auch auf Basis von insgesamt 4000 zufallsgenerierten Parameterkonstellationen. Dabei liegt der Schwerpunkt der Auswertungen auf einer Ergebnisanalyse hinsichtlich der Höhe des Kosteneinsparungspotentials, das durch die Teillosbildung im BPA zum einen gegenüber der „geschlossenen Fertigung“ und zum anderen im Vergleich zu bestehenden Ansätzen mit Lossplitting im CCM erzielbar ist. Die diesbezüglich gewonnenen Erkenntnisse sowie weitere, aus den Resultaten ableitbare Zusammenhänge werden umfassend diskutiert und interpretiert, so dass letztendlich eine Grundlage zur Ableitung von Handlungsempfehlungen gelegt wird. Die Arbeit schließt mit einem Resümee und der kritischen Würdigung der Forschungsziele bzw. -fragen sowie einem Ausblick auf weiteren Forschungsbedarf.
Today's Internet is no longer only controlled by a single stakeholder, e.g. a standard body or a telecommunications company.
Rather, the interests of a multitude of stakeholders, e.g. application developers, hardware vendors, cloud operators, and network operators, collide during the development and operation of applications in the Internet.
Each of these stakeholders considers different KPIs to be important and attempts to optimise scenarios in its favour.
This results in different, often opposing views and can cause problems for the complete network ecosystem.
One example of such a scenario are Signalling Storms in the mobile Internet, with one of the largest occurring in Japan in 2012 due to the release and high popularity of a free instant messaging application.
The network traffic generated by the application caused a high number of connections to the Internet being established and terminated.
This resulted in a similarly high number of signalling messages in the mobile network, causing overload and a loss of service for 2.5 million users over 4 hours.
While the network operator suffers the largest impact of this signalling overload, it does not control the application.
Thus, the network operator can not change the application traffic characteristics to generate less network signalling traffic.
The stakeholders who could prevent, or at least reduce, such behaviour, i.e. application developers or hardware vendors, have no direct benefit from modifying their products in such a way.
This results in a clash of interests which negatively impacts the network performance for all participants.
The goal of this monograph is to provide an overview over the complex structures of stakeholder relationships in today's Internet applications in mobile networks.
To this end, we study different scenarios where such interests clash and suggest methods where tradeoffs can be optimised for all participants.
If such an optimisation is not possible or attempts at it might lead to adverse effects, we discuss the reasons.
In this work, multi-particle quantum optimal control problems are studied in the framework of time-dependent density functional theory (TDDFT).
Quantum control problems are of great importance in both fundamental research and application of atomic and molecular systems. Typical applications are laser induced chemical reactions, nuclear magnetic resonance experiments, and quantum computing.
Theoretically, the problem of how to describe a non-relativistic system of multiple particles is solved by the Schrödinger equation (SE). However, due to the exponential increase in numerical complexity with the number of particles, it is impossible to directly solve the Schrödinger equation for large systems of interest. An efficient and successful approach to overcome this difficulty is the framework of TDDFT and the use of the time-dependent Kohn-Sham (TDKS) equations therein.
This is done by replacing the multi-particle SE with a set of nonlinear single-particle Schrödinger equations that are coupled through an additional potential.
Despite the fact that TDDFT is widely used for physical and quantum chemical calculation and software packages for its use are readily available, its mathematical foundation is still under active development and even fundamental issues remain unproven today.
The main purpose of this thesis is to provide a consistent and rigorous setting for the TDKS equations and of the related optimal control problems.
In the first part of the thesis, the framework of density functional theory (DFT) and TDDFT are introduced. This includes a detailed presentation of the different functional sets forming DFT. Furthermore, the known equivalence of the TDKS system to the original SE problem is further discussed.
To implement the TDDFT framework for multi-particle computations, the TDKS equations provide one of the most successful approaches nowadays. However, only few mathematical results concerning these equations are available and these results do not cover all issues that arise in the formulation of optimal control problems governed by the TDKS model.
It is the purpose of the second part of this thesis to address these issues such as higher regularity of TDKS solutions and the case of weaker requirements on external (control) potentials that are instrumental for the formulation of well-posed TDKS control problems. For this purpose, in this work, existence and uniqueness of TDKS solutions are investigated in the Galerkin framework and using energy estimates for the nonlinear TDKS equations.
In the third part of this thesis, optimal control problems governed by the TDKS model are formulated and investigated. For this purpose, relevant cost functionals that model the purpose of the control are discussed.
Henceforth, TDKS control problems result from the requirement of optimising the given cost functionals subject to the differential constraint given by the TDKS equations. The analysis of these problems is novel and represents one of the main contributions of the present thesis.
In particular, existence of minimizers is proved and their characterization by TDKS optimality systems is discussed in detail.
To this end, Fréchet differentiability of the TDKS model and of the cost functionals is addressed considering \(H^1\) cost of the control.
This part is concluded by deriving the reduced gradient in the \(L^2\) and \(H^1\) inner product.
While the \(L^2\) optimization is widespread in the literature, the choice of the \(H^1\) gradient is motivated in this work by theoretical consideration and by resulting numerical advantages.
The last part of the thesis is devoted to the numerical approximation of the TDKS optimality systems and to their solution by gradient-based optimization techniques.
For the former purpose, Strang time-splitting pseudo-spectral schemes are discussed including a review of some recent theoretical estimates for these schemes and a numerical validation of these estimates.
For the latter purpose, nonlinear (projected) conjugate gradient methods are implemented and are used to validate the theoretical analysis of this thesis with results of numerical experiments with different cost functional settings.
Humane artifizielle Vollhautmodelle gewinnen im Bereich des Tissue Engineerings zunehmend an Bedeutung und werden mittlerweile in vielen verschiedenen Fachbereichen erforscht, optimiert und sogar als die Grundlagenforschung unterstützende Tierersatzmodelle angewendet. Dieses geht mit hohen Ansprüchen an Qualität und Reproduzierbarkeit dergleichen einher. In der vorliegenden Arbeit wurde erstmals der Einfluss von Kulturbedingen und Spendermaterial auf die Qualität humaner in vitro hergestellter Vollhautmodelle systematisch untersucht. Dazu wurde zunächst ein Katalog an histomorphologischen Qualitätskriterien erarbeitet, der sich an echten humanen Hautbiopsien orientierte und eine Gewichtung dieser Kriterien im Hinblick auf die Verwendung als echte Hautersatzmodelle erlaubte. Für die Herstellung der Hautmodelle wurden die etablierten Medien KGM 2 , KGM 2 variant und EpiLife ® und deren Kultivierungsprotokolle verwendet. Die zelluläre Grundlage der vorliegenden Untersuchungen bildeten die Präputien von sechzehn Kindern nach Zirkumzision. Keratinozyten und Fibroblasten wurden isoliert und mit den drei oben genannten Medien und zugrundeliegenden Kultivierungsprotokollen wurden in jeweils dreifacher Ausführung insgesamt 144 humane Vollhautmodelle erstellt, welche dann entsprechend des Bewertungskataloges beurteilt wurden. Die zugrunde gelegten Bewertungs- und Gütekriterien entsprachen histomorphologischen Parametern. Dazu gehörten die Dicke von Epidermis und Dermis, die Adhärenz zwischen Epidermis und Dermis sowie die Abwesenheit von Zellkernen im Stratum corneum der Epidermis.
Für die Analyse der Einflussfaktoren Spenderalter und Kultivierungsmedium wurden Regressionsmodelle mittels Generalized Estimating Equations angewandt. Das Spenderalter und das Kultivierungsmedium wurden dabei unabhängig voneinander in einer univariaten Analyse untersucht. Bei der Untersuchung des Einflusses des Kulturmediums auf die terminale Differenzierung innerhalb der Epidermis zeigte sich, dass durch Kultivierung mit EpiLife ® signifikant weniger Vollhautmodelle mit Zellkernen im Stratum corneum hergestellt wurden, im Vergleich zur Kultur mit KGM 2 oder KGM 2 variant. Der Einfluss des Kulturmediums auf die Epidermis- und Dermis-Dicke war jeweils nicht signifikant. Trotzdem zeigte sich ein Trend mit einer dünneren Epidermis und Dermis nach EpiLife ® -Kultivierung. Bei der Analyse des Spenderalters konnte ein positiver Einfluss eines jüngeren Spenders auf die Dicke der Epidermis im Vollhautmodell gezeigt werden. Die Epidermis-Dicke war signifikant größer, je jünger ein Vorhautspender war. Ein höheres Spenderalter dagegen führte zu signifikant weniger Ablösung der Epidermis von der Dermis. Keinen Einfluss hatte das Spenderalter auf die Dermis-Dicke und auf die Abwesenheit von Zellkernen in der Hornschicht. Die drei signifikanten Assoziationen in der univariaten Analyse wurden in einer multivariablen Analyse untersucht. Hierbei zeigte sich der Einfluss des Spenderalters auf die Epidermis-Dicke und die dermo-epidermale Adhäsion unter Einfluss der Kulturmedien, der Abwesenheit von Zellkernen in der Hornschicht und der Dermis-Dicke als Kovariablen ebenfalls signifikant. Auch blieb der Einfluss von EpiLife ® auf die Abwesenheit von Zellkernen in der Hornschicht in der multivariablen Analyse signifikant. Es konnte hierbei außerdem ein signifikanter Einfluss der Dermis auf die Epidermis mit Schrumpfung der Epidermis bei Größerwerden der Dermis gezeigt werden. In einer durchgeführten komplexen statistischen Analyse mittels General Linear Model wurde der Einfluss einer Spender-Medium-Interaktion analysiert, ohne das Spenderalter als Variable mit einzubeziehen. Es zeigte sich ein signifikanter Einfluss der Interaktion des Spenders mit dem Kulturmedium auf die Epidermisund Dermis-Dicke und damit auf die Qualität der in vitro hergestellten Vollhautmodelle. Einerseits bestand also ein unabhängiger Einfluss des Spenderalters und des Mediums, andererseits gab es einen Einfluss von der Abhängigkeit einer optimalen Spender-Medium-Kombination auf die Vollhautmodellqualität.
Zusammenfassend konnte in der vorliegenden Arbeit erstmals das komplexe Zusammenspiel von Spenderfaktoren und Kultivierungsbedingungen und deren Auswirkungen auf die Qualität von humanen Vollhautmodellen aufgezeigt werden. Diese Ergebnisse haben Relevanz für den Einsatz dieser Modelle als Tierersatzmodelle in der Forschung. Unter Berücksichtigung dieser Ergebnisse können optimierte organotypische Vollhautmodelle in vitro hergestellt werden, sodass zukünftig komplexere Hautmodelle generiert werden können. In einer Folgearbeit sollen die hier erarbeiteten Grundlagen helfen, Hautmodelle in der Erforschung der akuten GvHD der Haut zu bearbeiten.
Lagrange Multiplier Methods for Constrained Optimization and Variational Problems in Banach Spaces
(2018)
This thesis is concerned with a class of general-purpose algorithms for constrained minimization problems, variational inequalities, and quasi-variational inequalities in Banach spaces.
A substantial amount of background material from Banach space theory, convex analysis, variational analysis, and optimization theory is presented, including some results which are refinements of those existing in the literature. This basis is used to formulate an augmented Lagrangian algorithm with multiplier safeguarding for the solution of constrained optimization problems in Banach spaces. The method is analyzed in terms of local and global convergence, and many popular problem classes such as nonlinear programming, semidefinite programming, and function space optimization are shown to be included as special cases of the general setting.
The algorithmic framework is then extended to variational and quasi-variational inequalities, which include, by extension, Nash and generalized Nash equilibrium problems. For these problem classes, the convergence is analyzed in detail. The thesis then presents a rich collection of application examples for all problem classes, including implementation details and numerical results.
Röntgencomputertomographie (CT) hat in ihrer industriellen Anwendung ein sehr breites Spektrum möglicher Prüfobjekte. Ziel einer CT-Messung sind dreidimensionale Abbilder der Verteilung des Schwächungskoeffizienten der Objekte mit möglichst großer Genauigkeit. Die Parametrierung eines CT-Systems für ein optimales Messergebnis hängt stark vom zu untersuchenden Objekt ab. Eine Vorhersage der optimalen Parameter muss die physikalischen Wechselwirkungen mit Röntgenstrahlung des Objektes und des CT-Systems berücksichtigen. Die vorliegende Arbeit befasst sich damit, diese Wechselwirkungen zu modellieren und mit der Möglichkeit den Prozess zur Parametrierung anhand von Gütemaßen zu automatisieren. Ziel ist eine simulationsgetriebene, automatische Parameteroptimierungsmethode, welche die Objektabhängigkeit berücksichtigt. Hinsichtlich der Genauigkeit und der Effizienz wird die bestehende Röntgensimulationsmethodik erweitert. Es wird ein Ansatz verfolgt, der es ermöglicht, die Simulation eines CT-Systems auf reale Systeme zu kalibrieren. Darüber hinaus wird ein Modell vorgestellt, welches zur Berechnung der zweiten Ordnung der Streustrahlung im Objekt dient. Wegen des analytischen Ansatzes kann dabei auf eine Monte-Carlo Methode verzichtet werden. Es gibt in der Literatur bisher keine eindeutige Definition für die Güte eines CT-Messergebnisses. Eine solche Definition wird, basierend auf der Informationstheorie von Shannon, entwickelt. Die Verbesserungen der Simulationsmethodik sowie die Anwendung des Gütemaßes zur simulationsgetriebenen Parameteroptimierung werden in Beispielen erfolgreich angewendet beziehungsweise mittels Referenzmethoden validiert.
The Software Defined Networking (SDN) paradigm offers network operators numerous improvements in terms of flexibility, scalability, as well as cost efficiency and vendor independence. However, in order to maximize the benefit from these features, several new challenges in areas such as management and orchestration need to be addressed. This dissertation makes contributions towards three key topics from these areas.
Firstly, we design, implement, and evaluate two multi-objective heuristics for the SDN controller placement problem. Secondly, we develop and apply mechanisms for automated decision making based on the Pareto frontiers that are returned by the multi-objective optimizers. Finally, we investigate and quantify the performance benefits for the SDN control plane that can be achieved by integrating information from external entities such as Network Management Systems (NMSs) into the control loop. Our evaluation results demonstrate the impact of optimizing various parameters of softwarized networks at different levels and are used to derive guidelines for an efficient operation.
Maps are the main tool to represent geographical information. Users often zoom in and out to access maps at different scales. Continuous map generalization tries to make the changes between different scales smooth, which is essential to provide users with comfortable zooming experience.
In order to achieve continuous map generalization with high quality, we optimize some important aspects of maps. In this book, we have used optimization in the generalization of land-cover areas, administrative boundaries, buildings, and coastlines. According to our experiments, continuous map generalization indeed benefits from optimization.
This thesis is concerned with the solution of control and state constrained optimal control problems, which are governed by elliptic partial differential equations. Problems of this type are challenging since they suffer from the low regularity of the multiplier corresponding to the state constraint. Applying an augmented Lagrangian method we overcome these difficulties by working with multiplier approximations in $L^2(\Omega)$. For each problem class, we introduce the solution algorithm, carry out a thoroughly convergence analysis and illustrate our theoretical findings with numerical examples.
The thesis is divided into two parts. The first part focuses on classical PDE constrained optimal control problems. We start by studying linear-quadratic objective functionals, which include the standard tracking type term and an additional regularization term as well as the case, where the regularization term is replaced by an $L^1(\Omega)$-norm term, which makes the problem ill-posed. We deepen our study of the augmented Lagrangian algorithm by examining the more complicated class of optimal control problems that are governed by a semilinear partial differential equation.
The second part investigates the broader class of multi-player control problems. While the examination of jointly convex generalized Nash equilibrium problems (GNEP) is a simple extension of the linear elliptic optimal control case, the complexity is increased significantly for pure GNEPs. The existence of solutions of jointly convex GNEPs is well-studied. However, solution algorithms may suffer from non-uniqueness of solutions. Therefore, the last part of this thesis is devoted to the analysis of the uniqueness of normalized equilibria.
ADMM-Type Methods for Optimization and Generalized Nash Equilibrium Problems in Hilbert Spaces
(2020)
This thesis is concerned with a certain class of algorithms for the solution of constrained optimization problems and generalized Nash equilibrium problems in Hilbert spaces. This class of algorithms is inspired by the alternating direction method of multipliers (ADMM) and eliminates the constraints using an augmented Lagrangian approach. The alternating direction method consists of splitting the augmented Lagrangian subproblem into smaller and more easily manageable parts.
Before the algorithms are discussed, a substantial amount of background material, including the theory of Banach and Hilbert spaces, fixed-point iterations as well as convex and monotone set-valued analysis, is presented. Thereafter, certain optimization problems and generalized Nash equilibrium problems are reformulated and analyzed using variational inequalities and set-valued mappings. The analysis of the algorithms developed in the course of this thesis is rooted in these reformulations as variational inequalities and set-valued mappings.
The first algorithms discussed and analyzed are one weakly and one strongly convergent ADMM-type algorithm for convex, linearly constrained optimization. By equipping the associated Hilbert space with the correct weighted scalar product, the analysis of these two methods is accomplished using the proximal point method and the Halpern method.
The rest of the thesis is concerned with the development and analysis of ADMM-type algorithms for generalized Nash equilibrium problems that jointly share a linear equality constraint. The first class of these algorithms is completely parallelizable and uses a forward-backward idea for the analysis, whereas the second class of algorithms can be interpreted as a direct extension of the classical ADMM-method to generalized Nash equilibrium problems.
At the end of this thesis, the numerical behavior of the discussed algorithms is demonstrated on a collection of examples.
This thesis is concerned with applying the total variation (TV) regularizer to surfaces and different types of shape optimization problems. The resulting problems are challenging since they suffer from the non-differentiability of the TV-seminorm, but unlike most other priors it favors piecewise constant solutions, which results in piecewise flat geometries for shape optimization problems.The first part of this thesis deals with an analogue of the TV image reconstruction approach [Rudin, Osher, Fatemi (Physica D, 1992)] for images on smooth surfaces. A rigorous analytical framework is developed for this model and its Fenchel predual, which is a quadratic optimization problem with pointwise inequality constraints on the surface. A function space interior point method is proposed to solve it. Afterwards, a discrete variant (DTV) based on a nodal quadrature formula is defined for piecewise polynomial, globally discontinuous and continuous finite element functions on triangulated surface meshes. DTV has favorable properties, which include a convenient dual representation. Next, an analogue of the total variation prior for the normal vector field along the boundary of smooth shapes in 3D is introduced. Its analysis is based on a differential geometric setting in which the unit normal vector is viewed as an element of the two-dimensional sphere manifold. Shape calculus is used to characterize the relevant derivatives and an variant of the split Bregman method for manifold valued functions is proposed. This is followed by an extension of the total variation prior for the normal vector field for piecewise flat surfaces and the previous variant of split Bregman method is adapted. Numerical experiments confirm that the new prior favours polyhedral shapes.
Optimization problems with composite functions deal with the minimization of the sum
of a smooth function and a convex nonsmooth function. In this thesis several numerical
methods for solving such problems in finite-dimensional spaces are discussed, which are
based on proximity operators.
After some basic results from convex and nonsmooth analysis are summarized, a first-order
method, the proximal gradient method, is presented and its convergence properties are
discussed in detail. Known results from the literature are summarized and supplemented by
additional ones. Subsequently, the main part of the thesis is the derivation of two methods
which, in addition, make use of second-order information and are based on proximal Newton
and proximal quasi-Newton methods, respectively. The difference between the two methods
is that the first one uses a classical line search, while the second one uses a regularization
parameter instead. Both techniques lead to the advantage that, in contrast to many similar
methods, in the respective detailed convergence analysis global convergence to stationary
points can be proved without any restricting precondition. Furthermore, comprehensive
results show the local convergence properties as well as convergence rates of these algorithms,
which are based on rather weak assumptions. Also a method for the solution of the arising
proximal subproblems is investigated.
In addition, the thesis contains an extensive collection of application examples and a detailed
discussion of the related numerical results.
This thesis, first, is devoted to the theoretical and numerical investigation of an augmented Lagrangian method for the solution of optimization problems with geometric constraints, subsequently, as well as constrained structured optimization problems featuring a composite objective function and set-membership constraints. It is then concerned to convergence and rate-of-convergence analysis of proximal gradient methods for the composite optimization problems in the presence of the Kurdyka--{\L}ojasiewicz property without global Lipschitz assumption.