Refine
Has Fulltext
- yes (21)
Is part of the Bibliography
- yes (21)
Year of publication
Document Type
- Doctoral Thesis (21)
Keywords
- Optimierung (21) (remove)
ADMM-Type Methods for Optimization and Generalized Nash Equilibrium Problems in Hilbert Spaces
(2020)
This thesis is concerned with a certain class of algorithms for the solution of constrained optimization problems and generalized Nash equilibrium problems in Hilbert spaces. This class of algorithms is inspired by the alternating direction method of multipliers (ADMM) and eliminates the constraints using an augmented Lagrangian approach. The alternating direction method consists of splitting the augmented Lagrangian subproblem into smaller and more easily manageable parts.
Before the algorithms are discussed, a substantial amount of background material, including the theory of Banach and Hilbert spaces, fixed-point iterations as well as convex and monotone set-valued analysis, is presented. Thereafter, certain optimization problems and generalized Nash equilibrium problems are reformulated and analyzed using variational inequalities and set-valued mappings. The analysis of the algorithms developed in the course of this thesis is rooted in these reformulations as variational inequalities and set-valued mappings.
The first algorithms discussed and analyzed are one weakly and one strongly convergent ADMM-type algorithm for convex, linearly constrained optimization. By equipping the associated Hilbert space with the correct weighted scalar product, the analysis of these two methods is accomplished using the proximal point method and the Halpern method.
The rest of the thesis is concerned with the development and analysis of ADMM-type algorithms for generalized Nash equilibrium problems that jointly share a linear equality constraint. The first class of these algorithms is completely parallelizable and uses a forward-backward idea for the analysis, whereas the second class of algorithms can be interpreted as a direct extension of the classical ADMM-method to generalized Nash equilibrium problems.
At the end of this thesis, the numerical behavior of the discussed algorithms is demonstrated on a collection of examples.
Applications in various research areas such as signal processing, quantum computing, and computer vision, can be described as constrained optimization tasks on certain subsets of tensor products of vector spaces. In this work, we make use of techniques from Riemannian geometry and analyze optimization tasks on subsets of so-called simple tensors which can be equipped with a differentiable structure. In particular, we introduce a generalized Rayleigh-quotient function on the tensor product of Grassmannians and on the tensor product of Lagrange- Grassmannians. Its optimization enables a unified approach to well-known tasks from different areas of numerical linear algebra, such as: best low-rank approximations of tensors (data compression), computing geometric measures of entanglement (quantum computing) and subspace clustering (image processing). We perform a thorough analysis on the critical points of the generalized Rayleigh-quotient and develop intrinsic numerical methods for its optimization. Explicitly, using the techniques from Riemannian optimization, we present two type of algorithms: a Newton-like and a conjugated gradient algorithm. Their performance is analysed and compared with established methods from the literature.
Magnetic resonance imaging (MRI) is a medical imaging method that involves no ionizing radiation and can be used non-invasively. Another important - if not the most important - reason for the widespread and increasing use of MRI in clinical practice is its interesting and highly flexible image contrast, especially of biological tissue. The main disadvantages of MRI, compared to other widespread imaging modalities like computed tomography (CT), are long measurement times and the directly resulting high costs. In the first part of this work, a new technique for accelerated MRI parameter mapping using a radial IR TrueFISP sequence is presented. IR TrueFISP is a very fast method for the simultaneous quantification of proton density, the longitudinal relaxation time T1, and the transverse relaxation time T2. Chapter 2 presents speed improvements to the original IR TrueFISP method. Using a radial view-sharing technique, it was possible to obtain a full set of relaxometry data in under 6 s per slice. Furthermore, chapter 3 presents the investigation and correction of two major sources of error of the IR TrueFISP method, namely magnetization transfer and imperfect slice profiles. In the second part of this work, a new MRI thermometry method is presented that can be used in MRI-safety investigations of medical implants, e.g. cardiac pacemakers and implantable cardioverter-defibrillators (ICDs). One of the major safety risks associated with MRI examinations of pacemaker and ICD patients is RF induced heating of the pacing electrodes. The design of MRI-safe (or MRI-conditional) pacing electrodes requires elaborate testing. In a first step, many different electrode shapes, electrode positions and sequence parameters are tested in a gel phantom with its geometry and conductivity matched to a human body. The resulting temperature increase is typically observed using temperature probes that are placed at various positions in the gel phantom. An alternative to this local thermometry approach is to use MRI for the temperature measurement. Chapter 5 describes a new approach for MRI thermometry that allows MRI thermometry during RF heating caused by the MRI sequence itself. Specifically, a proton resonance frequency (PRF) shift MRI thermometry method was combined with an MR heating sequence. The method was validated in a gel phantom, with a copper wire serving as a simple model for a medical implant.
Die Produktionsplanung und -steuerung (PPS) ist für nahezu jedes fertigende Unternehmen – sowohl im Hinblick auf Lagerbestands- und Kostenoptimierung, als auch für eine termintreue Lieferbereitschaft sowie die dadurch bedingte Kundenzufriedenheit – von zentraler Bedeutung und leistet somit einen erheblichen Beitrag für den Erhalt bzw. den Ausbau der Wettbewerbsfähigkeit. Dabei stellen die Interdependenzen der verschiedenen Teilbereiche innerhalb der PPS sowie zwischen den vor- und nachgelagerten Planungsaufgaben eine – im Zuge der zunehmend angestrebten Integration der gesamten Wertschöpfungskette – immer größer werdende Herausforderung dar.
Diese Arbeit widmet sich mit der Planungsaufgabe der Ermittlung kostenminimaler Losgrößen bei simultaner Festlegung der optimalen Produktionsreihenfolge (Economic Lot Scheduling Problem (ELSP) oder Lossequenzproblem) einem zentralen Teilbereich der PPS. Diese Problemstellung ist insbesondere für den Fall einer Serien- und Sortenfertigung von Relevanz, bei dem mehrere, artverwandte Erzeugnisse im Wechsel auf einer Fertigungsanlage mit beschränkter Kapazität bearbeitet werden. Da die Bestimmung der Fertigungslosgrößen und der Produktionsreihenfolge bei der Ermittlung einer überschneidungsfreien Maschinenbelegung unmittelbar miteinander korrelieren, sollte deren Planung zur bestmöglichen Ausnutzung der Kapazitäten und Minimierung der Kosten nicht sukzessiv, sondern weitestgehend simultan erfolgen. Durch diesen Zusammenhang entsteht eine im Allgemeinen nicht triviale und lediglich mittels spezieller Heuristiken adäquat lösbare Planungsaufgabe. Letztere soll in dieser Arbeit um die Möglichkeit des Lossplittings im Sinne einer überlappenden Fertigung (Teil- oder Transportlosbildung) erweitert werden. Dieses logistische Konzept innerhalb der Produktion geht im Allgemeinen sowohl mit einer Verkürzung der Durchlaufzeiten, als auch mit einer Verringerung der Lagerbestände einher.
Vor diesem Hintergrund findet eingangs zunächst eine allgemeine Einordung bzw. Abgrenzung der Aufgaben und des Umfelds der simultanen Losgrößen- und Reihenfolgeplanung im Rahmen der PPS statt. Anschließend werden die prinzipiell unterschiedlichen Ansätze zur Lösung des ELSP, mit ihren jeweils individuellen Annahmen und Eigenschaften dargestellt. Hierbei wird insbesondere auf die chronologische Entwicklung des Basisperiodenansatzes (BPA) in der Literatur eingegangen, da dieser im weiteren Verlauf der Arbeit eine zentrale Rolle einnimmt. Abschließend werden die Zusammenhänge zwischen den strukturell verschiedenen Lösungsansätzen zum ELSP nochmals zusammenfassend erörtert sowie eine Auswertung zu deren relativer Verbreitung in der wissenschaftlichen Literatur präsentiert.
Nach der Erörterung zweier alternativer Lagerhaltungsmodelle zur Berücksichtigung von Lossplitting im Sinne einer überlappenden Fertigung bildet deren Integration in ausgewählte Lösungsansätze zum ELSP den Hauptteil der Arbeit. Hierfür wird zur Identifizierung und Eingrenzung potentiellen Forschungsbedarfs zunächst ein dedizierter Literaturüberblick gegeben, der eine Kategorisierung der bis dato im engeren Sinne relevanten Veröffentlichungen beinhaltet. Die daraus abgeleiteten Forschungsziele bzw. -fragen werden anschließend in fünf Punkten konkretisiert und beinhalten im Kern die Entwicklung von Modellen zur Berücksichtigung des Lossplittings im ELSP. Dabei wird sowohl das Common Cycle Modell (CCM), als auch der Ansatz variierender Losgrößen (TVL) einbezogen, jedoch steht vor allem eine Heuristik nach dem BPA im Fokus der Ausführungen. Des Weiteren werden bestehende Ansätze zur Integration der Teillosbildung im CCM aus einer neuen Perspektive betrachtet und bezüglich eines eventuellen Optimierungspotentials des Lösungswegs analysiert. Zu den neu entwickelten bzw. erweiterten Modellen werden für die Lösungsfindung Algorithmen formuliert und implementiert, die für beide Alternativen der Teillosbildung eine für alle Produkte einheitliche oder sortenindividuelle Transporthäufigkeit erlauben.
Die Evaluation der entwickelten Modelle erfolgt sowohl anhand von ausgewählten Referenzdatensätzen aus der Literatur als auch auf Basis von insgesamt 4000 zufallsgenerierten Parameterkonstellationen. Dabei liegt der Schwerpunkt der Auswertungen auf einer Ergebnisanalyse hinsichtlich der Höhe des Kosteneinsparungspotentials, das durch die Teillosbildung im BPA zum einen gegenüber der „geschlossenen Fertigung“ und zum anderen im Vergleich zu bestehenden Ansätzen mit Lossplitting im CCM erzielbar ist. Die diesbezüglich gewonnenen Erkenntnisse sowie weitere, aus den Resultaten ableitbare Zusammenhänge werden umfassend diskutiert und interpretiert, so dass letztendlich eine Grundlage zur Ableitung von Handlungsempfehlungen gelegt wird. Die Arbeit schließt mit einem Resümee und der kritischen Würdigung der Forschungsziele bzw. -fragen sowie einem Ausblick auf weiteren Forschungsbedarf.
Die Magnet-Resonanz (MR)-Bildgebung ist mit vielfältigen Anwendungen ein nicht mehr wegzudenkendes Instrument der klinischen Diagnostik geworden. Dennoch führt die stark limitierte Messzeit häufig zu einer Einschränkung der erzielbaren räumlichen Auflösung und Abdeckung, einer Beschränkung des Signal-zu-Rauschverhältnis (Signal-to-Noise Ratio) (SNR) sowie einer Signalkontamination durch benachbartes Gewebe. Bereits bestehende Methoden zur Reduktion der Akquisitionszeit sind die partielle Fourier (PF)-Bildgebung und die parallele Bildgebung (PPA). Diese unterscheiden sich zum einen im Schema zur Unterabtastung des k-Raums und zum anderen in der verwendeten Information zur Rekonstruktion der fehlenden k-Raum-Daten aufgrund der beschleunigten Akquisition. Während in der PPA die unterschiedlichen Sensitivitäten einer Mehrkanal-Empfangsspule zur Bildrekonstruktion verwendet werden, basiert die PF-Bildgebung auf der Annahme einer langsamen Variation der Bildphase. Im ersten Abschnitt dieser Arbeit wurde das Konzept der Virtuellen Spulendekonvolutions (Virtual Coil Deconvolution) (VIDE)-Technik vorgestellt, das das gleiche Schema der Unterabtastung des k-Raums wie die konventionelle PPA verwendet, aber anstelle der Spulensensitivität die Bildphase als zusätzliche Information zur Herstellung der fehlenden Daten der beschleunigten Bildgebung verwendet. Zur Minimierung der Rekonstruktionsfehler und der Rauschverstärkung in der VIDE-Technik wurde ein optimiertes Akquisitionsschema entwickelt. Die Kombination der PPA und PF-Bildgebung zur Beschleunigung der MR-Bildgebung wird durch das unterschiedliche Unterabtastschema erschwert. Wie Blaimer et al. in ihrer Arbeit gezeigt haben, kann das Prinzip der VIDE-Technik auf Mehrkanal-Spulen übertragen werden, sodass mit dieser Methode die PPA und die PF-Bildgebung optimal vereint werden können. Dadurch kann die Rauschverstärkung aufgrund der Spulengeometrie ohne zusätzliche Messungen deutlich reduziert werden. Obwohl die Abtastung des k-Raums in der MR-Bildgebung sehr variabel gestaltet werden kann, wird bis heute nahezu ausschließlich die regelmäßige k-Raum-Abtastung in der klinischen Bildgebung verwendet. Der Grund hierfür liegt, neben der schnellen Rekonstruktion und der einfachen Gestaltung der Variation des Bild-Kontrasts, in der Robustheit gegen Artefakte. Allerdings führt die regelmäßige k-Raum-Abtastung zu einer hohen Signalkontamination. Die Optimierung der SRF durch nachträgliches Filtern führt jedoch zu einem SNR-Verlust. Die dichtegewichtete (DW-) Bildgebung ermöglicht die Reduktion der Signal-Kontamination bei optimalem SNR, führt aber zur einer Reduktion des effektiven Gesichtsfelds (FOV) oder einer Erhöhung der Messzeit. Letzteres kann durch eine Kombination der PPA und DW-Bildgebung umgangen werden. Der zweite Teil dieser Arbeit befasste sich mit neuen Aufnahme- und Rekonstruktionsstrategien für die DW-Bildgebung, die eine Erhöhung des FOVs auch ohne Einsatz der PPA erlauben. Durch eine Limitierung der minimalen k-Raum-Abtastdichte konnte durch eine geringfügige Reduktion des SNR-Vorteils der DW-Bildgebung gegenüber der kartesischen, gefilterten Bildgebung eine deutliche Verringerung der Artefakte aufgrund der Unterabtastung in der DW-Bildgebung erreicht werden. Eine asymmetrische Abtastung kann unter der Voraussetzung einer homogenen Bildphase das Aliasing zusätzlich reduzieren. Durch die Rekonstruktion der DW-Daten mit der Virtuelle Spulendekonvolution für die effektive DW-Bildgebung (VIDED)-Bildgebung konnten die Artefakte aufgrund der Unterabtastung eliminiert werden. In der 3d-Bildgebung konnte durch Anwendung der modifizierten DW-Bildgebung eine Steigerung des FOVs in Schichtrichtung ohne Messzeitverlängerung erreicht werden. Die nicht-kartesische k-Raum-Abtastung führt im Fall einer Unterabtastung zu deutlich geringeren, inkohärenten Aliasingartefakten im Vergleich zur kartesischen Abtastung. Durch ein alternierendes DW-Abtastschema wurde eine an die in der MR-Mammografie verwendete Spulengeometrie angepasste k-Raum-Abtastung entwickelt, das bei gleicher Messzeit die räumliche Auflösung, das SNR und das FOV erhöht. Im dritten Teil dieser Arbeit wurde die Verallgemeinerung der DW-Bildgebung auf signalgewichtete Sequenzen, d.h. Sequenzen mit Magnetisierungspräparation (Inversion Recovery (IR), Saturation Recovery (SR)) sowie Sequenzen mit einer Relaxation während der Datenaufnahme (Multi-Gradienten-Echo, Multi-Spin-Echo) vorgestellt, was eine Steigerung der Bildqualität bei optimalem SNR erlaubt. Die Methode wurde auf die SR-Sequenz angewendet und deren praktischer Nutzen wurde in der Herz-Perfusions-Bildgebung gezeigt. Durch die Verwendung der in dieser Arbeit vorgestellten Technik konnte eine Reduktion der Kontamination bei einem SNR-Gewinn von 16% im Vergleich zur konventionellen, kartesischen Abtastung bei gleicher Messzeit erreicht werden.
Grundvoraussetzung einer erfolgreichen zementlosen Endoprothesenverankerungen ist eine hohe Primärstabilität durch formschlüssige Implantation. Nach erfolgreicher Primärfixation entscheidet über die Langzeitfunktion neben der Verschleißsituation insbesondere die funktionelle Spannungsverteilung an der Implantatoberfläche und im angrenzenden Knochen. Um optimale Bedingungen im Bereich der Grenzfläche zwischen Werkstoff und Biosystem zu schaffen, ist die präzise Präparation des Knochens entscheidend. Hierbei spielt neben dem Operateur und der Beschaffenheit des Knochens das verwendete System zur Zerspanung, bestehend aus der Säge und dem Sägeblatt, eine wichtige Rolle. Oszillierende Sägen werden neben der Gipsbehandlung ausschließlich bei der Knochenbearbeitung verwendet, wobei Fragestellungen zu Leistungs- und Qualitätssteigerung auftreten. Ansatzpunkt ist unter anderem das Sägeblatt. Die Modellvielfalt der auf dem Markt erhältlichen Sägeblätter erschwert die richtige Auswahl. Bei verschiedenen Modellen und deren unterschiedlichen Ausführungen ist es schwierig, Vergleiche anzustellen und Verbesserungen einzuführen. Die Charakteristik eines Sägeblattes ist durch die Schärfe beschrieben, um eine schnelle Zerspanung des Knochens zu gewährleisten, und durch die Steifigkeit des Blattes, um eine möglichst geringe Abweichung aus der Sägelinie sicherzustellen. Die Schärfe des Sägeblattes ist von der Zahnform und -geometrie abhängig. Die Steifigkeit ist abhängig von Material, Geometrie, Ausführung und Eigenschwingung/Eigenform des Blattes. Modifikationen an diesem System führen auch zu einer veränderten Eigenform des Sägeblattes. In der folgender Arbeit wurden verschiedene Ausführungen von Sägeblättern hinsichtlich ihrer Eigenform charakterisiert. In einem praktischen Versuch wurde versucht, den Einfluss des Sägeblattes auf die Vibration im Knochen von dem der Säge abzugrenzen. Ziel der Studie war daher die Berechnung der Eigenform der Sägeblätter, die experimentelle Überprüfung der Eigenform und die Abgrenzung des Einflusses von Sägeblatt und Säge auf die Vibration beim Sägevorgang. 9 verschiedene Sägeblätter unterschiedlicher Form und Geometrie wurden untersucht. Zunächst wurde eine Eigenformberechnung mittels der Finiten Elemente Methode durchgeführt. Anschließend erfolgte die Eigenformbestimmung im Shakerversuch. Um den Einfluss der Sägeblätter auf die Beschleunigung im Knochen von dem der Säge abzugrenzen erfolgte die Beschleunigungsmessung in einem Sägeprüfstand. Bezüglich des Eigenschwingungsverhalten konnten die Sägeblätter drei Gruppen zugeordnet werden. Als optimal erweist sich anhand der Eigenformberechnung und -bestimmung ein Sägeblatt mit 2 Löchern und einer Prägung von 136 bar. Hier zeigte sich eine Reduzierung der Maximal-Amplitude von 15,3 % und der Minimal-Amplitude von 23,5 %.
At the center of the Internet’s protocol stack stands the Internet Protocol (IP) as a common denominator that enables all communication. To make routing efficient, resilient, and scalable, several aspects must be considered. Care must be taken that traffic is well balanced to make efficient use of the existing network resources, both in failure free operation and in failure scenarios.
Finding the optimal routing in a network is an NP-complete problem. Therefore, routing optimization is usually performed using heuristics. This dissertation shows that a routing optimized with one objective function is often not good when looking at other objective functions. It can even be worse than unoptimized routing with respect to that objective function. After looking at failure-free routing and traffic distribution in different failure scenarios, the analysis is extended to include the loop-free alternate (LFA) IP fast reroute mechanism. Different application scenarios of LFAs are examined and a special focus is set on the fact that LFAs usually cannot protect all traffic in a network even against single link failures. Thus, the routing optimization for LFAs is targeted on both link utilization and failure coverage. Finally, the pre-congestion notification mechanism PCN for network admission control and overload protection is analyzed and optimized. Different design options for implementing the protocol are compared, before algorithms are developed for the calculation and optimization of protocol parameters and PCN-based routing.
The second part of the thesis tackles a routing problem that can only be resolved on a global scale. The scalability of the Internet is at risk since a major and intensifying growth of the interdomain routing tables has been observed. Several protocols and architectures are analyzed that can be used to make interdomain routing more scalable. The most promising approach is the locator/identifier (Loc/ID) split architecture which separates routing from host identification. This way, changes in connectivity, mobility of end hosts, or traffic-engineering activities are hidden from the routing in the core of the Internet and the routing tables can be kept much smaller. All of the currently proposed Loc/ID split approaches have their downsides. In particular, the fact that most architectures use the ID for routing outside the Internet’s core is a poor design, which inhibits many of the possible features of a new routing architecture. To better understand the problems and to provide a solution for a scalable routing design that implements a true Loc/ID split, the new GLI-Split protocol is developed in this thesis, which provides separation of global and local routing and uses an ID that is independent from any routing decisions.
Besides GLI-Split, several other new routing architectures implementing Loc/ID split have been proposed for the Internet. Most of them assume that a mapping system is queried for EID-to-RLOC mappings by an intermediate node at the border of an edge network. When the mapping system is queried by an intermediate node, packets are already on their way towards their destination, and therefore, the mapping system must be fast, scalable, secure, resilient, and should be able to relay packets without locators to nodes that can forward them to the correct destination. The dissertation develops a classification for all proposed mapping system architectures and shows their similarities and differences. Finally, the fast two-level mapping system FIRMS is developed. It includes security and resilience features as well as a relay service for initial packets of a flow when intermediate nodes encounter a cache miss for the EID-to-RLOC mapping.
This thesis is concerned with applying the total variation (TV) regularizer to surfaces and different types of shape optimization problems. The resulting problems are challenging since they suffer from the non-differentiability of the TV-seminorm, but unlike most other priors it favors piecewise constant solutions, which results in piecewise flat geometries for shape optimization problems.The first part of this thesis deals with an analogue of the TV image reconstruction approach [Rudin, Osher, Fatemi (Physica D, 1992)] for images on smooth surfaces. A rigorous analytical framework is developed for this model and its Fenchel predual, which is a quadratic optimization problem with pointwise inequality constraints on the surface. A function space interior point method is proposed to solve it. Afterwards, a discrete variant (DTV) based on a nodal quadrature formula is defined for piecewise polynomial, globally discontinuous and continuous finite element functions on triangulated surface meshes. DTV has favorable properties, which include a convenient dual representation. Next, an analogue of the total variation prior for the normal vector field along the boundary of smooth shapes in 3D is introduced. Its analysis is based on a differential geometric setting in which the unit normal vector is viewed as an element of the two-dimensional sphere manifold. Shape calculus is used to characterize the relevant derivatives and an variant of the split Bregman method for manifold valued functions is proposed. This is followed by an extension of the total variation prior for the normal vector field for piecewise flat surfaces and the previous variant of split Bregman method is adapted. Numerical experiments confirm that the new prior favours polyhedral shapes.
Routing is one of the most important issues in any communication network. It defines on which path packets are transmitted from the source of a connection to the destination. It allows to control the distribution of flows between different locations in the network and thereby is a means to influence the load distribution or to reach certain constraints imposed by particular applications. As failures in communication networks appear regularly and cannot be completely avoided, routing is required to be resilient against such outages, i.e., routing still has to be able to forward packets on backup paths even if primary paths are not working any more.
Throughout the years, various routing technologies have been introduced that are very different in their control structure, in their way of working, and in their ability to handle certain failure cases. Each of the different routing approaches opens up their own specific questions regarding configuration, optimization, and inclusion of resilience issues. This monograph investigates, with the example of three particular routing technologies, some concrete issues regarding the analysis and optimization of resilience. It thereby contributes to a better general, technology-independent understanding of these approaches and of their diverse potential for the use in future network architectures.
The first considered routing type, is decentralized intra-domain routing based on administrative IP link costs and the shortest path principle. Typical examples are common today's intra-domain routing protocols OSPF and IS-IS. This type of routing includes automatic restoration abilities in case of failures what makes it in general very robust even in the case of severe network outages including several failed components. Furthermore, special IP-Fast Reroute mechanisms allow for a faster reaction on outages. For routing based on link costs, traffic engineering, e.g. the optimization of the maximum relative link load in the network, can be done indirectly by changing the administrative link costs to adequate values.
The second considered routing type, MPLS-based routing, is based on the a priori configuration of primary and backup paths, so-called Label Switched Paths. The routing layout of MPLS paths offers more freedom compared to IP-based routing as it is not restricted by any shortest path constraints but any paths can be setup. However, this in general involves a higher configuration effort.
Finally, in the third considered routing type, typically centralized routing using a Software Defined Networking (SDN) architecture, simple switches only forward packets according to routing decisions made by centralized controller units. SDN-based routing layouts offer the same freedom as for explicit paths configured using MPLS. In case of a failure, new rules can be setup by the controllers to continue the routing in the reduced topology. However, new resilience issues arise caused by the centralized architecture. If controllers are not reachable anymore, the forwarding rules in the single nodes cannot be adapted anymore. This might render a rerouting in case of connection problems in severe failure scenarios infeasible.
This thesis is concerned with the solution of control and state constrained optimal control problems, which are governed by elliptic partial differential equations. Problems of this type are challenging since they suffer from the low regularity of the multiplier corresponding to the state constraint. Applying an augmented Lagrangian method we overcome these difficulties by working with multiplier approximations in $L^2(\Omega)$. For each problem class, we introduce the solution algorithm, carry out a thoroughly convergence analysis and illustrate our theoretical findings with numerical examples.
The thesis is divided into two parts. The first part focuses on classical PDE constrained optimal control problems. We start by studying linear-quadratic objective functionals, which include the standard tracking type term and an additional regularization term as well as the case, where the regularization term is replaced by an $L^1(\Omega)$-norm term, which makes the problem ill-posed. We deepen our study of the augmented Lagrangian algorithm by examining the more complicated class of optimal control problems that are governed by a semilinear partial differential equation.
The second part investigates the broader class of multi-player control problems. While the examination of jointly convex generalized Nash equilibrium problems (GNEP) is a simple extension of the linear elliptic optimal control case, the complexity is increased significantly for pure GNEPs. The existence of solutions of jointly convex GNEPs is well-studied. However, solution algorithms may suffer from non-uniqueness of solutions. Therefore, the last part of this thesis is devoted to the analysis of the uniqueness of normalized equilibria.