TY - THES A1 - Breitenbach, Tim T1 - A sequential quadratic Hamiltonian scheme for solving optimal control problems with non-smooth cost functionals T1 - Ein sequentielles quadratisches Hamilton Schema um Optimalsteuerprobleme mit nicht-glatten Kostenfunktionalen zu lösen N2 - This thesis deals with a new so-called sequential quadratic Hamiltonian (SQH) iterative scheme to solve optimal control problems with differential models and cost functionals ranging from smooth to discontinuous and non-convex. This scheme is based on the Pontryagin maximum principle (PMP) that provides necessary optimality conditions for an optimal solution. In this framework, a Hamiltonian function is defined that attains its minimum pointwise at the optimal solution of the corresponding optimal control problem. In the SQH scheme, this Hamiltonian function is augmented by a quadratic penalty term consisting of the current control function and the control function from the previous iteration. The heart of the SQH scheme is to minimize this augmented Hamiltonian function pointwise in order to determine a control update. Since the PMP does not require any differ- entiability with respect to the control argument, the SQH scheme can be used to solve optimal control problems with both smooth and non-convex or even discontinuous cost functionals. The main achievement of the thesis is the formulation of a robust and efficient SQH scheme and a framework in which the convergence analysis of the SQH scheme can be carried out. In this framework, convergence of the scheme means that the calculated solution fulfills the PMP condition. The governing differential models of the considered optimal control problems are ordinary differential equations (ODEs) and partial differential equations (PDEs). In the PDE case, elliptic and parabolic equations as well as the Fokker-Planck (FP) equation are considered. For both the ODE and the PDE cases, assumptions are formulated for which it can be proved that a solution to an optimal control problem has to fulfill the PMP. The obtained results are essential for the discussion of the convergence analysis of the SQH scheme. This analysis has two parts. The first one is the well-posedness of the scheme which means that all steps of the scheme can be carried out and provide a result in finite time. The second part part is the PMP consistency of the solution. This means that the solution of the SQH scheme fulfills the PMP conditions. In the ODE case, the following results are obtained that state well-posedness of the SQH scheme and the PMP consistency of the corresponding solution. Lemma 7 states the existence of a pointwise minimum of the augmented Hamiltonian. Lemma 11 proves the existence of a weight of the quadratic penalty term such that the minimization of the corresponding augmented Hamiltonian results in a control updated that reduces the value of the cost functional. Lemma 12 states that the SQH scheme stops if an iterate is PMP optimal. Theorem 13 proves the cost functional reducing properties of the SQH control updates. The main result is given in Theorem 14, which states the pointwise convergence of the SQH scheme towards a PMP consistent solution. In this ODE framework, the SQH method is applied to two optimal control problems. The first one is an optimal quantum control problem where it is shown that the SQH method converges much faster to an optimal solution than a globalized Newton method. The second optimal control problem is an optimal tumor treatment problem with a system of coupled highly non-linear state equations that describe the tumor growth. It is shown that the framework in which the convergence of the SQH scheme is proved is applicable for this highly non-linear case. Next, the case of PDE control problems is considered. First a general framework is discussed in which a solution to the corresponding optimal control problem fulfills the PMP conditions. In this case, many theoretical estimates are presented in Theorem 59 and Theorem 64 to prove in particular the essential boundedness of the state and adjoint variables. The steps for the convergence analysis of the SQH scheme are analogous to that of the ODE case and result in Theorem 27 that states the PMP consistency of the solution obtained with the SQH scheme. This framework is applied to different elliptic and parabolic optimal control problems, including linear and bilinear control mechanisms, as well as non-linear state equations. Moreover, the SQH method is discussed for solving a state-constrained optimal control problem in an augmented formulation. In this case, it is shown in Theorem 30 that for increasing the weight of the augmentation term, which penalizes the violation of the state constraint, the measure of this state constraint violation by the corresponding solution converges to zero. Furthermore, an optimal control problem with a non-smooth L\(^1\)-tracking term and a non-smooth state equation is investigated. For this purpose, an adjoint equation is defined and the SQH method is used to solve the corresponding optimal control problem. The final part of this thesis is devoted to a class of FP models related to specific stochastic processes. The discussion starts with a focus on random walks where also jumps are included. This framework allows a derivation of a discrete FP model corresponding to a continuous FP model with jumps and boundary conditions ranging from absorbing to totally reflecting. This discussion allows the consideration of the drift-control resulting from an anisotropic probability of the steps of the random walk. Thereafter, in the PMP framework, two drift-diffusion processes and the corresponding FP models with two different control strategies for an optimal control problem with an expectation functional are considered. In the first strategy, the controls depend on time and in the second one, the controls depend on space and time. In both cases a solution to the corresponding optimal control problem is characterized with the PMP conditions, stated in Theorem 48 and Theorem 49. The well-posedness of the SQH scheme is shown in both cases and further conditions are discussed that ensure the convergence of the SQH scheme to a PMP consistent solution. The case of a space and time dependent control strategy results in a special structure of the corresponding PMP conditions that is exploited in another solution method, the so-called direct Hamiltonian (DH) method. N2 - Diese Dissertation handelt von einem neuen so genannten sequentiellen quadratischen Hamilton (SQH) iterativen Schema um Optimalsteuerungsprobleme mit Differentialmodellen und Kostenfunktionalen, die von glatt bis zu unstetig und nicht-konvex reichen, zu lösen. Dieses Schema basiert auf dem Pontryagin Maximumprinzip (PMP), welches notwendige Optimalitätsbedingungen für eine optimale Lösung zur Verfügung stellt. In diesem Rahmen wird eine Hamiltonfunktion definiert, die ihr Minimum punktweise an der optimalen Lösung des entsprechenden Optimalsteuerungsproblems annimmt. In diesem SQH Schema wird diese Hamiltonfunktion durch einen quadratischen Strafterm erweitert, der aus der aktuellen Steuerungsfunktion und der Steuerungsfunktion aus der vorherigen Iteration besteht. Das Herzstück des SQH Schemas ist die punktweise Minimierung dieser erweiterten Hamiltonfunktion um eine Aktualisierung der Steuerungsfunktion zu bestimmen. Da das PMP keine Differenzierbarkeit in Bezug auf das Steuerungsfunktionsargument verlangt, kann das SQH Schema dazu benutzt werden, Optimalsteuerungsprobleme mit sowohl glatten als auch nicht-konvexen oder sogar unstetigen Kostenfunktionalen zu lösen. Das Hauptergebnis dieser Dissertation ist die Formulierung eines robusten und effizienten SQH Schemas und eines Rahmens, in dem die Konvergenzanalyse des SQH Schemas ausgeführt werden kann. In diesem Rahmen bedeutet Konvergenz des Schemas, dass die berechnete Lösung die PMP Bedingung erfüllt. Die steuernden Differentialmodelle der betrachteten Optimalsteuerungsprobleme sind gewöhnliche Differentialgleichungen (ODEs) und partielle Differentialgleichungen (PDEs). Im PDE Fall werden elliptische und parabolische Gleichungen, sowie die Fokker-Planck (FP) Gleichung betrachtet. Für sowohl den ODE als auch den PDE Fall werden Annahmen formuliert, für die bewiesen werden kann, dass eine Lösung eines Optimalsteuerungsproblems das PMP erfüllen muss. Die erhaltenen Resultate sind für die Diskussion der Konvergenzanalyse des SQH Schemas essentiell. Diese Analyse hat zwei Teile. Der erste ist die Wohlgestelltheit des Schemas, was bedeutet, dass alle Schritte des Schemas ausgeführt werden können und ein Ergebnis in endlicher Zeit liefern. Der zweite Teil ist die PMP Konsistenz der Lösung. Das bedeutet, dass die Lösung des SQH Schemas die PMP Bedingungen erfüllt. Im ODE Fall werden die folgenden Resultate erhalten, die die Wohlgestelltheit des Schemas und die PMP Konsistenz der entsprechenden Lösung darlegen. Lemma 7 legt die Existenz eines punktweisen Minimums der erweiterten Hamiltonfunktion dar. Lemma 11 beweist die Existenz eines Gewichtes des quadratischen Strafterms, sodass die Minimierung der entsprechenden erweiterten Hamiltonfunktion zu einer Kontrollaktualisierung führt, die den Wert des Kostenfunktionals verringert. Lemma 12 legt dar, dass das SQH Schema stehen bleibt falls eine Iterierte PMP optimal ist. Satz 13 beweist die Kostenfunktional verringernden Eigenschaften der SQH Steuerungsfunktionsaktualisierung. Das Hauptresultat ist in Satz 14 gegeben, welches die punktweise Konvergenz des SQH Schemas gegen eine PMP konsistente Lösung darlegt. Das SQH-Verfahren wird in diesem ODE Rahmen auf zwei Optimalsteuerungsprobleme angewendet. Das erste ist ein optimales Quantensteuerungsproblem, bei dem gezeigt wird, dass das SQH-Verfahren viel schneller zu einer optimalen Lösung konvergiert als ein globalisiertes Newton-Verfahren. Das zweite Optimalsteuerungsproblem ist ein optimales Tumorbehandlungsproblem mit einem System gekoppelter hochgradig nicht-linearer Zustandsgleichungen, die das Tumorwachstum beschreiben. Es wird gezeigt, dass der Rahmen, in dem die Konvergenz des SQH Schemas bewiesen wird, auf diesen hochgradig nicht-linearen Fall anwendbar ist. Als nächstes wird der Fall von PDE Optimalsteuerungsprobleme betrachtet. Zunächst wird ein allgemeiner Rahmen diskutiert, in dem eine Lösung des entsprechenden Optimalsteuerungsproblem die PMP Bedingungen erfüllt. In diesem Fall werden viele theoretische Abschätzungen in Satz 59 und Satz 64 bewiesen, die insbesondere die essentielle Beschränktheit von Zustands- und Adjungiertenvariablen beweisen. Die Schritte für die Konvergenzanalyse des SQH Schemas sind analog zu denen des ODE Falls und führen zu Satz 27, der die PMP Konsistenz der Lösung, erhalten durch das SQH Schemas, darlegt. Dieser Rahmen wird auf verschiedene elliptische und parabolische Optimalsteuerungsprobleme angewendet, die lineare und bilineare Steuerungsmechanismen beinhalten, genauso wie nicht-lineare Zustandsgleichungen. Darüber hinaus wird das SQH-Verfahren zum Lösen eines zustandsbeschränkten Optimalsteuerungsproblems in einer erweiterten Formulieren diskutiert. Es wird in Satz 30 gezeigt, dass wenn man das Gewicht des Erweiterungsterms, der die Verletzung der Zustandsbeschränkung bestraft, erhöht, das Maß dieser Zustandsbeschränkungsverletzung durch die entsprechende Lösung gegen null konvergiert. Weiterhin wird ein Optimalsteuerungsproblem mit einem nicht-glatten L\(^1\)-Zielverfolgungsterm und einer nicht-glatten Zustandsgleichung untersucht. Für diesen Zweck wird eine adjungierte Gleichung definiert und das SQHVerfahren wird benutzt um das entsprechende Optimalsteuerungsproblem zu lösen. Der letzte Teil dieser Dissertation ist einer Klasse von FP Modellen gewidmet, die auf bestimmte stochastische Prozesse bezogen sind. Die Diskussion beginnt mit dem Fokus auf Random Walks bei dem auch Sprünge mit enthalten sind. Dieser Rahmen erlaubt die Herleitung eines diskreten FP Modells, das einem kontinuierlichen FP Modell mit Sprüngen und Randbedingungen entspricht, die sich zwischen absorbierend bis komplett reflektierend bewegen. Diese Diskussion erlaubt die Betrachtung der Driftsteuerung, die aus einer anisotropen Wahrscheinlichkeit für die Schritte des Random Walks resultiert. Danach werden zwei Drift-Diffusionsprozesse und die entsprechenden FP Modelle mit zwei verschiedenen Steuerungsstrategien für ein Optimalsteuerungsproblem mit Erwartungswertfunktional betrachtet. In der ersten Strategie hängen die Steuerungsfunktionen von der Zeit ab und in der zweiten hängen die Steuerungsfunktionen von Ort und Zeit ab. In beiden Fällen wird eine Lösung zum entsprechendem Optimalsteuerungsproblem mit den PMP Bedingungen charakterisiert, dargestellt in Satz 48 und Satz 49. Die Wohlgestelltheit des SQH Schemas ist in beiden Fällen gezeigt und weitere Bedingungen, die die Konvergenz des SQH Schemas zu einer PMP konsistenten Lösung sicherstellen, werden diskutiert. Der Fall einer Ort und Zeit abhängigen Steuerungsstrategie führt auf eine spezielle Struktur der entsprechenden PMP Bedingungen, die in einem weiteren Lösungsverfahren ausgenutzt werden, dem sogenannten direkten Hamiltonfunktionsverfahren (DH). KW - Optimale Kontrolle KW - Scheme for solving optimal control problems KW - Non-smooth optimal control KW - Pontryagin maximum principle KW - Sequential quadratic Hamiltonian scheme Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-182170 ER - TY - JOUR A1 - Helin, Tapio A1 - Kretschmann, Remo T1 - Non-asymptotic error estimates for the Laplace approximation in Bayesian inverse problems JF - Numerische Mathematik N2 - In this paper we study properties of the Laplace approximation of the posterior distribution arising in nonlinear Bayesian inverse problems. Our work is motivated by Schillings et al. (Numer Math 145:915–971, 2020. https://doi.org/10.1007/s00211-020-01131-1), where it is shown that in such a setting the Laplace approximation error in Hellinger distance converges to zero in the order of the noise level. Here, we prove novel error estimates for a given noise level that also quantify the effect due to the nonlinearity of the forward mapping and the dimension of the problem. In particular, we are interested in settings in which a linear forward mapping is perturbed by a small nonlinear mapping. Our results indicate that in this case, the Laplace approximation error is of the size of the perturbation. The paper provides insight into Bayesian inference in nonlinear inverse problems, where linearization of the forward mapping has suitable approximation properties. KW - Bayesian inverse problems KW - Laplace approximation KW - nonlinear inverse problems Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-265399 VL - 150 IS - 2 ER - TY - THES A1 - Pohl, Daniel T1 - Universal Locally Univalent Functions and Universal Conformal Metrics T1 - Universelle Lokal Schlichte Funktionen und Universelle Konforme Metriken N2 - The work at hand discusses various universality results for locally univalent and conformal metrics. In Chapter 2 several interesting approximation results are discussed. Runge-type Theorems for holomorphic and meromorphic locally univalent functions are shown. A well-known local approximation theorem for harmonic functions due to Keldysh is generalized to solutions of the curvature equation. In Chapter 3 and 4 these approximation theorems are used to establish universality results for locally univalent functions and conformal metrics. In particular locally univalent analogues for well-known universality results due Birkhoff, Seidel & Walsh and Heins are shown. N2 - In Kapitel 2 werden Runge-Sätze für holomorphe und meromorphe lokal schlichte Funktionen und ein lokaler Approximationsstaz für konforme Metriken mit negativer Krümmung bewiesen. Mithilfe dieser Sätze werden In Kapitel 3 und 4 Universalitätsresultate für lokal schlichte Funktionen und konforme Metriken gezeigt. KW - Schlichte Funktion KW - Konforme Metrik KW - Universal Functions KW - Conformal Metrics KW - Curvature Equation KW - Runge-type Theorems Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-177174 ER - TY - JOUR A1 - Haack, J. A1 - Hauck, C. A1 - Klingenberg, C. A1 - Pirner, M. A1 - Warnecke, S. T1 - A Consistent BGK Model with Velocity-Dependent Collision Frequency for Gas Mixtures JF - Journal of Statistical Physics N2 - We derive a multi-species BGK model with velocity-dependent collision frequency for a non-reactive, multi-component gas mixture. The model is derived by minimizing a weighted entropy under the constraint that the number of particles of each species, total momentum, and total energy are conserved. We prove that this minimization problem admits a unique solution for very general collision frequencies. Moreover, we prove that the model satisfies an H-Theorem and characterize the form of equilibrium. KW - plasma physics KW - multi-fluid mixture KW - kinetic model KW - BGK approximation KW - velocity-dependent collision frequency KW - entropy minimization Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-269146 SN - 1572-9613 VL - 184 IS - 3 ER - TY - THES A1 - Promkam, Ratthaprom T1 - Hybrid Dynamical Systems: Modeling, Stability and Interconnection T1 - Hybride Dynamische Systeme: Modellierung, Stabilität und Zusammenschaltung N2 - This work deals with a class of nonlinear dynamical systems exhibiting both continuous and discrete dynamics, which is called as hybrid dynamical system. We provide a broader framework of generalized hybrid dynamical systems allowing us to handle issues on modeling, stability and interconnections. Various sufficient stability conditions are proposed by extensions of direct Lyapunov method. We also explicitly show Lyapunov formulations of the nonlinear small-gain theorems for interconnected input-to-state stable hybrid dynamical systems. Applications on modeling and stability of hybrid dynamical systems are given by effective strategies of vaccination programs to control a spread of disease in epidemic systems. N2 - Entwicklung eines Frameworks für hybride dynamische Systeme zur Decomkosition oder Komposition solcher Systeme. Untersuchung der Stabilität von gekoppelten hybriden Systemen. KW - Dynamical system KW - Stability KW - Hybridsystem KW - Interconnection KW - Dynamical Systems KW - Lyapunov Stability KW - Hybrid Dynamical Systems KW - Small-Gain Theorem Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-190993 ER - TY - THES A1 - Zenk, Markus T1 - On Numerical Methods for Astrophysical Applications T1 - Über numerische Methoden für astrophysikalische Anwendungen N2 - Diese Arbeit befasst sich mit der Approximation der Lösungen von Modellen zur Beschreibung des Strömungsverhaltens in Atmosphären. Im Speziellen umfassen die hier behandelten Modelle die kompressiblen Euler Gleichungen der Gasdynamik mit einem Quellterm bezüglich der Gravitation und die Flachwassergleichungen mit einem nicht konstanten Bodenprofil. Verschiedene Methoden wurden bereits entwickelt um die Lösungen dieser Gleichungen zu approximieren. Im Speziellen geht diese Arbeit auf die Approximation von Lösungen nahe des Gleichgewichts und, im Falle der Euler Gleichungen, bei kleinen Mach Zahlen ein. Die meisten numerischen Methoden haben die Eigenschaft, dass die Qualität der Approximation sich mit der Anzahl der Freiheitsgrade verbessert. In der Praxis werden deswegen diese numerischen Methoden auf großen Computern implementiert um eine möglichst hohe Approximationsgüte zu erreichen. Jedoch sind auch manchmal diese großen Maschinen nicht ausreichend, um die gewünschte Qualität zu erreichen. Das Hauptaugenmerk dieser Arbeit ist darauf gerichtet, die Qualität der Approximation bei gleicher Anzahl von Freiheitsgrade zu verbessern. Diese Arbeit ist im Zusammenhang einer Kollaboration zwischen Prof. Klingenberg des Mathemaitschen Instituts in Würzburg und Prof. Röpke des Astrophysikalischen Instituts in Würzburg entstanden. Das Ziel dieser Kollaboration ist es, Methoden zur Berechnung von stellarer Atmosphären zu entwickeln. In dieser Arbeit werden vor allem zwei Problemstellungen behandelt. Die erste Problemstellung bezieht sich auf die akkurate Approximation des Quellterms, was zu den so genannten well-balanced Schemata führt. Diese erlauben genaue Approximationen von Lösungen nahe des Gleichgewichts. Die zweite Problemstellung bezieht sich auf die Approximation von Strömungen bei kleinen Mach Zahlen. Es ist bekannt, dass Lösungen der kompressiblen Euler Gleichungen zu Lösungen der inkompressiblen Euler Gleichungen konvergieren, wenn die Mach Zahl gegen null geht. Klassische numerische Schemata zeigen ein stark diffusives Verhalten bei kleinen Mach Zahlen. Das hier entwickelte Schema fällt in die Kategorie der asymptotic preserving Schematas, d.h. das numerische Schema ist auf einem diskrete Level kompatibel mit dem auf dem Kontinuum gezeigten verhalten. Zusätzlich wird gezeigt, dass die Diffusion des hier entwickelten Schemas unabhängig von der Mach Zahl ist. In Kapitel 3 wird ein HLL approximativer Riemann Löser für die Approximation der Lösungen der Flachwassergleichungen mit einem nicht konstanten Bodenprofil angewendet und ein well-balanced Schema entwickelt. Die meisten well-balanced Schemata für die Flachwassergleichungen behandeln nur den Fall eines Fluids im Ruhezustand, die so genannten Lake at Rest Lösungen. Hier wird ein Schema entwickelt, welches sich mit allen Gleichgewichten befasst. Zudem wird eine zweiter Ordnung Methode entwickelt, welche im Gegensatz zu anderen in der Literatur nicht auf einem iterativen Verfahren basiert. Numerische Experimente werden durchgeführt um die Vorteile des neuen Verfahrens zu zeigen. In Kapitel 4 wird ein Suliciu Relaxations Löser angepasst um die hydrostatischen Gleichgewichte der Euler Gleichungen mit einem Gravitationspotential aufzulösen. Die Gleichungen der hydrostatischen Gleichgewichte sind unterbestimmt und lassen deshalb keine Eindeutigen Lösungen zu. Es wird jedoch gezeigt, dass das neue Schema für eine große Klasse dieser Lösungen die well-balanced Eigenschaft besitzt. Für bestimmte Klassen werden Quadraturformeln zur Approximation des Quellterms entwickelt. Es wird auch gezeigt, dass das Schema robust, d.h. es erhält die Positivität der Masse und Energie, und stabil bezüglich der Entropieungleichung ist. Die numerischen Experimente konzentrieren sich vor allem auf den Einfluss der Quadraturformeln auf die well-balanced Eigenschaften. In Kapitel 5 wird ein Suliciu Relaxations Schema angepasst für Simulationen im Bereich kleiner Mach Zahlen. Es wird gezeigt, dass das neue Schema asymptotic preserving und die Diffusion kontrolliert ist. Zudem wird gezeigt, dass das Schema für bestimmte Parameter robust ist. Eine Stabilität wird aus einer Chapman-Enskog Analyse abgeleitet. Resultate numerische Experimente werden gezeigt um die Vorteile des neuen Verfahrens zu zeigen. In Kapitel 6 werden die Schemata aus den Kapiteln 4 und 5 kombiniert um das Verhalten des numerischen Schemas bei Flüssen mit kleiner Mach Zahl in durch die Gravitation geschichteten Atmosphären zu untersuchen. Es wird gezeigt, dass das Schema well-balanced ist. Die Robustheit und die Stabilität werden analog zu Kapitel 5 behandelt. Auch hier werden numerische Tests durchgeführt. Es zeigt sich, dass das neu entwickelte Schema in der Lage ist, die Dynamiken besser Aufzulösen als vor der Anpassung. Das Kapitel 7 beschäftigt sich mit der Entwicklung eines multidimensionalen Schemas basierend auf der Suliciu Relaxation. Jedoch ist die Arbeit an diesem Ansatz noch nicht beendet und numerische Resultate können nicht präsentiert werden. Es wird aufgezeigt, wo sich die Schwächen dieses Ansatzes befinden und weiterer Entwicklungsbedarf besteht. N2 - This work is concerned with the numerical approximation of solutions to models that are used to describe atmospheric or oceanographic flows. In particular, this work concen- trates on the approximation of the Shallow Water equations with bottom topography and the compressible Euler equations with a gravitational potential. Numerous methods have been developed to approximate solutions of these models. Of specific interest here are the approximations of near equilibrium solutions and, in the case of the Euler equations, the low Mach number flow regime. It is inherent in most of the numerical methods that the quality of the approximation increases with the number of degrees of freedom that are used. Therefore, these schemes are often run in parallel on big computers to achieve the best pos- sible approximation. However, even on those big machines, the desired accuracy can not be achieved by the given maximal number of degrees of freedom that these machines allow. The main focus in this work therefore lies in the development of numerical schemes that give better resolution of the resulting dynamics on the same number of degrees of freedom, compared to classical schemes. This work is the result of a cooperation of Prof. Klingenberg of the Institute of Mathe- matics in Wu¨rzburg and Prof. R¨opke of the Astrophysical Institute in Wu¨rzburg. The aim of this collaboration is the development of methods to compute stellar atmospheres. Two main challenges are tackled in this work. First, the accurate treatment of source terms in the numerical scheme. This leads to the so called well-balanced schemes. They allow for an accurate approximation of near equilibrium dynamics. The second challenge is the approx- imation of flows in the low Mach number regime. It is known that the compressible Euler equations tend towards the incompressible Euler equations when the Mach number tends to zero. Classical schemes often show excessive diffusion in that flow regime. The here devel- oped scheme falls into the category of an asymptotic preserving scheme, i.e. the numerical scheme reflects the behavior that is computed on the continuous equations. Moreover, it is shown that the diffusion of the numerical scheme is independent of the Mach number. In chapter 3, an HLL-type approximate Riemann solver is adapted for simulations of the Shallow Water equations with bottom topography to develop a well-balanced scheme. In the literature, most schemes only tackle the equilibria when the fluid is at rest, the so called Lake at rest solutions. Here a scheme is developed to accurately capture all the equilibria of the Shallow Water equations. Moreover, in contrast to other works, a second order extension is proposed, that does not rely on an iterative scheme inside the reconstruction procedure, leading to a more efficient scheme. In chapter 4, a Suliciu relaxation scheme is adapted for the resolution of hydrostatic equilibria of the Euler equations with a gravitational potential. The hydrostatic relations are underdetermined and therefore the solutions to that equations are not unique. However, the scheme is shown to be well-balanced for a wide class of hydrostatic equilibria. For specific classes, some quadrature rules are computed to ensure the exact well-balanced property. Moreover, the scheme is shown to be robust, i.e. it preserves the positivity of mass and energy, and stable with respect to the entropy. Numerical results are presented in order to investigate the impact of the different quadrature rules on the well-balanced property. In chapter 5, a Suliciu relaxation scheme is adapted for the simulations of low Mach number flows. The scheme is shown to be asymptotic preserving and not suffering from excessive diffusion in the low Mach number regime. Moreover, it is shown to be robust under certain parameter combinations and to be stable from an Chapman-Enskog analysis. Numerical results are presented in order to show the advantages of the new approach. In chapter 6, the schemes developed in the chapters 4 and 5 are combined in order to investigate the performance of the numerical scheme in the low Mach number regime in a gravitational stratified atmosphere. The scheme is shown the be well-balanced, robust and stable with respect to a Chapman-Enskog analysis. Numerical tests are presented to show the advantage of the newly proposed method over the classical scheme. In chapter 7, some remarks on an alternative way to tackle multidimensional simulations are presented. However no numerical simulations are performed and it is shown why further research on the suggested approach is necessary. KW - Strömung KW - Numerical Methods KW - Hyperbolic Partial Differential Equations KW - Well-Balanced KW - Asymptotic Preserving KW - Atmosphäre KW - Mathematisches Modell KW - PDE Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-162669 ER - TY - THES A1 - Pörner, Frank T1 - Regularization Methods for Ill-Posed Optimal Control Problems T1 - Regularisierungsverfahren für schlecht gestellte Optimalsteuerungsprobleme N2 - This thesis deals with the construction and analysis of solution methods for a class of ill-posed optimal control problems involving elliptic partial differential equations as well as inequality constraints for the control and state variables. The objective functional is of tracking type, without any additional \(L^2\)-regularization terms. This makes the problem ill-posed and numerically challenging. We split this thesis in two parts. The first part deals with linear elliptic partial differential equations. In this case, the resulting solution operator of the partial differential equation is linear, making the objective functional linear-quadratic. To cope with additional control constraints we introduce and analyse an iterative regularization method based on Bregman distances. This method reduces to the proximal point method for a specific choice of the regularization functional. It turns out that this is an efficient method for the solution of ill-posed optimal control problems. We derive regularization error estimates under a regularity assumption which is a combination of a source condition and a structural assumption on the active sets. If additional state constraints are present we combine an augmented Lagrange approach with a Tikhonov regularization scheme to solve this problem. The second part deals with non-linear elliptic partial differential equations. This significantly increases the complexity of the optimal control as the associated solution operator of the partial differential equation is now non-linear. In order to regularize and solve this problem we apply a Tikhonov regularization method and analyse this problem with the help of a suitable second order condition. Regularization error estimates are again derived under a regularity assumption. These results are then extended to a sparsity promoting objective functional. N2 - Diese Arbeit beschäftigt sich mit der Konstruktion und Analyse von Lösungsverfahren für schlecht gestellte Steuerungsprobleme. Die Nebenbedingungen sind in der Form von elliptischen partiellen Differentialgleichungen, sowie Ungleichungsrestriktionen für die Steuerung und den zugehörigen Zustand gegeben. Das Zielfunktional besteht aus einem Tracking-Type-Term ohne zusätzliche \(L^2\)-Regularisierungsterme. Dies führt dazu, dass das Optimalsteuerungsproblem schlecht gestellt ist, was die numerische Berechnung einer Lösung erschwert. Diese Arbeit ist in zwei Teile aufgeteilt. Der erste Teil beschäftigt sich mit linearen elliptischen partiellen Differentialgleichungen. In diesem Fall ist der zugehörige Lösungsoperator der partiellen Differentialgleichung linear und das Zielfunktional linear-quadratisch. Um die zusätzlichen Steuerungsrestriktionen zu behandeln, betrachten wir ein iteratives Verfahren welches auf einer Regularisierung mit Bregman-Abständen basiert. Für eine spezielle Wahl des Regularisierungsfunktionals vereinfacht sich dieses Verfahren zu dem Proximal-Point-Verfahren. Die Analyse des Verfahrens zeigt, dass es ein effizientes und gut geeignetes Verfahren ist, um schlecht gestellte Optimalsteuerungsprobleme zu lösen. Mithilfe einer Regularitätsannahme werden Konvergenzraten für den Regularisierungsfehler hergeleitet. Diese Regularitätsannahme ist eine Kombination einer Source-Condition sowie einer struktuellen Annahme an die aktiven Mengen. Wenn zusätzlich Zustandsrestriktionen vorhanden sind, wird zur Lösung eine Kombination aus dem Augmented Lagrange Ansatz sowie einer Tikhonov-Regularisierung angewendet. Der zweite Teil dieser Arbeit betrachtet nicht-lineare partielle Differentialgleichungen. Dies erhöht die Komplexität des Optimalsteuerungsproblem signifikant, da der Lösungsoperator der partiellen Differentialgleichung nun nicht-linear ist. Zur Lösung wird eine Tikhonov-Regularisierung betrachtet. Mithilfe einer geeigneten Bedingung zweiter Ordnung wird dieses Verfahren analysiert. Auch hier werden Konvergenzraten mithilfe einer Regularitätsannahme bestimmt. Anschließend werden diese Methoden auf ein Funktional mit einem zusätzlichen \(L^1\)-Term angewendet. N2 - Ill-posed optimization problems appear in a wide range of mathematical applications, and their numerical solution requires the use of appropriate regularization techniques. In order to understand these techniques, a thorough analysis is inevitable. The main subject of this book are quadratic optimal control problems subject to elliptic linear or semi-linear partial differential equations. Depending on the structure of the differential equation, different regularization techniques are employed, and their analysis leads to novel results such as rate of convergence estimates. KW - Optimale Steuerung KW - Regularisierung KW - Elliptische Differentialgleichung KW - optimal control KW - partial differential equation KW - Bregman distance KW - regularization KW - error estimate Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-163153 SN - 978-3-95826-086-3 (Print) SN - 978-3-95826-087-0 (Online) N1 - Parallel erschienen als Druckausgabe in Würzburg University Press, ISBN 978-3-95826-086-3, 26,90 EUR. PB - Würzburg University Press CY - Würzburg ET - 1. Auflage ER - TY - THES A1 - Pirner, Marlies T1 - Kinetic modelling of gas mixtures T1 - Kinetische Modellierung von Gasgemischen N2 - This book deals with the kinetic modelling of gas mixtures. It extends the existing literature in mathematics for one species of gas to the case of gasmixtures. This is more realistic in applications. Thepresentedmodel for gas mixtures is proven to be consistentmeaning it satisfies theconservation laws, it admitsanentropy and an equilibriumstate. Furthermore, we can guarantee the existence, uniqueness and positivity of solutions. Moreover, the model is used for different applications, for example inplasma physics, for fluids with a small deviation from equilibrium and in the case of polyatomic gases. N2 - Die vorliegende Arbeit beschäftigt sich mit der Modellierung von Gasgemischen mittels einer kinetischen Beschreibung. Es werden Grundlagen über die Boltzmanngleichung für Gasgemische und die BGK-Aproximation präsentiert. Insbesondere wird auf deren Erweiterung auf Gasgemische eingegangen. Es wird ein Gasgemisch bestehend aus zwei Sorten von Gasen ohne chemische Reaktionen betrachtet. Das Gemisch wird mittels eines Systems kinetischer BGK-Gleichungen modelliert, welches je zwei Wechselwirkungsterme enthält, die den Impuls- und Energieaustausch berücksichtigen. Das hier vorgestellte Modell enthält einige von Physikern und Ingenieuren vorgeschlagene Modelle als Spezialfälle. Es wird gezeigt, dass das hier vorgeschlagene Modell die wesentlichen physikalischen Eigenschaften, wie Erhaltungseigenschaften, Positivität aller Temperaturen, das H-Theorem und Maxwellverteilungen im Gleichgewicht, erfüllt. Des Weiteren können die üblichen makroskopischen Gleichungen daraus hergeleitet werden. In der Literatur gibt es ein weiteres vorgeschlagenes Modell für Gasgemische mit nur einem Wechselwirkungsterm von Andries, Aoki und Perthame. In dieser Arbeit werden die Vorteile dieses Modells aus der Literatur und des hier vorgeschlagenen Modells diskutiert. Es wird die Nützlichkeit des hier vorgeschlagenen Modells illustriert, indem es dazu benutzt wird eine unbekannte Funktion in dem makroskopischen Modell für Gasgemische von Dellacherie herzuleiten. Des Weiteren wird für jedes dieser beiden Modelle Existenz, Eindeutigkeit und Positivität der Lösungen gezeigt. Dann wird das hier vorgeschlagene Modell auf bestimmte physikalische Situationen angewandt: auf Elektronen und Ionen in einem Plasma, auf ein Gasgemisch, welches sich nicht im Gleichgewicht befindet und ein Gasgemisch bestehend aus Molekülen mit zusätzlichen inneren Freiheitsgraden. Als erste Anwendung wird das Modell für geladene Teilchen erweitert und auf ein Gemisch aus Elektronen und Ionen angewandt, welches sich teilweise im Gleichgewicht befindet, teilweise nicht. Man findet solch eine Konstellation zum Beispiel bei der Fusion in einem Tokamak. Das Modell, welches hier vorgestellt wird, wird hier benutzt, da es die Wechselwirkungen zwischen Teilchen von der gleichen Sorte und Wechselwirkungen zwischen Teilchen verschiedener Sorten separiert. Dann wird ein neues Modell mithilfe der Mikro-Makro-Zerlegung hergeleitet, welches numerisch in einem Regime angewandt wird, in dem Gase teilweise im Gleichgewicht sind, teilweise nicht. Es werden theoretische Ergebnisse vorgestellt, zum einen Konvergenzraten gegen das Gleichgewicht im räumlich homogenen Fall, zum anderen die Landau-Dämpfung für Gasgemische, um sie mit Ergebnissen aus numerischen Simulationen vergleichen zu können. Als zweite Anwendung wird ein Gasgemisch betrachtet, welches eine Abweichung vom Gleichgewichtszustand hat und makroskopisch mithilfe der Navier-Stokes-Gleichungen beschrieben wird. In dieser makroskopischen Beschreibung erwartet man vier physikalische Größen, die das physikalische Verhalten eines Gases beschreiben, den Diffusionskoeffizienten, den Viskositätskoeffizienten, die Wärmeleitfähigkeit und den thermischen Diffusionsparameter. Es wird eine Chapman-Enskog-Entwicklung des hier vorgestellten Modells durchgeführt, um drei dieser vier physikalischen Größen zu bestimmen. Zusatzlich werden mehrere mögliche Erweiterungen zu einem ES-BGK-Modell für Gasgemische vorgeschlagen um die vierte physikalische Größe zu bestimmen. Es wird eine Erweiterung präsentiert, die möglichst einfach gehalten ist, eine intuitive Erweiterung, die den Fall einer Gassorte ähnelt und eine Erweiterung, die die physikalische Motivation des Physikers Holway, der das ES-BGK-Modell erfunden hat, berücksichtigt. Es wird gezeigt, dass die Erweiterungen die Erhaltungseigenschaften erfüllen, alle Temperaturen positiv sind und das H-Theorem erfüllt ist. Als dritte Anwendung wird das hier vorgestellte Modell zu einem Modell für Moleküle mit zusätzlichen inneren Freiheitsgraden erweitert. Die zwei Gassorten dürfen dabei eine unterschiedliche Anzahl an inneren Freiheitsgraden haben und werden beschrieben durch ein System von kinetischen ES-BGK-Gleichungen. Es wird gezeigt, dass das Modell die Erhaltungseigenschaften erfülllt, dass alle Temperaturen positiv sind und dass das H-Theorem erfüllt ist. Für numerische Zwecke wird die Chu-Reduktion angewandt um die Komplexität des Modells zu reduzieren und eine Anwendung gezeigt, bei dem eine Gassorte keine inneren Freiheitsgrade hat und die andere Sorte zwei Rotationsfreiheitsgrade besitzt. Als letztes wird der Grenzwert des hier vorgestellten Modells zu den dissipativen Eulergleichungen bewiesen. N2 - The present thesis considers the modelling of gas mixtures via a kinetic description. Fundamentals about the Boltzmann equation for gas mixtures and the BGK approximation are presented. Especially, issues in extending these models to gas mixtures are discussed. A non-reactive two component gas mixture is considered. The two species mixture is modelled by a system of kinetic BGK equations featuring two interaction terms to account for momentum and energy transfer between the two species. The model presented here contains several models from physicists and engineers as special cases. Consistency of this model is proven: conservation properties, positivity of all temperatures and the H-theorem. The form in global equilibrium as Maxwell distributions is specified. Moreover, the usual macroscopic conservation laws can be derived. In the literature, there is another type of BGK model for gas mixtures developed by Andries, Aoki and Perthame, which contains only one interaction term. In this thesis, the advantages of these two types of models are discussed and the usefulness of the model presented here is shown by using this model to determine an unknown function in the energy exchange of the macroscopic equations for gas mixtures described in the literature by Dellacherie. In addition, for each of the two models existence and uniqueness of mild solutions is shown. Moreover, positivity of classical solutions is proven. Then, the model presented here is applied to three physical applications: a plasma consisting of ions and electrons, a gas mixture which deviates from equilibrium and a gas mixture consisting of polyatomic molecules. First, the model is extended to a model for charged particles. Then, the equations of magnetohydrodynamics are derived from this model. Next, we want to apply this extended model to a mixture of ions and electrons in a special physical constellation which can be found for example in a Tokamak. The mixture is partly in equilibrium in some regions, in some regions it deviates from equilibrium. The model presented in this thesis is taken for this purpose, since it has the advantage to separate the intra and interspecies interactions. Then, a new model based on a micro-macro decomposition is proposed in order to capture the physical regime of being partly in equilibrium, partly not. Theoretical results are presented, convergence rates to equilibrium in the space-homogeneous case and the Landau damping for mixtures, in order to compare it with numerical results. Second, the model presented here is applied to a gas mixture which deviates from equilibrium such that it is described by Navier-Stokes equations on the macroscopic level. In this macroscopic description it is expected that four physical coefficients will show up, characterizing the physical behaviour of the gases, namely the diffusion coefficient, the viscosity coefficient, the heat conductivity and the thermal diffusion parameter. A Chapman-Enskog expansion of the model presented here is performed in order to capture three of these four physical coefficients. In addition, several possible extensions to an ellipsoidal statistical model for gas mixtures are proposed in order to capture the fourth coefficient. Three extensions are proposed: An extension which is as simple as possible, an intuitive extension copying the one species case and an extension which takes into account the physical motivation of the physicist Holway who invented the ellipsoidal statistical model for one species. Consistency of the extended models like conservation properties, positivity of all temperatures and the H-theorem are proven. The shape of global Maxwell distributions in equilibrium are specified. Third, the model presented here is applied to polyatomic molecules. A multi component gas mixture with translational and internal energy degrees of freedom is considered. The two species are allowed to have different degrees of freedom in internal energy and are modelled by a system of kinetic ellipsoidal statistical equations. Consistency of this model is shown: conservation properties, positivity of the temperature, H-theorem and the form of Maxwell distributions in equilibrium. For numerical purposes the Chu reduction is applied to the developed model for polyatomic gases to reduce the complexity of the model and an application for a gas consisting of a mono-atomic and a diatomic gas is given. Last, the limit from the model presented here to the dissipative Euler equations for gas mixtures is proven. KW - Polyatomare Verbindungen KW - Gasgemisch KW - Transportkoeffizient KW - Plasma KW - multi-fluid mixture KW - kinetic description of gases KW - entropy inequality KW - transport coefficients KW - Modellierung KW - well posedness KW - plasma modelling KW - polyatomic molecules KW - hydrodynamic limits Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-161077 SN - 978-3-95826-080-1 (Print) SN - 978-3-95826-081-8 (Online) N1 - Parallel erschienen als Druckausgabe in Würzburg University Press, ISBN 978-3-95826-080-1, 27,80 EUR. PB - Würzburg University Press CY - Würzburg ET - 1. Auflage ER - TY - RPRT A1 - Gerber, Sebastian A1 - Quarder, Jascha T1 - Erfassung von Aspekten professioneller Kompetenz zum Lehren des Simulierens und mathematischen Modellierens mit digitalen Werkzeugen. Ein Testinstrument N2 - Die Auseinandersetzung mit Simulations- und Modellierungsaufgaben, die mit digitalen Werkzeugen zu bearbeiten sind, stellt veränderte Anforderungen an Mathematiklehrkräfte in der Unterrichtsplanung und -durchführung. Werden digitale Werkzeuge sinnvoll eingesetzt, so unterstützen sie Simulations- und Modellierungsprozesse und ermöglichen realitätsnähere Sachkontexte im Mathematikunterricht. Für die empirische Untersuchung professioneller Kompetenzen zum Lehren des Simulierens und mathematischen Modellierens mit digitalen Werkzeugen ist es notwendig, Aspekte globaler Lehrkompetenzen von (angehenden) Mathematiklehrkräften bereichsspezifisch auszudeuten. Daher haben wir ein Testinstrument entwickelt, das die Überzeugungen, die Selbstwirksamkeitserwartungen und das fachdidaktische Wissen zum Lehren des Simulierens und mathematischen Modellierens mit digitalen Werkzeugen erfasst. Ergänzt wird das Testinstrument durch selbstberichtete Vorerfahrungen zum eigenen Gebrauch digitaler Werkzeuge sowie zur Verwendung digitaler Werkzeuge in Unterrichtsplanung und -durchführung. Das Testinstrument ist geeignet, um mittels Analysen von Veranstaltungsgruppen im Prä-Post-Design den Zuwachs der oben beschriebenen Kompetenz von (angehenden) Mathematiklehrkräften zu messen. Somit können in Zukunft anhand der Ergebnisse die Wirksamkeit von Lehrveranstaltungen, die diese Kompetenz fördern (sollen), untersucht und evaluiert werden. Der Beitrag gliedert sich in zwei Teile: Zunächst werden in der Testbeschreibung das zugrundeliegende Konstrukt und der Anwendungsbereich des Testinstruments sowie dessen Aufbau und Hinweise zur Durchführung beschrieben. Zudem wird die Testgüte anhand der Pilotierungsergebnisse überprüft. Im zweiten Teil befindet sich das vollständige Testinstrument. KW - GeoGebra KW - Computerunterstützter Unterricht KW - Mathematikunterricht KW - Lehrerbildung KW - Testen KW - mathematisches Modellieren KW - Simulieren KW - digitale Werkzeuge KW - Aspekte professioneller Kompetenz KW - Testinstrument Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-273597 ER - TY - THES A1 - Dippell, Marvin T1 - Constraint Reduction in Algebra, Geometry and Deformation Theory T1 - Constraint Reduktion in Algebra, Geometrie und Deformationsquantisierung N2 - To study coisotropic reduction in the context of deformation quantization we introduce constraint manifolds and constraint algebras as the basic objects encoding the additional information needed to define a reduction. General properties of various categories of constraint objects and their compatiblity with reduction are examined. A constraint Serre-Swan theorem, identifying constraint vector bundles with certain finitely generated projective constraint modules, as well as a constraint symbol calculus are proved. After developing the general deformation theory of constraint algebras, including constraint Hochschild cohomology and constraint differential graded Lie algebras, the second constraint Hochschild cohomology for the constraint algebra of functions on a constraint flat space is computed. N2 - Um koisotrope Reduktion im Kontext der Deformationsquantisierung zu betrachten, werden constraint Mannigfaltigkeiten und constraint Algebren als grundlegende Objekte definiert. Wichtige Eigenschaften verschiedener zugehöriger Kategorien, sowie deren Kompatibilität mit Reduktion werden untersucht. In Analogie zum klassischen Serre-Swan-Theorem können constraint Vektorbündel mit bestimmten endlich erzeugt projektiven constraint Moduln identifiziert werden. Außerdem wird ein Symbolkalkül für constraint Multidifferenzialoperatoren eingeführt. Nach der Entwicklung der allgemeinen Deformationstheorie von constraint Algebren mithilfe von constraint Hochschild Kohomologie und constraint differentiell gradierten Lie-Algebren, wird die zweite constraint Hochschild Kohomologie im Fall eines endlich dimensionalen constraint Vektorraums berechnet. KW - Differentialgeometrie KW - Deformationsquantisierung KW - Coisotropic reduction KW - Symplektische Geometrie Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-301670 ER - TY - JOUR A1 - Kanzow, Christian A1 - Raharja, Andreas B. A1 - Schwartz, Alexandra T1 - Sequential optimality conditions for cardinality-constrained optimization problems with applications JF - Computational Optimization and Applications N2 - Recently, a new approach to tackle cardinality-constrained optimization problems based on a continuous reformulation of the problem was proposed. Following this approach, we derive a problem-tailored sequential optimality condition, which is satisfied at every local minimizer without requiring any constraint qualification. We relate this condition to an existing M-type stationary concept by introducing a weak sequential constraint qualification based on a cone-continuity property. Finally, we present two algorithmic applications: We improve existing results for a known regularization method by proving that it generates limit points satisfying the aforementioned optimality conditions even if the subproblems are only solved inexactly. And we show that, under a suitable Kurdyka–Łojasiewicz-type assumption, any limit point of a standard (safeguarded) multiplier penalty method applied directly to the reformulated problem also satisfies the optimality condition. These results are stronger than corresponding ones known for the related class of mathematical programs with complementarity constraints. KW - augmented Lagrangian method KW - cardinality constraints KW - sequential optimality condition KW - conecontinuity type constraint qualification KW - relaxation method Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-269052 SN - 1573-2894 VL - 80 IS - 1 ER - TY - THES A1 - Mönius, Katja T1 - Algebraic and Arithmetic Properties of Graph Spectra T1 - Algebraische und Arithmetische Eigenschaften von Graph Spektren N2 - In the present thesis we investigate algebraic and arithmetic properties of graph spectra. In particular, we study the algebraic degree of a graph, that is the dimension of the splitting field of the characteristic polynomial of the associated adjacency matrix over the rationals, and examine the question whether there is a relation between the algebraic degree of a graph and its structural properties. This generalizes the yet open question ``Which graphs have integral spectra?'' stated by Harary and Schwenk in 1974. We provide an overview of graph products since they are useful to study graph spectra and, in particular, to construct families of integral graphs. Moreover, we present a relation between the diameter, the maximum vertex degree and the algebraic degree of a graph, and construct a potential family of graphs of maximum algebraic degree. Furthermore, we determine precisely the algebraic degree of circulant graphs and find new criteria for isospectrality of circulant graphs. Moreover, we solve the inverse Galois problem for circulant graphs showing that every finite abelian extension of the rationals is the splitting field of some circulant graph. Those results generalize a theorem of So who characterized all integral circulant graphs. For our proofs we exploit the theory of Schur rings which was already used in order to solve the isomorphism problem for circulant graphs. Besides that, we study spectra of zero-divisor graphs over finite commutative rings. Given a ring \(R\), the zero-divisor graph over \(R\) is defined as the graph with vertex set being the set of non-zero zero-divisors of \(R\) where two vertices \(x,y\) are adjacent if and only if \(xy=0\). We investigate relations between the eigenvalues of a zero-divisor graph, its structural properties and the algebraic properties of the respective ring. N2 - In der vorliegenden Dissertation untersuchen wir algebraische und arithmetische Eigenschaften von Graph Spektren. Insbesondere studieren wir den algebraischen Grad eines Graphen, d.h. die Dimension des Zerfällungskörpers des charakteristischen Polynoms der zugehörigen Adjazenzmatrix über den rationalen Zahlen, und beschäftigen uns mit der Frage, ob es einen Zusammenhang zwischen dem algebraischen Grad eines Graphen und seinen strukturellen Eigenschaften gibt. Dies verallgemeinert die bis heute noch offene Fragestellung "Welche Graphen haben ganzzahliges Spektrum?", welche 1974 von Harary und Schwenk aufgeworfen wurde. Wir geben einen Überblick über verschiedene Graphprodukte, da diese oftmals hilfreich sind bei der Untersuchung von Graph Spektren, und konstruieren damit Familien von integralen Graphen. Außerdem stellen wir einen Zusammenhang zwischen dem Diameter, dem maximalen Eckengrad und dem algebraischen Grad von Graphen vor, und konstruieren eine potenzielle Familie von Graphen, welche alle maximalen algebraischen Grad haben. Zudem bestimmen wir den algebraischen Grad zirkulärer Graphen und finden neue Kriterien für Isospektralität solcher Graphen. Darüber hinaus lösen wir das inverse Galois Problem für zirkuläre Graphen, indem wir zeigen, dass jede endliche abelsche Erweiterung der rationalen Zahlen Zerfällungskörper eines zirkulären Graphen ist. Diese Resultate verallgemeinern einen Satz von So, in dem sämtliche integrale zirkuläre Graphen charakterisiert werden. Für unsere Beweise verwenden wir die Theorie der Schur Ringe, die bereits verwendet wurde, um das Isomorphieproblem für zirkuläre Graphen zu lösen. Zu guter Letzt untersuchen wir Spektren von Nullteilergraphen über kommutativen Ringen. Zu einem gegebenen Ring \(R\) ist der zugehörige Nullteilergraph über \(R\) definiert als der Graph, dessen Eckenmenge den Nullteilern von \(R\) entspricht, und in dem je zwei Ecken \(x,y\) benachbart sind, wenn \(xy=0\) gilt. Wir studieren Zusammenhänge zwischen den Eigenwerten von Nullteilergraphen, deren strukturellen Eigenschaften und den algebraischen Eigenschaften der entsprechenden Ringe. KW - Algebraische Zahlentheorie KW - Graph KW - Graph spectrum KW - Integral graph KW - Cayley graph KW - Schur ring KW - Zero-divisor graph KW - Kombinatorik Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-230850 ER - TY - THES A1 - Herrmann, Marc T1 - The Total Variation on Surfaces and of Surfaces T1 - Die totale Variation auf Oberflächen und von Oberflächen N2 - This thesis is concerned with applying the total variation (TV) regularizer to surfaces and different types of shape optimization problems. The resulting problems are challenging since they suffer from the non-differentiability of the TV-seminorm, but unlike most other priors it favors piecewise constant solutions, which results in piecewise flat geometries for shape optimization problems.The first part of this thesis deals with an analogue of the TV image reconstruction approach [Rudin, Osher, Fatemi (Physica D, 1992)] for images on smooth surfaces. A rigorous analytical framework is developed for this model and its Fenchel predual, which is a quadratic optimization problem with pointwise inequality constraints on the surface. A function space interior point method is proposed to solve it. Afterwards, a discrete variant (DTV) based on a nodal quadrature formula is defined for piecewise polynomial, globally discontinuous and continuous finite element functions on triangulated surface meshes. DTV has favorable properties, which include a convenient dual representation. Next, an analogue of the total variation prior for the normal vector field along the boundary of smooth shapes in 3D is introduced. Its analysis is based on a differential geometric setting in which the unit normal vector is viewed as an element of the two-dimensional sphere manifold. Shape calculus is used to characterize the relevant derivatives and an variant of the split Bregman method for manifold valued functions is proposed. This is followed by an extension of the total variation prior for the normal vector field for piecewise flat surfaces and the previous variant of split Bregman method is adapted. Numerical experiments confirm that the new prior favours polyhedral shapes. N2 - Die vorliegende Arbeit beschäftigt sich mit der Anwendung der totalen Variation (TV) als Regularisierung auf Oberflächen und in verschiedenen Problemen der Formoptimierung. Die daraus entstehenden Optimierungsprobleme sind aufgrund der TV-Seminorm nicht differenzierbar und daher eine Herausforderung. Allerdings werden dadurch, im Gegensatz zu anderen Regularisierungen, stückweise konstante Lösungen favorisiert. Dies führt bei Problemen der Formoptimierung zu stückweise flachen Geometrien. Der erste Teil dieser Arbeit widmet sich der Erweiterung des Ansatzes zur mathematischen Bildverarbeitung [Rudin, Osher, Fatemi (Physica D, 1992)] von flachen Bildern auf glatte Oberflächen und deren Texturen. Für das damit verbundene Optimierungsproblem wird das Fenchel präduale Problem hergeleitet. Dies ist ein quadratisches Optimierungsproblem mit Ungleichungsrestriktionen für dessen Lösung ein Innere-Punkte-Verfahren in Funktionenräumen vorgestellt wird. Basierend auf einer Quadraturformel, wird im Anschluss eine diskrete Variante (DTV) der TV-Seminorm für global unstetige und stetige Finite- Elemente-Funktionen auf triangulierten Oberflächen entwickelt. (DTV) besitzt positive Eigenschaften, wie eine praktische duale Darstellung. Im letzten Teil wird zuerst ein TV-Analogon für die Oberflächennormale von glatten Formen in 3D gezeigt und mit Hilfe von Differentialgeometrie analysiert. Danach wird eine mögliche Erweiterungen für stückweise glatte Oberflächen vorgestellt. Zur Lösung von beiden Regularisierungen wird eine Variante des Split-Bregman-Verfahrens für Funktionen mitWerten auf Mannigfaltigkeiten benutzt. KW - Gestaltoptimierung KW - optimization KW - total variation KW - Formoptimierung KW - Shape Optimization KW - Optimierung KW - Totale Variation KW - Finite-Elemente-Methode Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-240736 ER - TY - THES A1 - Schmeller, Christof T1 - Uniform distribution of zero ordinates of Epstein zeta-functions T1 - Gleichverteilung von Imaginärteilen nichttrivialer Nullstellen der Epsteinschen Zetafunktion N2 - The dissertation investigates the wide class of Epstein zeta-functions in terms of uniform distribution modulo one of the ordinates of their nontrivial zeros. Main results are a proof of a Landau type theorem for all Epstein zeta-functions as well as uniform distribution modulo one for the zero ordinates of all Epstein zeta-functions asscoiated with binary quadratic forms. N2 - Die vorliegende Arbeit untersucht, bei welchen Epsteinschen Zetafunktionen die Imaginärteile der nichttrivialen Nullstellen gleichverteilt modulo eins sind. Als zentrales Ergebnis wird dies für alle Epsteinschen Zetafunktionen, die durch binäre quadratische Formen gebildet werden, bewiesen. Außerdem wird unter anderem Landau's Theorem für alle Epsteinschen Zetafunktionen gezeigt. KW - Zetafunktion KW - Epstein, Paul KW - Gleichverteilung KW - Epstein zeta-function KW - Uniform distribution modulo one KW - Landau type theorem Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-251999 ER - TY - THES A1 - Suttner, Raik T1 - Output Optimization by Lie Bracket Approximations T1 - Ausgangsoptimierung durch Lie-Klammer-Approximationen N2 - In this dissertation, we develop and analyze novel optimizing feedback laws for control-affine systems with real-valued state-dependent output (or objective) functions. Given a control-affine system, our goal is to derive an output-feedback law that asymptotically stabilizes the closed-loop system around states at which the output function attains a minimum value. The control strategy has to be designed in such a way that an implementation only requires real-time measurements of the output value. Additional information, like the current system state or the gradient vector of the output function, is not assumed to be known. A method that meets all these criteria is called an extremum seeking control law. We follow a recently established approach to extremum seeking control, which is based on approximations of Lie brackets. For this purpose, the measured output is modulated by suitable highly oscillatory signals and is then fed back into the system. Averaging techniques for control-affine systems with highly oscillatory inputs reveal that the closed-loop system is driven, at least approximately, into the directions of certain Lie brackets. A suitable design of the control law ensures that these Lie brackets point into descent directions of the output function. Under suitable assumptions, this method leads to the effect that minima of the output function are practically uniformly asymptotically stable for the closed-loop system. The present document extends and improves this approach in various ways. One of the novelties is a control strategy that does not only lead to practical asymptotic stability, but in fact to asymptotic and even exponential stability. In this context, we focus on the application of distance-based formation control in autonomous multi-agent system in which only distance measurements are available. This means that the target formations as well as the sensed variables are determined by distances. We propose a fully distributed control law, which only involves distance measurements for each individual agent to stabilize a desired formation shape, while a storage of measured data is not required. The approach is applicable to point agents in the Euclidean space of arbitrary (but finite) dimension. Under the assumption of infinitesimal rigidity of the target formations, we show that the proposed control law induces local uniform asymptotic (and even exponential) stability. A similar statement is also derived for nonholonomic unicycle agents with all-to-all communication. We also show how the findings can be used to solve extremum seeking control problems. Another contribution is an extremum seeking control law with an adaptive dither signal. We present an output-feedback law that steers a fully actuated control-affine system with general drift vector field to a minimum of the output function. A key novelty of the approach is an adaptive choice of the frequency parameter. In this way, the task of determining a sufficiently large frequency parameter becomes obsolete. The adaptive choice of the frequency parameter also prevents finite escape times in the presence of a drift. The proposed control law does not only lead to convergence into a neighborhood of a minimum, but leads to exact convergence. For the case of an output function with a global minimum and no other critical point, we prove global convergence. Finally, we present an extremum seeking control law for a class of nonholonomic systems. A detailed averaging analysis reveals that the closed-loop system is driven approximately into descent directions of the output function along Lie brackets of the control vector fields. Those descent directions also originate from an approximation of suitably chosen Lie brackets. This requires a two-fold approximation of Lie brackets on different time scales. The proposed method can lead to practical asymptotic stability even if the control vector fields do not span the entire tangent space. It suffices instead that the tangent space is spanned by the elements in the Lie algebra generated by the control vector fields. This novel feature extends extremum seeking by Lie bracket approximations from the class of fully actuated systems to a larger class of nonholonomic systems. N2 - In dieser Dissertation werden neuartige optimierende Rückkopplungsgesetze für kontroll-affine Systeme mit reell-wertigen zustandsabhängigen Ausgangs- (bzw. Kosten-) funktionen entwickelt und analysiert. Das Ziel ist es zu einem gegebenen kontroll-affinen System ein Ausgangsrückkopplungsgesetz zu erlangen, welches das System im geschlossenen Regelkreis asymptotisch um Zustände stabilisiert bei denen die Ausgangsfunktion einen Minimalwert annimmt. Die Kontrollstrategie soll dabei derart konstruiert sein, dass eine Implementierung nur Echtzeitmessungen des Ausgangswerts erfordert. Zusätzliche Informationen, wie z.B. der aktuelle Systemzustand oder der Gradientenvektor der Ausgangsfunktion, werden nicht als bekannt angenommen. Eine Methode, die alle diese Kritierien erfüllt, bezeichnet man als Extremwertregelungsgesetz. Es wird hierzu ein vor kurzer Zeit etablierter Ansatz in der Extremwertregelung verfolgt, welcher auf der Approximation von Lie-Klammern basiert. Für diesen Zweck wird das gemessene Ausgangssignal mit geeigneten hoch-oszillierenden Signalen moduliert und danach zurück in das System eingespeist. Mittelungstechniken für kontroll-affine Systeme mit hoch-oszillierenden Eingängen enthüllen, dass das System im geschlossenen Regelkreis zumindest näherungsweise in die Richtung von gewissen Lie-Klammern getrieben wird. Eine geeignete Konstruktion des Kontrollgesetzes sichert, dass diese Lie-Klammern in Abstiegsrichtungen der Ausgangsfunktion zeigen. Unter geeigneten Annahmen führt diese Methode zu dem Effekt, dass Minima der Ausgangsfunktion praktisch gleichmäßig asymptotisch stabil für das System im geschlossenen Regelkreis sind. Das vorliegende Dokument erweitert und verbessert diesen Ansatz auf Verschiedene Arten und Weisen. Eine der Neuerungen ist eine Kontrollstrategie, die nicht nur zu praktischer asymptotischer Stabilität, sondern mehr noch zu asymptotischer Stabilität und sogar exponentieller Stabilität führt. In diesem Zusammenhang wird der Schwerpunkt auf die Anwendung zur abstandsbasierten Formationssteuerung in autonomen Multiagentensystemen gelegt, bei der nur Abstandsmessungen verfügbar sind. Dies bedeutet, dass sowohl die Zielformationen als auch die Messgrößen durch Abstände bestimmt sind. Es wird ein vollständig verteiltes Kontrollgesetz vorgeschlagen, welches lediglich Abstandsmessungen von jedem einzelnen Agenten beinhaltet um eine Formation zu stabilisieren, wobei eine Speicherung von Messdaten nicht erforderlich ist. Der Ansatz ist anwendbar auf Punktagenten im euklidischen Raum von beliebiger (aber endlicher) Dimension. Unter der Annahme von infinitesimaler Starrheit der Zielformationen wird nachgewiesen, dass das vorgeschlagene Steuerungsgesetz lokale gleichmäßige asymptotische (und sogar exponentielle) Stabilität induziert. Eine ähnliche Aussage wird auch für nicht-holonome Einradagenten mit alle-zu-allen-Kommunikation erlangt. Es wird außerdem gezeigt wie diese Erkenntnisse genutzt werden können um Extremwertregelungsprobleme zu lösen. Ein weiterer Beitrag ist ein Extremwertregelungsgesetz mit einem adaptiven Zittersignal. Es wird ein Ausgangsrückkopplungsgesetz präsentiert, welches ein voll-aktuiertes kontroll-affines System mit allgemeinem Driftvektorfeld zu einem Minimum der Ausgangsfunktion steuert. Eine entscheidende Neuheit des Ansatzes ist eine adaptive Wahl des Frequenzparameters. Auf diesem Weg wird die Aufgabe eine hinreicheind großen Frequenzparamter zu bestimmen hinfällig. Die adaptive Wahl des Frequenzparameters verhindert auch endliche Entweichzeiten in der Gegenwart eines Drifts. Das vorgeschlagene Kontrollgesetz führ nicht nur zu Konvergenz in eine Umgebung eines Minimums, sondern führt zu exakter Konvergenz. Für den Fall einer Ausgangsfunktion mit globalem Minimum und keinem anderen kritischen Punkt wird globale Konvergenz bewiesen. Schließlich wird ein Extremwertregelungsgesetz für eine Klasse von nicht-holonomen Systemen präsentiert. Eine detaillierte Mittelungsanalyse enthüllt, dass das System im geschlossenen Regelkreis näherungsweise in Abstiegsrichtungen der Ausgangsfunktion entlang von Lie-Klammern der Kontrollvektorfelder getrieben wird. Jene Abstiegsrichtungen stammen ebenso von einer Approximation von geeignet gewählten Lie-Klammern. Dies erfordert eine zweifache Approximation von Lie-Klammern auf verschiedenen Zeitskalen. Die vorgeschlagene Methode kann zu praktischer asymptotischer Stabilität führen selbst wenn die Kontrollvektorfelder nicht den gesamten Tangentialraum aufspannen. Es reicht stattdessen, dass der Tangentialraum durch die Elemente in der Lie-Algebra, welche durch die Kontrollvektorfelder generiert wird, aufgespannt wird. Diese neuartige Eigenschaft erweitert Extremwertregelung durch Lie-Klammer-Approximationen von der Klasse der voll-aktuierten Systeme zu einer größeren Klasse von nicht-holonomen Systemen. KW - extremum seeking control KW - Extremwertregelung KW - Approximation KW - Stabilität Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-211776 ER - TY - GEN A1 - Breitenbach, Tim T1 - Codes of examples for SQH method N2 - Code examples for the paper "On the SQH Scheme to Solve Nonsmooth PDE Optimal Control Problems" by Tim Breitenbach and Alfio Borzì published in the journal "Numerical Functional Analysis and Optimization", in 2019, DOI: 10.1080/01630563.2019.1599911 KW - SQH method KW - Code Examples Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-178588 ER - TY - THES A1 - Rehberg, Martin T1 - Weighted uniform distribution related to primes and the Selberg Class T1 - Gewichtete Gleichverteilung im Zusammenhang mit Primzahlen und der Selberg-Klasse N2 - In the thesis at hand, several sequences of number theoretic interest will be studied in the context of uniform distribution modulo one.

In the first part we deduce for positive and real \(z\not=1\) a discrepancy estimate for the sequence \( \left((2\pi )^{-1}(\log z)\gamma_a\right) \), where \(\gamma_a\) runs through the positive imaginary parts of the nontrivial \(a\)-points of the Riemann zeta-function. If the considered imaginary parts are bounded by \(T\), the discrepancy of the sequence \( \left((2\pi )^{-1}(\log z)\gamma_a\right) \) tends to zero like \( (\log\log\log T)^{-1} \) as \(T\rightarrow \infty\). The proof is related to the proof of Hlawka, who determined a discrepancy estimate for the sequence containing the positive imaginary parts of the nontrivial zeros of the Riemann zeta-function.

The second part of this thesis is about a sequence whose asymptotic behaviour is motivated by the sequence of primes. If \( \alpha\not=0\) is real and \(f\) is a function of logarithmic growth, we specify several conditions such that the sequence \( (\alpha f(q_n)) \) is uniformly distributed modulo one. The corresponding discrepancy estimates will be stated. The sequence \( (q_n)\) of real numbers is strictly increasing and the conditions on its counting function \( Q(x)=\#\lbrace q_n \leq x \rbrace \) are satisfied by primes and primes in arithmetic progessions. As an application we obtain that the sequence \( \left( (\log q_n)^K\right)\) is uniformly distributed modulo one for arbitrary \(K>1\), if the \(q_n\) are primes or primes in arithmetic progessions. The special case that \(q_n\) equals the \(\textit{n}\)th prime number \(p_n\) was studied by Too, Goto and Kano.

In the last part of this thesis we study for irrational \(\alpha\) the sequence \( (\alpha p_n)\) of irrational multiples of primes in the context of weighted uniform distribution modulo one. A result of Vinogradov concerning exponential sums states that this sequence is uniformly distributed modulo one. An alternative proof due to Vaaler uses L-functions. We extend this approach in the context of the Selberg class with polynomial Euler product. By doing so, we obtain two weighted versions of Vinogradov's result: The sequence \( (\alpha p_n)\) is \( (1+\chi_{D}(p_n))\log p_n\)-uniformly distributed modulo one, where \( \chi_D\) denotes the Legendre-Kronecker character. In the proof we use the Dedekind zeta-function of the quadratic number field \( \Bbb Q (\sqrt{D})\). As an application we obtain in case of \(D=-1\), that \( (\alpha p_n)\) is uniformly distributed modulo one, if the considered primes are congruent to one modulo four. Assuming additional conditions on the functions from the Selberg class we prove that the sequence \( (\alpha p_n) \) is also \( (\sum_{j=1}^{\nu_F}{\alpha_j(p_n)})\log p_n\)-uniformly distributed modulo one, where the weights are related to the Euler product of the function. N2 - In der vorliegenden Arbeit werden verschiedene zahlentheoretisch interessante Folgen im Kontext der Theorie der Gleichverteilung modulo eins untersucht.

Im ersten Teil wird für positiv reelles \( z\not = 1\) für die Folge \( \left((2\pi )^{-1}(\log z)\gamma_a\right) \) eine Diskrepanzabschätzung hergeleitet, wobei \( \gamma_a\) die positiven Imaginärteile der nichttrivialen \(a\)-Stellen der Riemannschen Zetafunktion durchlaufe: Sind die eingehenden Imaginäteile durch \(T\) beschränkt, dann strebt für \(T\rightarrow \infty\) die Diskrepanz der Folge \( \left((2\pi )^{-1}(\log z)\gamma_a\right) \) wie \( (\log\log\log T)^{-1}\) gegen Null. Der Beweis knüpft an das Vorgehen von Hlawka an, welcher eine Diskrepanzabschätzung für die Folge, in der die positiven Imaginärteile der nichttrivialen Nullstellen der Riemannschen Zetafunktion eingehen, ermittelte.

Der zweite Teil der Arbeit widmet sich einer Folge deren Wachstumsverhalten durch Primzahlen motiviert ist. Ist \(\alpha\not = 0\) reell und \(f\) eine logarithmisch wachsende Funktion, dann werden mehrere Bedingungen an \(f\) angegeben, unter denen die Folge \( (\alpha f(q_n)) \) gleichverteilt modulo eins ist. Entsprechende Diskrepanzabschätzungen der Folgen werden angegeben. Die Folge reeller Zahlen \( (q_n) \) ist selbst streng wachsend und die Bedingungen, die dabei an deren Zählfunktion \(Q(x)=\#\lbrace q_n \leq x \rbrace\) gestellt werden, sind von Primzahlen und Primzahlen in arithmetischen Progressionen erfällt. Als Anwendung ergibt sich, dass die Folge \( \left( (\log q_n)^K\right) \) für beliebiges \(K>1\) gleichverteilt modulo eins ist, etwa wenn die \(q_n\) Primzahlen oder Primzahlen in arithmetischen Progessionen durchlaufen. Der Spezialfall das \(q_n\) als die \(n\)te Primzahl \(p_n\) gewählt wird, wurde von Too, Goto und Kano untersucht.

Im letzten Teil der Arbeit wird für irrationales \(\alpha\) die Folge \( (\alpha p_n) \) irrationaler Vielfacher von Primzahlen im Rahmen der gewichteten Gleichverteilung modulo eins untersucht. Nach einem Resultat von Vinogradov über Exponentialsummen ist diese Folge gleichverteilt modulo eins. Ein alternativer Beweis von Vaaler verwendet L-Funktionen. Dieser Ansatz wird im Kontext von Funktionen aus der Selberg-Klasse mit polynomiellem Eulerprodukt ausgebaut. Dabei werden zwei gewichtete Versionen des vinogradovschen Resultats gewonnen: Die Folge \( (\alpha p_n) \) ist \( (1+\chi_{D}(p_n))\log p_n\)-gleichverteilt modulo eins, wobei \(\chi_{D}\) den Legendre-Kronecker Charakter bezeichnet. Der Beweis verwendet die Dedekindsche Zetafunktion zum quadratischen Zahlkörper \(\Bbb Q (\sqrt{D})\). Als Anwendung ergibt sich etwa für \(D=-1\), dass \( (\alpha p_n) \) gleichverteilt modulo eins ist, wenn die durchlaufenen Primzahlen kongruent zu eins modulo vier sind. Unter zusätzlichen Bedingungen an die Funktionen aus der Selberg-Klasse lässt sich weiter zeigen, das die Folge \( (\alpha p_n) \) auch \( (\sum_{j=1}^{\nu_F}{\alpha_j(p_n)})\log p_n\)-gleichverteilt modulo eins, wobei die Gewichte in direktem Zusammenhang mit dem Eulerprodukt der Funktion stehen. KW - Zahlentheorie KW - weighted uniform distribution modulo one KW - gewichtete Gleichverteilung modulo eins KW - Selberg Class KW - prime number KW - quadratic number field KW - Selberg Klasse KW - Diskrepanz KW - Primzahl KW - Selbergsche L-Reihe KW - Quadratischer Zahlkörper KW - Zetafunktion KW - Gleichverteilung Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-209252 ER - TY - THES A1 - Bartsch, Jan T1 - Theoretical and numerical investigation of optimal control problems governed by kinetic models T1 - Theoretische und numerische Untersuchung von Optimalsteuerungsproblemen mit kinetischen Modellen N2 - This thesis is devoted to the numerical and theoretical analysis of ensemble optimal control problems governed by kinetic models. The formulation and study of these problems have been put forward in recent years by R.W. Brockett with the motivation that ensemble control may provide a more general and robust control framework for dynamical systems. Following this formulation, a Liouville (or continuity) equation with an unbounded drift function is considered together with a class of cost functionals that include tracking of ensembles of trajectories of dynamical systems and different control costs. Specifically, $L^2$, $H^1$ and $L^1$ control costs are taken into account which leads to non--smooth optimization problems. For the theoretical investigation of the resulting optimal control problems, a well--posedness theory in weighted Sobolev spaces is presented for Liouville and related transport equations. Specifically, existence and uniqueness results for these equations and energy estimates in suitable norms are provided; in particular norms in weighted Sobolev spaces. Then, non--smooth optimal control problems governed by the Liouville equation are formulated with a control mechanism in the drift function. Further, box--constraints on the control are imposed. The control--to--state map is introduced, that associates to any control the unique solution of the corresponding Liouville equation. Important properties of this map are investigated, specifically, that it is well--defined, continuous and Frechet differentiable. Using the first two properties, the existence of solutions to the optimal control problems is shown. While proving the differentiability, a loss of regularity is encountered, that is natural to hyperbolic equations. This leads to the need of the investigation of the control--to--state map in the topology of weighted Sobolev spaces. Exploiting the Frechet differentiability, it is possible to characterize solutions to the optimal control problem as solutions to an optimality system. This system consists of the Liouville equation, its optimization adjoint in the form of a transport equation, and a gradient inequality. Numerical methodologies for solving Liouville and transport equations are presented that are based on a non--smooth Lagrange optimization framework. For this purpose, approximation and solution schemes for such equations are developed and analyzed. For the approximation of the Liouville model and its optimization adjoint, a combination of a Kurganov--Tadmor method, a Runge--Kutta scheme, and a Strang splitting method are discussed. Stability and second--order accuracy of these resulting schemes are proven in the discrete $L^1$ norm. In addition, conservation of mass and positivity preservation are confirmed for the solution method of the Liouville model. As numerical optimization strategy, an adapted Krylow--Newton method is applied. Since the control is considered to be an element of $H^1$ and to obey certain box--constraints, a method for calculating a $H^1$ projection is presented. Since the optimal control problem is non-smooth, a semi-smooth adaption of Newton's method is taken into account. Results of numerical experiments are presented that successfully validate the proposed deterministic framework. After the discussion of deterministic schemes, the linear space--homogeneous Keilson--Storer master equation is investigated. This equation was originally developed for the modelling of Brownian motion of particles immersed in a fluid and is a representative model of the class of linear Boltzmann equations. The well--posedness of the Keilson--Storer master equation is investigated and energy estimates in different topologies are derived. To solve this equation numerically, Monte Carlo methods are considered. Such methods take advantage of the kinetic formulation of the Liouville equation and directly implement the behaviour of the system of particles under consideration. This includes the probabilistic behaviour of the collisions between particles. Optimal control problems are formulated with an objective that is constituted of certain expected values in velocity space and the $L^2$ and $H^1$ costs of the control. The problems are governed by the Keilson--Storer master equation and the control mechanism is considered to be within the collision kernel. The objective of the optimal control of this model is to drive an ensemble of particles to acquire a desired mean velocity and to achieve a desired final velocity configuration. Existence of solutions of the optimal control problem is proven and a Keilson--Storer optimality system characterizing the solution of the proposed optimal control problem is obtained. The optimality system is used to construct a gradient--based optimization strategy in the framework of Monte--Carlo methods. This task requires to accommodate the resulting adjoint Keilson--Storer model in a form that is consistent with the kinetic formulation. For this reason, we derive an adjoint Keilson--Storer collision kernel and an additional source term. A similar approach is presented in the case of a linear space--inhomogeneous kinetic model with external forces and with Keilson--Storer collision term. In this framework, a control mechanism in the form of an external space--dependent force is investigated. The purpose of this control is to steer the multi--particle system to follow a desired mean velocity and position and to reach a desired final configuration in phase space. An optimal control problem using the formulation of ensemble controls is stated with an objective that is constituted of expected values in phase space and $H^1$ costs of the control. For solving the optimal control problems, a gradient--based computational strategy in the framework of Monte Carlo methods is developed. Part of this is the denoising of the distribution functions calculated by Monte Carlo algorithms using methods of the realm of partial differential equations. A standalone C++ code is presented that implements the developed non--linear conjugated gradient strategy. Results of numerical experiments confirm the ability of the designed probabilistic control framework to operate as desired. An outlook section about optimal control problems governed by non--linear space--inhomogeneous kinetic models completes this thesis. N2 - Diese Arbeit widmet sich der numerischen und theoretischen Analyse von Proble- men der optimalen Kontrolle von Ensembles, die durch kinetische Modelle gesteuert werden. Die Formulierung und Untersuchung von Ensemble–Kontrollproblemen wur- den in den letzten Jahren von R.W. Brockett vorgeschlagen und vorangetrieben, mit der Motivation, dass Ensemblekontrolle einen allgemeineren und robusteren Rahmen für die Kontrolle von dynamischen Systemen bieten kann. In Anlehnung an diese Formulierung der Ensemble–Steuerung werden eine Liouville– (oder Kontinuitäts– ) Gleichung mit unbeschränkter Driftfunktion und eine Klasse von Kostenfunk- tionalen miteinbezogen, die das Nachverfolgen der Ensembles und verschiedener Kon- trollkosten berücksichtigen. Insbesondere werden L2, H1 und L1 Kontrollkosten be- trachtet. Für die theoretische Untersuchung der resultierenden Optimalsteuerungs- problemen wird eine Gutgestelltheitstheorie in gewichteten Sobolev–Räumen für die Liouville– und Transportgleichungen vorgestellt. Insbesondere werden Existenz– und Eindeutigkeitsresultate sowie Energieabschätzungen in geeigneten Normen präsen- tiert; insbesondere in gewichteten Sobolev–Räumen. Dann wird eine Klasse von nicht–glatten Optimalsteuerungsproblemen formuliert mit der Liouville–Gleichung als Nebenbedingung und einem Kontrollmechanismus in der Driftfunktion. Weiter- hin werden Box–Einschränkungen angenommen. ... KW - Optimale Kontrolle KW - Optimierung / Nebenbedingung KW - Liouville and transport equations KW - Ensemble optimal control Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-249066 ER - TY - JOUR A1 - Bartsch, Jan A1 - Borzì, Alfio A1 - Fanelli, Francesco A1 - Roy, Souvik T1 - A numerical investigation of Brockett’s ensemble optimal control problems JF - Numerische Mathematik N2 - This paper is devoted to the numerical analysis of non-smooth ensemble optimal control problems governed by the Liouville (continuity) equation that have been originally proposed by R.W. Brockett with the purpose of determining an efficient and robust control strategy for dynamical systems. A numerical methodology for solving these problems is presented that is based on a non-smooth Lagrange optimization framework where the optimal controls are characterized as solutions to the related optimality systems. For this purpose, approximation and solution schemes are developed and analysed. Specifically, for the approximation of the Liouville model and its optimization adjoint, a combination of a Kurganov–Tadmor method, a Runge–Kutta scheme, and a Strang splitting method are discussed. The resulting optimality system is solved by a projected semi-smooth Krylov–Newton method. Results of numerical experiments are presented that successfully validate the proposed framework. KW - numerical analysis KW - Brockett KW - ensemble optimal control problems Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-265352 VL - 149 IS - 1 ER - TY - JOUR A1 - Matlach, Juliane A1 - Dhillon, Christine A1 - Hain, Johannes A1 - Schlunck, Günther A1 - Grehn, Franz A1 - Klink, Thomas T1 - Trabeculectomy versus canaloplasty (TVC study) in the treatment of patients with open-angle glaucoma: a prospective randomized clinical trial JF - Acta Ophthalmologica N2 - Purpose: To compare the outcomes of canaloplasty and trabeculectomy in open-angle glaucoma. Methods: This prospective, randomized clinical trial included 62 patients who randomly received trabeculectomy (n = 32) or canaloplasty (n = 30) and were followed up prospectively for 2 years. Primary endpoint was complete (without medication) and qualified success (with or without medication) defined as an intraocular pressure (IOP) of ≤18 mmHg (definition 1) or IOP ≤21 mmHg and ≥20% IOP reduction (definition 2), IOP ≥5 mmHg, no vision loss and no further glaucoma surgery. Secondary endpoints were the absolute IOP reduction, visual acuity, medication, complications and second surgeries. Results: Surgical treatment significantly reduced IOP in both groups (p < 0.001). Complete success was achieved in 74.2% and 39.1% (definition 1, p = 0.01), and 67.7% and 39.1% (definition 2, p = 0.04) after 2 years in the trabeculectomy and canaloplasty group, respectively. Mean absolute IOP reduction was 10.8 ± 6.9 mmHg in the trabeculectomy and 9.3 ± 5.7 mmHg in the canaloplasty group after 2 years (p = 0.47). Mean IOP was 11.5 ± 3.4 mmHg in the trabeculectomy and 14.4 ± 4.2 mmHg in the canaloplasty group after 2 years. Following trabeculectomy, complications were more frequent including hypotony (37.5%), choroidal detachment (12.5%) and elevated IOP (25.0%). Conclusions: Trabeculectomy is associated with a stronger IOP reduction and less need for medication at the cost of a higher rate of complications. If target pressure is attainable by moderate IOP reduction, canaloplasty may be considered for its relative ease of postoperative care and lack of complications. KW - months follow-up KW - surgical outcomes KW - mitomycin C KW - canaloplasty KW - open-angle glaucoma KW - trabeculectomy KW - glaucoma surgery KW - series KW - phacocanaloplasty KW - phacotrabeculectomy KW - canal surgery KW - cataract surgery KW - flexible microcatheter KW - circumferential viscodilation Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-149263 VL - 93 ER - TY - JOUR A1 - Hellmuth, Kathrin A1 - Klingenberg, Christian T1 - Computing Black Scholes with uncertain volatility — a machine learning approach JF - Mathematics N2 - In financial mathematics, it is a typical approach to approximate financial markets operating in discrete time by continuous-time models such as the Black Scholes model. Fitting this model gives rise to difficulties due to the discrete nature of market data. We thus model the pricing process of financial derivatives by the Black Scholes equation, where the volatility is a function of a finite number of random variables. This reflects an influence of uncertain factors when determining volatility. The aim is to quantify the effect of this uncertainty when computing the price of derivatives. Our underlying method is the generalized Polynomial Chaos (gPC) method in order to numerically compute the uncertainty of the solution by the stochastic Galerkin approach and a finite difference method. We present an efficient numerical variation of this method, which is based on a machine learning technique, the so-called Bi-Fidelity approach. This is illustrated with numerical examples. KW - numerical finance KW - Black Scholes equation KW - uncertainty quantification KW - uncertain volatility KW - polynomial chaos KW - Bi-Fidelity method Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-262280 SN - 2227-7390 VL - 10 IS - 3 ER - TY - THES A1 - Mungenast, Sebastian T1 - Zur Bedeutung von Metakognition beim Umgang mit Mathematik - Dokumentation metakognitiver Aktivitäten bei Studienanfänger_innen, Entwicklung eines Kategoriensystems für Metakognition beim Umgang mit Mathematik und Erörterung von Ansatzpunkten für Metakognition in der Analysis T1 - On the significance of metacognition in the context of mathematics – Documentation of metacognitive activity in prospective students, development of a category system for metacognition in a mathematical context and discussion of Calculus-related starting points for metacognitive activity N2 - Die vorliegende Arbeit beschäftigt sich explorativ mit Metakognition beim Umgang mit Mathematik. Aufbauend auf der vorgestellten Forschungsliteratur wird der Einsatz von Metakognition im Rahmen einer qualitativen Studie bei Studienanfänger_innen aus verschiedenen Mathematik-(Lehramts-)Studiengängen dokumentiert. Unter Verwendung der Qualitativen Inhaltsanalyse nach Mayring erfolgt die Etablierung eines Kategoriensystems für den Begriff Metakognition im Hinblick auf den Einsatz in der Mathematik, das bisherige Systematisierungen erweitert. Schließlich wird der Einsatz der entsprechenden metakognitiven Aspekte am Beispiel verschiedener Begriffe und Verfahren aus dem Analysis-Unterricht exemplarisch aufgezeigt. N2 - The thesis explores metacognition in the context of mathematics. Based on the presented research literature metacognitive activity is documented as part of a qualitative study among prospective students from various mathematics programmes (including mathematics teaching). Utilising Mayring’s Qualitative Content Analysis method a category system is established, which systemises metacognition and expands upon existing categorisations. Finally, the application of its metacognitive aspects is demonstrated using the example of various concepts and methods from the German upper secondary Calculus curriculum. KW - Metakognition KW - Mathematikunterricht KW - Hochschuldidaktik KW - Mathematik KW - Mathematikdidaktik KW - Mathematiklernen Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-293114 ER - TY - THES A1 - Nedrenco, Dmitri T1 - Axiomatisieren lernen mit Papierfalten : Entwicklung, Durchführung und Auswertung eines Hochschulkurses für gymnasiale Lehramtsstudierende T1 - Learning how to axiomatise with paperfolding N2 - In dieser Arbeit wird mathematisches Papierfalten und speziell 1-fach-Origami im universitären Kontext untersucht. Die Arbeit besteht aus drei Teilen. Der erste Teil ist im Wesentlichen der Sachanalyse des 1-fach-Origami gewidmet. Im ersten Kapitel gehen wir auf die geschichtliche Einordnung des 1-fach-Origami, betrachten axiomatische Grundlagen und diskutieren, wie das Axiomatisieren von 1-fach-Origami zum Verständnis des Axiomenbegriffs beitragen könnte. Im zweiten Kapitel schildern wir das Design der zugehörigen explorativen Studie, beschreiben unsere Forschungsziele und -fragen. Im dritten Kapitel wird 1-fach-Origami mathematisiert, definiert und eingehend untersucht. Der zweite Teil beschäftigt sich mit den von uns gestalteten und durchgeführten Kursen »Axiomatisieren lernen mit Papierfalten«. Im vierten Kapitel beschreiben wir die Lehrmethodik und die Gestaltung der Kurse, das fünfte Kapitel enthält ein Exzerpt der Kurse. Im dritten Teil werden die zugehörigen Tests beschrieben. Im sechsten Kapitel erläutern wir das Design der Tests sowie die Testmethodik. Im siebten Kapitel findet die Auswertung ebendieser Tests statt. N2 - In this manuscript, mathematical paper folding and specifically 1-fold origami is studied in a university context. The thesis consists of three parts. The first part is mainly devoted to the factual analysis of 1-fold origami. In the first chapter, we elaborate on the historical development of 1-fold origami, consider axiomatic foundations, and discuss how axiomatizing 1-fold origami could contribute to the understanding of the concept of an axiom. In the second chapter, we describe the design of the related exploratory study, describe our research objectives and questions. In the third chapter, 1-fold origami is mathematized, defined, and explored in depth. The second part focuses on the courses with the title "Learning how to axiomatize through paperfolding" which we designed and conducted. In the fourth chapter we describe the teaching methodology and the design of the courses, and the fifth chapter contains an excerpt of the courses. In the third part we describe the associated tests. In the sixth chapter we explain the design of the tests as well as the testing methodology. In the seventh chapter, the evaluation of these tests is carried out. KW - Mathematikunterricht KW - Axiom KW - Falten KW - Hochschule+Lehre KW - Origami KW - Axiomatisieren KW - mathematisches Papierfalten KW - 1-fach-Origami KW - one-fold-origami KW - mathematical paperfolding Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-279383 ER - TY - THES A1 - Karl, Veronika T1 - Augmented Lagrangian Methods for State Constrained Optimal Control Problems T1 - Augmentierte Lagrange-Verfahren für zustandsbeschränkte Optimalsteuerungsprobleme N2 - This thesis is concerned with the solution of control and state constrained optimal control problems, which are governed by elliptic partial differential equations. Problems of this type are challenging since they suffer from the low regularity of the multiplier corresponding to the state constraint. Applying an augmented Lagrangian method we overcome these difficulties by working with multiplier approximations in $L^2(\Omega)$. For each problem class, we introduce the solution algorithm, carry out a thoroughly convergence analysis and illustrate our theoretical findings with numerical examples. The thesis is divided into two parts. The first part focuses on classical PDE constrained optimal control problems. We start by studying linear-quadratic objective functionals, which include the standard tracking type term and an additional regularization term as well as the case, where the regularization term is replaced by an $L^1(\Omega)$-norm term, which makes the problem ill-posed. We deepen our study of the augmented Lagrangian algorithm by examining the more complicated class of optimal control problems that are governed by a semilinear partial differential equation. The second part investigates the broader class of multi-player control problems. While the examination of jointly convex generalized Nash equilibrium problems (GNEP) is a simple extension of the linear elliptic optimal control case, the complexity is increased significantly for pure GNEPs. The existence of solutions of jointly convex GNEPs is well-studied. However, solution algorithms may suffer from non-uniqueness of solutions. Therefore, the last part of this thesis is devoted to the analysis of the uniqueness of normalized equilibria. N2 - Die vorliegende Arbeit beschäftigt sich mit der Lösung von kontroll- und zustandsbeschränkten Optimalsteuerungsproblemen mit elliptischen partiellen Differentialgleichungen als Nebenbedingungen. Da die zur Zustandsbeschränkung zugehörigen Multiplikatoren nur eine niedrige Regularität aufweisen, sind Probleme dieses Typs besonders anspruchsvoll. Zur Lösung dieser Problemklasse wird ein augmentiertes Lagrange-Verfahren angewandt, das Annäherungen der Multiplikatoren in $L^2(\Omega)$ verwendet. Für jede Problemklasse erfolgt eine Präsentation des Lösungsalgorithmus, eine sorgfältige Konvergenzanalysis sowie eine Veranschaulichung der theoretischen Ergebnisse durch numerische Beispiele. Die Arbeit ist in zwei verschiedene Themenbereiche gegliedert. Der erste Teil widmet sich klassischen Optimalsteuerungsproblemen. Dabei wird zuerst der linear-quadratische und somit konvexe Fall untersucht. Hier setzt sich das Kostenfunktional aus einem Tracking-Type Term sowie einem $L^2(\Omega)$-Regularisierungsterm oder einem $L^1(\Omega)$-Term zusammen. Wir erweitern unsere Analysis auf nichtkonvexe Probleme. In diesem Fall erschwert die Nichtlinearität der zugrundeliegenden partiellen Differentialgleichung die Konvergenzanalysis des zugehörigen Optimalsteuerungsproblems maßgeblich. Der zweite Teil der Arbeit nutzt die Grundlagen, die im ersten Teil erarbeitet wurden und untersucht die allgemeiner gehaltene Problemklasse der Nash-Mehrspielerprobleme. Während die Untersuchung von konvexen verallgemeinerten Nash-Gleichsgewichtsproblemen (engl.: Generalized Nash Equilibrium Problem, kurz: GNEP) mit einer für alle Spieler identischen Restriktion eine einfache Erweiterung von linear elliptischen Optimalsteuerungsproblemen darstellt, erhöht sich der Schwierigkeitsgrad für Mehrspielerprobleme ohne gemeinsame Restriktion drastisch. Die Eindeutigkeit von normalisierten Nash-Gleichgewichten ist, im Gegensatz zu deren Existenz, nicht ausreichend erforscht, was insbesondere eine Schwierigkeit für Lösungsalgorithmen darstellt. Aus diesem Grund wird im letzten Teil dieser Arbeit die Eindeutigkeit von Lösungen gesondert betrachtet. KW - Optimale Kontrolle KW - Optimierung KW - Nash-Gleichgewicht KW - optimal control KW - state constraints KW - augmented Lagrangian method KW - Elliptische Differentialgleichung KW - Optimale Steuerung Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-213846 ER - TY - THES A1 - Lauerbach, Laura T1 - Stochastic Homogenization in the Passage from Discrete to Continuous Systems - Fracture in Composite Materials T1 - Stochastische Homogenisierung im Übergang von Diskreten zu Kontinuierlichen Systemen - Brüche in Verbundwerkstoffen N2 - The work in this thesis contains three main topics. These are the passage from discrete to continuous models by means of $\Gamma$-convergence, random as well as periodic homogenization and fracture enabled by non-convex Lennard-Jones type interaction potentials. Each of them is discussed in the following. We consider a discrete model given by a one-dimensional chain of particles with randomly distributed interaction potentials. Our interest lies in the continuum limit, which yields the effective behaviour of the system. This limit is achieved as the number of atoms tends to infinity, which corresponds to a vanishing distance between the particles. The starting point of our analysis is an energy functional in a discrete system; its continuum limit is obtained by variational $\Gamma$-convergence. The $\Gamma$-convergence methods are combined with a homogenization process in the framework of ergodic theory, which allows to focus on heterogeneous systems. On the one hand, composite materials or materials with impurities are modelled by a stochastic or periodic distribution of particles or interaction potentials. On the other hand, systems of one species of particles can be considered as random in cases when the orientation of particles matters. Nanomaterials, like chains of atoms, molecules or polymers, are an application of the heterogeneous chains in experimental sciences. A special interest is in fracture in such heterogeneous systems. We consider interaction potentials of Lennard-Jones type. The non-standard growth conditions and the convex-concave structure of the Lennard-Jones type interactions yield mathematical difficulties, but allow for fracture. The interaction potentials are long-range in the sense that their modulus decays slower than exponential. Further, we allow for interactions beyond nearest neighbours, which is also referred to as long-range. The main mathematical issue is to bring together the Lennard-Jones type interactions with ergodic theorems in the limiting process as the number of particles tends to infinity. The blow up at zero of the potentials prevents from using standard extensions of the Akcoglu-Krengel subadditive ergodic theorem. We overcome this difficulty by an approximation of the interaction potentials which shows suitable Lipschitz and Hölder regularity. Beyond that, allowing for continuous probability distributions instead of only finitely many different potentials leads to a further challenge. The limiting integral functional of the energy by means of $\Gamma$-convergence involves a homogenized energy density and allows for fracture, but without a fracture contribution in the energy. In order to refine this result, we rescale our model and consider its $\Gamma$-limit, which is of Griffith's type consisting of an elastic part and a jump contribution. In a further approach we study fracture at the level of the discrete energies. With an appropriate definition of fracture in the discrete setting, we define a fracture threshold separating the region of elasticity from that of fracture and consider the pointwise convergence of this threshold. This limit turns out to coincide with the one obtained in the variational $\Gamma$-convergence approach. N2 - Diese Arbeit vereinigt im Wesentlichen drei Themen: Den Übergang von diskreten zu kontinuierlichen Modellen mittels $\Gamma$-Konvergenz, stochastische sowie periodische Homogenisierung, sowie Bruchmechanik, die durch nicht-konvexe Wechselwirkungspotentiale vom Lennard-Jones-Typ ermöglicht wird. Jedes dieser drei Themen wird im Folgenden diskutiert. Wir betrachten ein diskretes Modell, bestehend aus einer eindimensionale Kette von Teilchen mit zufällig verteilten Wechselwirkungspotentialen. Wir sind am Kontinuumsgrenzwert interessiert, welcher das effektive Verhalten des Systems widerspiegelt. In diesem Grenzwert läuft die Anzahl der Atome gegen unendlich, was einem verschwindenden Abstand zwischen den Teilchen entspricht. Ausgehend von einer Energie eines diskreten Systems erhalten wir den Kontinuumsgrenzwert durch die variationelle Methode der $\Gamma$-Konvergenz, welche den Übergang zum kontinuierlichen System liefert. Die $\Gamma$-Konvergenzmethoden werden im Rahmen der Ergodentheorie mit einem Homogenisierungsprozess kombiniert, wodurch die Betrachtung heterogener Systeme möglich wird. Einerseits werden Verbundwerkstoffe oder Materialien mit Verunreinigungen durch eine stochastische oder periodische Verteilung der Teilchen oder der Wechselwirkungspotentiale modelliert. Andererseits können Systeme einer Teilchenart als zufällig angesehen werden, wenn die Orientierung der Teilchen von Bedeutung ist. Nanomaterialien wie Ketten von Atomen, Molekülen oder Polymeren bieten eine Anwendung des Modells der heterogenen Ketten in den experimentellen Wissenschaften. Von besonderem Interesse ist das Auftreten von Brüchen in diesen heterogenen Systemen. Wir betrachten Wechselwirkungspotentiale vom Lennard-Jones Typ. Die nicht-standardisierten Wachstumsbedingungen und die konvex-konkave Struktur der Lennard-Jones Potentiale werfen mathematische Schwierigkeiten auf, ermöglichen jedoch das Auftreten von Brüchen. Die Wechselwirkungen gelten als langreichweitig in dem Sinne, dass ihr Betrag langsamer als exponentiell abfällt. Darüber hinaus betrachten wir Wechselwirkungen jenseits der nächsten Nachbarn, was ebenfalls als langreichweitig bezeichnet wird. Eine der größten mathematischen Schwierigkeiten besteht darin, die Wechselwirkungen vom Lennard-Jones Typ mit den Ergodensätzen zusammenzuführen. Die Singularität der Potentiale bei Null erlaubt keine Verwendung der Standardtechniken zur Erweiterung des subadditiven Ergodensatzes von Akcoglu-Krengel. Die Lösung dieses Problems ist eine Approximation der Wechselwirkungspotentiale, welche eine geeignete Lipschitz- und Hölder-Regularität besitzt. Darüber hinaus stellt die Verwendung von kontinuierlichen Wahrscheinlichkeitsverteilungen, anstelle von nur endlich vielen verschiedenen Potentialen, eine weitere Herausforderung dar. Das Integralfunktional im Grenzwert besteht aus einer homogenisierten Energiedichte und ermöglicht Brüche, jedoch ohne einen Beitrag dieser Brüche zur Energie. Um dieses Ergebnis zu verfeinern, skalieren wir unser Modell neu und betrachten dessen $\Gamma$-Grenzwert, der in Form einer Energie vom Griffith-Typ gegeben ist und aus einem elastischen Teil und einem Sprungbeitrag besteht. In einem weiteren Ansatz untersuchen wir Brüche auf Ebene der diskreten Energien. Mit einer geeigneten Definition des Bruchpunktes im diskreten System definieren wir eine Bruchschwelle, die den Elastizitätsbereich von dem Gebiet mit Brüchen trennt. Von diesem Schwellwert berechnen wir anschließend den punktweisen Grenzwert. Es stellt sich heraus, dass dieser Grenzwert mit dem durch die variationelle $\Gamma$-Konvergenz errechneten übereinstimmt. KW - Homogenisierung KW - Gamma-Konvergenz KW - Variationsrechnung KW - Lennard-Jones-Potenzial KW - Calculus of Variations KW - Brittle fracture KW - Periodic homogenization KW - Discrete to continuum KW - Stochastic homogenization Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-214534 ER - TY - JOUR A1 - del Alamo, Miguel A1 - Li, Housen A1 - Munk, Axel A1 - Werner, Frank T1 - Variational Multiscale Nonparametric Regression: Algorithms and Implementation JF - Algorithms N2 - Many modern statistically efficient methods come with tremendous computational challenges, often leading to large-scale optimisation problems. In this work, we examine such computational issues for recently developed estimation methods in nonparametric regression with a specific view on image denoising. We consider in particular certain variational multiscale estimators which are statistically optimal in minimax sense, yet computationally intensive. Such an estimator is computed as the minimiser of a smoothness functional (e.g., TV norm) over the class of all estimators such that none of its coefficients with respect to a given multiscale dictionary is statistically significant. The so obtained multiscale Nemirowski-Dantzig estimator (MIND) can incorporate any convex smoothness functional and combine it with a proper dictionary including wavelets, curvelets and shearlets. The computation of MIND in general requires to solve a high-dimensional constrained convex optimisation problem with a specific structure of the constraints induced by the statistical multiscale testing criterion. To solve this explicitly, we discuss three different algorithmic approaches: the Chambolle-Pock, ADMM and semismooth Newton algorithms. Algorithmic details and an explicit implementation is presented and the solutions are then compared numerically in a simulation study and on various test images. We thereby recommend the Chambolle-Pock algorithm in most cases for its fast convergence. We stress that our analysis can also be transferred to signal recovery and other denoising problems to recover more general objects whenever it is possible to borrow statistical strength from data patches of similar object structure. KW - non-smooth large-scale optimisation KW - image denoising KW - variational estimation KW - multiscale methods KW - MIND estimator Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-219332 SN - 1999-4893 VL - 13 IS - 11 ER - TY - THES A1 - Börgens, Eike Alexander Lars Guido T1 - ADMM-Type Methods for Optimization and Generalized Nash Equilibrium Problems in Hilbert Spaces T1 - ADMM-Methoden für Optimierungs- und Verallgemeinerte Nash-Gleichgewichtsprobleme in Hilberträumen N2 - This thesis is concerned with a certain class of algorithms for the solution of constrained optimization problems and generalized Nash equilibrium problems in Hilbert spaces. This class of algorithms is inspired by the alternating direction method of multipliers (ADMM) and eliminates the constraints using an augmented Lagrangian approach. The alternating direction method consists of splitting the augmented Lagrangian subproblem into smaller and more easily manageable parts. Before the algorithms are discussed, a substantial amount of background material, including the theory of Banach and Hilbert spaces, fixed-point iterations as well as convex and monotone set-valued analysis, is presented. Thereafter, certain optimization problems and generalized Nash equilibrium problems are reformulated and analyzed using variational inequalities and set-valued mappings. The analysis of the algorithms developed in the course of this thesis is rooted in these reformulations as variational inequalities and set-valued mappings. The first algorithms discussed and analyzed are one weakly and one strongly convergent ADMM-type algorithm for convex, linearly constrained optimization. By equipping the associated Hilbert space with the correct weighted scalar product, the analysis of these two methods is accomplished using the proximal point method and the Halpern method. The rest of the thesis is concerned with the development and analysis of ADMM-type algorithms for generalized Nash equilibrium problems that jointly share a linear equality constraint. The first class of these algorithms is completely parallelizable and uses a forward-backward idea for the analysis, whereas the second class of algorithms can be interpreted as a direct extension of the classical ADMM-method to generalized Nash equilibrium problems. At the end of this thesis, the numerical behavior of the discussed algorithms is demonstrated on a collection of examples. N2 - Die vorliegende Arbeit behandelt eine Klasse von Algorithmen zur Lösung restringierter Optimierungsprobleme und verallgemeinerter Nash-Gleichgewichtsprobleme in Hilberträumen. Diese Klasse von Algorithmen ist angelehnt an die Alternating Direction Method of Multipliers (ADMM) und eliminiert die Nebenbedingungen durch einen Augmented-Lagrangian-Ansatz. Im Rahmen dessen wird in der Alternating Direction Method of Multipliers das jeweilige Augmented-Lagrangian-Teilproblem in kleinere Teilprobleme aufgespaltet. Zur Vorbereitung wird eine Vielzahl grundlegender Resultate präsentiert. Dies beinhaltet entsprechende Ergebnisse aus der Literatur zu der Theorie von Banach- und Hilberträumen, Fixpunktmethoden sowie konvexer und monotoner mengenwertiger Analysis. Im Anschluss werden gewisse Optimierungsprobleme sowie verallgemeinerte Nash-Gleichgewichtsprobleme als Variationsungleichungen und Inklusionen mit mengenwertigen Operatoren formuliert und analysiert. Die Analysis der im Rahmen dieser Arbeit entwickelten Algorithmen bezieht sich auf diese Reformulierungen als Variationsungleichungen und Inklusionsprobleme. Zuerst werden ein schwach und ein stark konvergenter paralleler ADMM-Algorithmus zur Lösung von separablen Optimierungsaufgaben mit linearen Gleichheitsnebenbedingungen präsentiert und analysiert. Durch die Ausstattung des zugehörigen Hilbertraums mit dem richtigen gewichteten Skalarprodukt gelingt die Analyse dieser beiden Methoden mit Hilfe der Proximalpunktmethode und der Halpern-Methode. Der Rest der Arbeit beschäftigt sich mit Algorithmen für verallgemeinerte Nash-Gleichgewichtsprobleme, die gemeinsame lineare Gleichheitsnebenbedingungen besitzen. Die erste Klasse von Algorithmen ist vollständig parallelisierbar und es wird ein Forward-Backward-Ansatz für die Analyse genutzt. Die zweite Klasse von Algorithmen kann hingegen als direkte Erweiterung des klassischen ADMM-Verfahrens auf verallgemeinerte Nash-Gleichgewichtsprobleme aufgefasst werden. Abschließend wird das Konvergenzverhalten der entwickelten Algorithmen an einer Sammlung von Beispielen demonstriert. KW - Constrained optimization KW - Nash-Gleichgewicht KW - ADMM KW - Generalized Nash Equilibrium Problem KW - Verallgemeinertes Nash-Gleichgewichtsproblem KW - Hilbert-Raum KW - Optimierung Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-218777 ER - TY - THES A1 - Kann, Lennart T1 - Statistical Failure Prediction with an Account for Prior Information T1 - Statistische Vorhersage von Ausfällen unter Berücksichtigung von Vorinformationen N2 - Prediction intervals are needed in many industrial applications. Frequently in mass production, small subgroups of unknown size with a lifetime behavior differing from the remainder of the population exist. A risk assessment for such a subgroup consists of two steps: i) the estimation of the subgroup size, and ii) the estimation of the lifetime behavior of this subgroup. This thesis covers both steps. An efficient practical method to estimate the size of a subgroup is presented and benchmarked against other methods. A prediction interval procedure which includes prior information in form of a Beta distribution is provided. This scheme is applied to the prediction of binomial and negative binomial counts. The effect of the population size on the prediction of the future number of failures is considered for a Weibull lifetime distribution, whose parameters are estimated from censored field data. Methods to obtain a prediction interval for the future number of failures with unknown sample size are presented. In many applications, failures are reported with a delay. The effects of such a reporting delay on the coverage properties of prediction intervals for the future number of failures are studied. The total failure probability of the two steps can be decomposed as a product probability. One-sided confidence intervals for such a product probability are presented. N2 - Vorhersageintervalle werden in vielen industriellen Anwendungen benötigt. In Massenproduktionen entstehen regelmäßig kleine Untergruppen von unbekannter Größer, welche ein anderes Lebensdauerverhalten als die übrige Population besitzen. Eine Risikoeinschätzung für eine solche Untergruppe besteht aus zwei Schritten: i) der Schätzung der Größe dieser Untergruppe und ii) der Schätzung des Lebensdauerverhaltens dieser Untergruppe. Diese Arbeit behandelt diese beiden Schritte. Eine effiziente Methode zur Schätzung der Größe der Untergruppe wird vorgestellt und mit anderen Methoden verglichen. Vorhersageintervalle unter Vorinformation in Form einer Betaverteilung werden dargelegt. Das Schema wird für die Vorhersage binomialer und negativ binomialer Zufallsvariablen angewandt. Der Effekt der Populationsgröße auf die Vorhersage der Anzahl von zukünftigen Ausfällen wird für eine Weibull Verteilung betrachtet, deren Parameter auf Basis von zensierten Felddaten geschätzt werden. Methoden um Vorhersageintervalle bei unbekannter Populationsgröße zu bestimmen werden dargelegt. In vielen Anwendungen werden Ausfälle mit einem Verzug gemeldet. Die Effekte eines solchen Meldeverzugs auf die Überdeckungseigenschaften von Vorhersageintervallen für die Anzahl an zukünftigen Ausfällen werden untersucht. Die Gesamtausfallwahrscheinlichkeit aus den zwei Schritten kann in eine Produktwahrscheinlichkeit zerlegt werden. Einseitige Konfidenzintervalle für eine solche Produktwahrscheinlichkeit werden dargelegt. KW - Konfidenzintervall KW - Statistik KW - Weibull-Verteilung KW - Vorhersagbarkeit KW - A-priori-Wissen KW - Prediction interval KW - Confidence interval KW - Prior information KW - Weibull distribution KW - Mathematik KW - Binomialverteilung Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-205049 ER - TY - GEN A1 - Breitenbach, Tim T1 - Codes of examples for SQH method N2 - Code examples for the paper "On the SQH Scheme to Solve Nonsmooth PDE Optimal Control Problems" by Tim Breitenbach and Alfio Borzì published in the journal "Numerical Functional Analysis and Optimization", in 2019, DOI: 10.1080/01630563.2019.1599911 KW - Code examples KW - SQH method Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-167587 ER - TY - THES A1 - Meyer, Michael T1 - Practical isogeny-based cryptography T1 - Praktische Isogenie-basierte Kryptographie N2 - This thesis aims at providing efficient and side-channel protected implementations of isogeny-based primitives, and at their application in threshold protocols. It is based on a sequence of academic papers. Chapter 3 reviews the original variable-time implementation of CSIDH and introduces several optimizations, e.g. a significant improvement of isogeny computations by using both Montgomery and Edwards curves. In total, our improvements yield a speedup of 25% compared to the original implementation. Chapter 4 presents the first practical constant-time implementation of CSIDH. We describe how variable-time implementations of CSIDH leak information on private keys, and describe ways to mitigate this. Further, we present several techniques to speed up the implementation. In total, our constant-time implementation achieves a rather small slowdown by a factor of 3.03. Chapter 5 reviews practical fault injection attacks on CSIDH and presents countermeasures. We evaluate different attack models theoretically and practically, using low-budget equipment. Moreover, we present countermeasures that mitigate the proposed fault injection attacks, only leading to a small performance overhead of 7%. Chapter 6 initiates the study of threshold schemes based on the Hard Homogeneous Spaces (HHS) framework of Couveignes. Using the HHS equivalent of Shamir’s secret sharing in the exponents, we adapt isogeny based schemes to the threshold setting. In particular, we present threshold versions of the CSIDH public key encryption and the CSI-FiSh signature scheme. Chapter 7 gives a sieving algorithm for finding pairs of consecutive smooth numbers that utilizes solutions to the Prouhet-Tarry-Escott (PTE) problem. Recent compact isogeny-based protocols, namely B-SIDH and SQISign, both require large primes that lie between two smooth integers. Finding such a prime can be seen as a special case of finding twin smooth integers under the additional stipulation that their sum is a prime. N2 - Die vorliegende Dissertation stellt effiziente und Seitenkanal-geschützte Implementierungen Isogenie-basierter Verfahren bereit, und behandelt deren Verwendung in Threshold-Protokollen. Sie basiert auf einer Reihe von Veröffentlichungen. Kapitel 3 untersucht die originale variable-time Implementierung von CSIDH und beschreibt einige Optimierungen, wie etwa die effizientere Berechnung von Isogenien durch die Verwendung von Montgomery- und Edwards-Kurven. Insgesamt erreichen die Optimierungen eine Beschleuningung von 25% gegenüber der Referenzimplementierung. Kapitel 4 enthält die erste effiziente constant-time Implementierung von CSIDH. Es beschreibt inwiefern variable-time Implementierungen Informationen über private Schlüssel liefern, und entsprechende Gegenmaßnahmen. Des Weiteren werden einige Techniken zur Optimierung der Implementierung beschrieben. Insgesamt ist die constant-time Implementierung nur etwa 3x langsamer. Kapitel 5 untersucht praktische Fault-injection Attacken auf CSIDH und beschreibt Gegenmaßnahmen. Es betrachtet verschiedene Angriffsmodelle theoretisch und praktisch unter der Verwendung von low-budget Equipment. Die Gegenmaßnahmen führen zu einer sehr kleinen Performance-Verschlechterung von 7%. Kapitel 6 initiiert die Untersuchung von Threshold-Verfahren basierend auf Hard Homogeneous Spaces (HHS). Unter Verwendung der HHS-Version von Shamir Secret Sharing im Exponenten, werden Threshold-Varianten der CSIDH Verschlüsselung und des CSI-FiSh Signaturschemas definiert. Kapitel 7 enthält einen Sieb-Algorithmus zur Suche nach Paaren von aufeinanderfolgenden glatten Zahlen, unter Verwendung von Lösungen des Prouhet-Tarry-Escott-Problems. Die kürzlich veröffentlichten Isogenie-Verfahren B-SIDH und SQISign benötigen große Primzahlen, die zwischen zwei glatten ganzen Zahlen liegen. Die Suche nach solchen Primzahlen ist ein Spezialfall der Suche nach glatten benachbarten Zahlen, unter der zusätzlichen Bedingung dass deren Summe prim ist. KW - Kryptologie KW - Post-Quantum-Kryptografie KW - isogeny-based cryptography KW - CSIDH KW - elliptic curves KW - Elliptische Kurve Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-246821 ER - TY - THES A1 - Calà Campana, Francesca T1 - Numerical methods for solving open-loop non zero-sum differential Nash games T1 - Numerische Methoden zur Lösung von Open-Loop-Nicht-Nullsummen-Differential-Nash-Spielen N2 - This thesis is devoted to a theoretical and numerical investigation of methods to solve open-loop non zero-sum differential Nash games. These problems arise in many applications, e.g., biology, economics, physics, where competition between different agents appears. In this case, the goal of each agent is in contrast with those of the others, and a competition game can be interpreted as a coupled optimization problem for which, in general, an optimal solution does not exist. In fact, an optimal strategy for one player may be unsatisfactory for the others. For this reason, a solution of a game is sought as an equilibrium and among the solutions concepts proposed in the literature, that of Nash equilibrium (NE) is the focus of this thesis. The building blocks of the resulting differential Nash games are a dynamical model with different control functions associated with different players that pursue non-cooperative objectives. In particular, the aim of this thesis is on differential models having linear or bilinear state-strategy structures. In this framework, in the first chapter, some well-known results are recalled, especially for non-cooperative linear-quadratic differential Nash games. Then, a bilinear Nash game is formulated and analysed. The main achievement in this chapter is Theorem 1.4.2 concerning existence of Nash equilibria for non-cooperative differential bilinear games. This result is obtained assuming a sufficiently small time horizon T, and an estimate of T is provided in Lemma 1.4.8 using specific properties of the regularized Nikaido-Isoda function. In Chapter 2, in order to solve a bilinear Nash game, a semi-smooth Newton (SSN) scheme combined with a relaxation method is investigated, where the choice of a SSN scheme is motivated by the presence of constraints on the players’ actions that make the problem non-smooth. The resulting method is proved to be locally convergent in Theorem 2.1, and an estimate on the relaxation parameter is also obtained that relates the relaxation factor to the time horizon of a Nash equilibrium and to the other parameters of the game. For the bilinear Nash game, a Nash bargaining problem is also introduced and discussed, aiming at determining an improvement of all players’ objectives with respect to the Nash equilibrium. A characterization of a bargaining solution is given in Theorem 2.2.1 and a numerical scheme based on this result is presented that allows to compute this solution on the Pareto frontier. Results of numerical experiments based on a quantum model of two spin-particles and on a population dynamics model with two competing species are presented that successfully validate the proposed algorithms. In Chapter 3 a functional formulation of the classical homicidal chauffeur (HC) Nash game is introduced and a new numerical framework for its solution in a time-optimal formulation is discussed. This methodology combines a Hamiltonian based scheme, with proximal penalty to determine the time horizon where the game takes place, with a Lagrangian optimal control approach and relaxation to solve the Nash game at a fixed end-time. The resulting numerical optimization scheme has a bilevel structure, which aims at decoupling the computation of the end-time from the solution of the pursuit-evader game. Several numerical experiments are performed to show the ability of the proposed algorithm to solve the HC game. Focusing on the case where a collision may occur, the time for this event is determined. The last part of this thesis deals with the analysis of a novel sequential quadratic Hamiltonian (SQH) scheme for solving open-loop differential Nash games. This method is formulated in the framework of Pontryagin’s maximum principle and represents an efficient and robust extension of the successive approximations strategy in the realm of Nash games. In the SQH method, the Hamilton-Pontryagin functions are augmented by a quadratic penalty term and the Nikaido-Isoda function is used as a selection criterion. Based on this fact, the key idea of this SQH scheme is that the PMP characterization of Nash games leads to a finite-dimensional Nash game for any fixed time. A class of problems for which this finite-dimensional game admits a unique solution is identified and for this class of games theoretical results are presented that prove the well-posedness of the proposed scheme. In particular, Proposition 4.2.1 is proved to show that the selection criterion on the Nikaido-Isoda function is fulfilled. A comparison of the computational performances of the SQH scheme and the SSN-relaxation method previously discussed is shown. Applications to linear-quadratic Nash games and variants with control constraints, weighted L1 costs of the players’ actions and tracking objectives are presented that corroborate the theoretical statements. N2 - Diese Dissertation handelt von eine theoretischen und numerischen Untersuchung von Methoden zur Lösung von Open-Loop-Nicht-Nullsummen-Differential-Nash-Spielen. Diese Probleme treten in vielen Anwendungen auf, z.B., Biologie, Wirtschaft, Physik, in denen die Konkurrenz zwischen verschiedenen Wirkstoffen bzw. Agenten auftritt. In diesem Fall steht das Ziel jedes Agenten im Gegensatz zu dem der anderen und ein Wettbewerbsspiel kann als gekoppeltes Optimierungsproblem interpretiert werden. Im Allgemeinen gibt es keine optimale Lösung für ein solches Spiel. Tatsächlich kann eine optimale Strategie für einen Spieler für den anderen unbefriedigend sein. Aus diesem Grund wird ein Gle- ichgewicht eines Spiels als Lösung gesucht, und unter den in der Literatur vorgeschlagenen Lösungskonzepten steht das Nash-Gleichgewicht (NE) im Mittelpunkt dieser Arbeit. ... KW - Differential Games KW - Bilinear differential games KW - Homicidal Chauffeur game KW - Sequential Quadratic Hamiltonian scheme KW - Pontryagin maximum principle KW - Relaxation method Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-245900 ER - TY - JOUR A1 - Breitenbach, Tim A1 - Borzì, Alfio T1 - The Pontryagin maximum principle for solving Fokker–Planck optimal control problems JF - Computational Optimization and Applications N2 - The characterization and numerical solution of two non-smooth optimal control problems governed by a Fokker–Planck (FP) equation are investigated in the framework of the Pontryagin maximum principle (PMP). The two FP control problems are related to the problem of determining open- and closed-loop controls for a stochastic process whose probability density function is modelled by the FP equation. In both cases, existence and PMP characterisation of optimal controls are proved, and PMP-based numerical optimization schemes are implemented that solve the PMP optimality conditions to determine the controls sought. Results of experiments are presented that successfully validate the proposed computational framework and allow to compare the two control strategies. KW - Fokker–Planck equation KW - Pontryagin maximum principle KW - non-smooth optimal control problems KW - stochastic processes Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-232665 SN - 0926-6003 VL - 76 ER - TY - THES A1 - Raharja, Andreas Budi T1 - Optimisation Problems with Sparsity Terms: Theory and Algorithms T1 - Optimierungsprobleme mit Dünnbesetzten Termen: Theorie und Algorithmen N2 - The present thesis deals with optimisation problems with sparsity terms, either in the constraints which lead to cardinality-constrained problems or in the objective function which in turn lead to sparse optimisation problems. One of the primary aims of this work is to extend the so-called sequential optimality conditions to these two classes of problems. In recent years sequential optimality conditions have become increasingly popular in the realm of standard nonlinear programming. In contrast to the more well-known Karush-Kuhn-Tucker condition, they are genuine optimality conditions in the sense that every local minimiser satisfies these conditions without any further assumption. Lately they have also been extended to mathematical programmes with complementarity constraints. At around the same time it was also shown that optimisation problems with sparsity terms can be reformulated into problems which possess similar structures to mathematical programmes with complementarity constraints. These recent developments have become the impetus of the present work. But rather than working with the aforementioned reformulations which involve an artifical variable we shall first directly look at the problems themselves and derive sequential optimality conditions which are independent of any artificial variable. Afterwards we shall derive the weakest constraint qualifications associated with these conditions which relate them to the Karush-Kuhn-Tucker-type conditions. Another equally important aim of this work is to then consider the practicability of the derived sequential optimality conditions. The previously mentioned reformulations open up the possibilities to adapt methods which have been proven successful to handle mathematical programmes with complementarity constraints. We will show that the safeguarded augmented Lagrangian method and some regularisation methods may generate a point satisfying the derived conditions. N2 - Die vorliegende Arbeit beschäftigt sich mit Optimierungsproblemen mit dünnbesetzten Termen, und zwar entweder in der Restriktionsmenge, was zu kardinalitätsrestringierten Problemen führen, oder in der Zielfunktion, was zu Optimierungsproblemen mit dünnbesetzten Lösungen führen. Die Herleitung der sogenannten sequentiellen Optimalitätsbedingungen für diese Problemklassen ist eines der Hauptziele dieser Arbeit. Im Bereich der nichtlinearen Optimierung gibt es in jüngster Zeit immer mehr Interesse an diesen Bedingungen. Im Gegensatz zu der mehr bekannten Karush-Kuhn-Tucker Bedingung sind diese Bedingungen echte Optimalitätsbedingungen. Sie sind also in jedem lokalen Minimum ohne weitere Voraussetzung erfüllt. Vor Kurzem wurden solche Bedingungen auch für mathematische Programme mit Komplementaritätsbedingungen hergeleitet. Zum gleichen Zeitpunkt wurde es auch gezeigt, dass Optimierungsproblemen mit dünnbesetzten Termen sich als Problemen, die ähnliche Strukturen wie mathematische Programme mit Komplementaritätsbedingungen besitzen, umformulieren lassen. Diese jüngsten Entwicklungen motivieren die vorliegende Arbeit. Hier werden wir zunächst die ursprunglichen Problemen direkt betrachten anstatt mit den Umformulierungen, die eine künstliche Variable enthalten, zu arbeiten. Dies ermöglicht uns, um Optimalitätsbedingungen, die von künstlichen Variablen unabhängig sind, zu gewinnen. Danach werden wir die entsprechenden schwächsten Constraint Qualifikationen, die diese Bedingungen mit Karush-Kuhn-Tucker-ähnlichen Bedingungen verknüpfen, herleiten. Als ein weiteres Hauptziel der Arbeit werden wir dann untersuchen, ob die gerade hergeleiteten Bedingungen eine praktische Bedeutung haben. Die vor Kurzem eingeführten Umformulierungen bieten die Möglichkeiten, um die für mathematische Programme mit Komplementaritätsbedingungen gut funktionierenden Methoden hier auch anzuwenden. Wir werden zeigen, dass das safeguarded augmented Lagrangian Method und einige Regularisierungsmethoden theoretisch in der Lage sind, um einen Punkt, der den hergeleiteten Bedingungen genügt, zu generieren. KW - Optimierungsproblem KW - Regularisierungsverfahren KW - Cardinality Constraints KW - Augmented Lagrangian KW - Regularisation Methods Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-241955 ER - TY - JOUR A1 - Homburg, Annika A1 - Weiß, Christian H. A1 - Frahm, Gabriel A1 - Alwan, Layth C. A1 - Göb, Rainer T1 - Analysis and forecasting of risk in count processes JF - Journal of Risk and Financial Management N2 - Risk measures are commonly used to prepare for a prospective occurrence of an adverse event. If we are concerned with discrete risk phenomena such as counts of natural disasters, counts of infections by a serious disease, or counts of certain economic events, then the required risk forecasts are to be computed for an underlying count process. In practice, however, the discrete nature of count data is sometimes ignored and risk forecasts are calculated based on Gaussian time series models. But even if methods from count time series analysis are used in an adequate manner, the performance of risk forecasting is affected by estimation uncertainty as well as certain discreteness phenomena. To get a thorough overview of the aforementioned issues in risk forecasting of count processes, a comprehensive simulation study was done considering a broad variety of risk measures and count time series models. It becomes clear that Gaussian approximate risk forecasts substantially distort risk assessment and, thus, should be avoided. In order to account for the apparent estimation uncertainty in risk forecasting, we use bootstrap approaches for count time series. The relevance and the application of the proposed approaches are illustrated by real data examples about counts of storm surges and counts of financial transactions. KW - count time series KW - expected shortfall KW - expectiles KW - Gaussian approximation KW - mid quantiles KW - tail conditional expectation KW - value at risk Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-236692 SN - 1911-8074 VL - 14 IS - 4 ER - TY - JOUR A1 - Pirner, Marlies T1 - A review on BGK models for gas mixtures of mono and polyatomic molecules JF - Fluids N2 - We consider the Bathnagar–Gross–Krook (BGK) model, an approximation of the Boltzmann equation, describing the time evolution of a single momoatomic rarefied gas and satisfying the same two main properties (conservation properties and entropy inequality). However, in practical applications, one often has to deal with two additional physical issues. First, a gas often does not consist of only one species, but it consists of a mixture of different species. Second, the particles can store energy not only in translational degrees of freedom but also in internal degrees of freedom such as rotations or vibrations (polyatomic molecules). Therefore, here, we will present recent BGK models for gas mixtures for mono- and polyatomic particles and the existing mathematical theory for these models. KW - multi-fluid mixture KW - kinetic model KW - BGK approximation KW - degrees of freedom in internal energy KW - existence of solutions KW - large-time behaviour Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-250161 SN - 2311-5521 VL - 6 IS - 11 ER - TY - JOUR A1 - Steuding, Jörn A1 - Suriajaya, Ade Irma T1 - Value-Distribution of the Riemann Zeta-Function Along Its Julia Lines JF - Computational Methods and Function Theory N2 - For an arbitrary complex number a≠0 we consider the distribution of values of the Riemann zeta-function ζ at the a-points of the function Δ which appears in the functional equation ζ(s)=Δ(s)ζ(1−s). These a-points δa are clustered around the critical line 1/2+i\(\mathbb {R}\) which happens to be a Julia line for the essential singularity of ζ at infinity. We observe a remarkable average behaviour for the sequence of values ζ(δ\(_a\)). KW - Riemann zeta-function KW - value-distribution KW - critical line KW - Julia line Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-232621 SN - 1617-9447 VL - 20 ER - TY - THES A1 - Körner, Jacob T1 - Theoretical and numerical analysis of Fokker–Planck optimal control problems by first– and second–order optimality conditions T1 - Theoretische und numerische Analysis von Fokker-Planck optimalen Steuerungsproblemen mittels Optimalitätsbedingung erster und zweiter Ordnung N2 - In this thesis, a variety of Fokker--Planck (FP) optimal control problems are investigated. Main emphasis is put on a first-- and second--order analysis of different optimal control problems, characterizing optimal controls, establishing regularity results for optimal controls, and providing a numerical analysis for a Galerkin--based numerical scheme. The Fokker--Planck equation is a partial differential equation (PDE) of linear parabolic type deeply connected to the theory of stochastic processes and stochastic differential equations. In essence, it describes the evolution over time of the probability distribution of the state of an object or system of objects under the influence of both deterministic and stochastic forces. The FP equation is a cornerstone in understanding and modeling phenomena ranging from the diffusion and motion of molecules in a fluid to the fluctuations in financial markets. Two different types of optimal control problems are analyzed in this thesis. On the one hand, Fokker--Planck ensemble optimal control problems are considered that have a wide range of applications in controlling a system of multiple non--interacting objects. In this framework, the goal is to collectively drive each object into a desired state. On the other hand, tracking--type control problems are investigated, commonly used in parameter identification problems or stemming from the field of inverse problems. In this framework, the aim is to determine certain parameters or functions of the FP equation, such that the resulting probability distribution function takes a desired form, possibly observed by measurements. In both cases, we consider FP models where the control functions are part of the drift, arising only from the deterministic forces of the system. Therefore, the FP optimal control problem has a bilinear control structure. Box constraints on the controls may be present, and the focus is on time--space dependent controls for ensemble--type problems and on only time--dependent controls for tracking--type optimal control problems. In the first chapter of the thesis, a proof of the connection between the FP equation and stochastic differential equations is provided. Additionally, stochastic optimal control problems, aiming to minimize an expected cost value, are introduced, and the corresponding formulation within a deterministic FP control framework is established. For the analysis of this PDE--constrained optimal control problem, the existence, and regularity of solutions to the FP problem are investigated. New $L^\infty$--estimates for solutions are established for low space dimensions under mild assumptions on the drift. Furthermore, based on the theory of Bessel potential spaces, new smoothness properties are derived for solutions to the FP problem in the case of only time--dependent controls. Due to these properties, the control--to--state map, which associates the control functions with the corresponding solution of the FP problem, is well--defined, Fréchet differentiable and compact for suitable Lebesgue spaces or Sobolev spaces. The existence of optimal controls is proven under various assumptions on the space of admissible controls and objective functionals. First--order optimality conditions are derived using the adjoint system. The resulting characterization of optimal controls is exploited to achieve higher regularity of optimal controls, as well as their state and co--state functions. Since the FP optimal control problem is non--convex due to its bilinear structure, a first--order analysis should be complemented by a second--order analysis. Therefore, a second--order analysis for the ensemble--type control problem in the case of $H^1$--controls in time and space is performed, and sufficient second--order conditions are provided. Analogous results are obtained for the tracking--type problem for only time--dependent controls. The developed theory on the control problem and the first-- and second--order optimality conditions is applied to perform a numerical analysis for a Galerkin discretization of the FP optimal control problem. The main focus is on tracking-type problems with only time--dependent controls. The idea of the presented Galerkin scheme is to first approximate the PDE--constrained optimization problem by a system of ODE--constrained optimization problems. Then, conditions on the problem are presented such that the convergence of optimal controls from one problem to the other can be guaranteed. For this purpose, a class of bilinear ODE--constrained optimal control problems arising from the Galerkin discretization of the FP problem is analyzed. First-- and second--order optimality conditions are established, and a numerical analysis is performed. A discretization with linear finite elements for the state and co--state problem is investigated, while the control functions are approximated by piecewise constant or piecewise quadratic continuous polynomials. The latter choice is motivated by the bilinear structure of the optimal control problem, allowing to overcome the discrepancies between a discretize--then--optimize and optimize--then--discretize approach. Moreover, second--order accuracy results are shown using the space of continuous, piecewise quadratic polynomials as the discrete space of controls. Lastly, the theoretical results and the second--order convergence rates are numerically verified. N2 - In dieser Dissertation werden verschiedene Fokker--Planck (FP) optimale Steuerungsprobleme untersucht. Die Schwerpunkte liegen auf einer Analyse von Optimalitätsbedingungen erster und zweiter Ordnung, der Charakterisierung optimaler Steuerungen, dem Herleiten höhere Regularität von optimalen Kontrollen sowie einer theoretischen numerischen Analyse für ein numerisches Verfahren basierend auf einer Galerkin Approximation. Die Fokker--Planck Gleichung ist eine lineare, parabolische, partielle Differentialgleichung (PDE), die aus dem Gebiet stochastischer Differentialgleichungen und stochastischer Prozesse stammt. Im Wesentlichen beschreibt sie die zeitliche Entwicklung der Wahrscheinlichkeitsverteilung des Zustands eines Objekts bzw. eines Systems von Objekten unter dem Einfluss sowohl deterministischer als auch stochastischer Kräfte. Die Fokker--Planck Gleichung ist ein Eckpfeiler zum Verständnis und Modellieren von Phänomenen, die von der Diffusion und Bewegung von Molekülen in einer Flüssigkeit bis hin zu den Schwankungen in Finanzmärkten reichen. Zwei verschiedene Arten von optimalen Kontrollproblemen werden in dieser Arbeit umfassend analysiert. Einerseits werden Fokker--Planck Ensemble Steuerungsprobleme betrachtet, die in der Kontrolle von Systemen mit mehreren nicht wechselwirkenden Objekten vielfältige Anwendungen haben. In diesem Gebiet ist das Ziel, alle Objekte gemeinsam in einen gewünschten Zustand zu lenken. Andererseits werden Tracking Kontrollprobleme untersucht, die häufig bei Parameteridentifikationsproblemen auftreten oder aus dem Bereich inverser Probleme stammen. Hier besteht das Ziel darin, bestimmte Parameter oder Funktionen der Fokker--Planck Gleichung derart zu bestimmen, dass die resultierende Wahrscheinlichkeitsverteilung eine gewünschte Form annimmt, welche beispielsweise durch Messungen beobachtet wurde. In beiden Fällen betrachten wir FP Modelle, bei denen die Kontrollfunktion Teil des sogenannten Drifts ist, das heißt der Teil, der nur aus den deterministischen Kräften des Systems resultiert. Daher hat das FP Kontrollproblem eine bilineare Struktur. Untere und obere Schranken für die Kontrollfunktionen können vorhanden sein, und der Fokus liegt auf zeit-- und raumabhängigen Steuerungen für Ensemble Kontrollprobleme, sowie auf nur zeitlich abhängigen Steuerungen für Tracking Kontrollprobleme. Am Anfang der Dissertation wird ein Beweis für den Zusammenhang zwischen der FP Gleichung und stochastischen Differentialgleichungen dargelegt. Darüber hinaus werden stochastische optimale Steuerungsprobleme eingeführt, deren Ziel es ist, einen erwarteten Kostenwert zu minimieren. Zusätzlich wird das Problem als ein deterministisches FP Kontrollproblem formuliert. Für die Analyse dieses Kontrollproblems wird die Existenz und Regularität von Lösungen für die FP Differentialgleichung untersucht. Neue $L^\infty$--Abschätzungen für Lösungen werden für niedrige Raumdimensionen unter schwachen Annahmen an den Drift bewiesen. Zusätzlich werden, basierend auf der Theorie über Bessel Potentialräume, neue Glattheitseigenschaften für Lösungen des FP--Problems im Falle zeitabhängiger Steuerungen erarbeitet. Aufgrund dieser Eigenschaften ist die sogenannte control--to--state Abbildung, welche die Kontrollfunktion mit der entsprechenden Lösung des FP Problems verknüpft, wohldefiniert, Fréchet--differenzierbar und kompakt für geeignete Lebesgue--Räume oder Sobolev--Räume. Die Existenz optimaler Steuerungen wird unter verschiedenen Annahmen an den Funktionenraum der Kontrollen und des Kostenfunktionals bewiesen. Optimalitätsbedingungen erster Ordnung werden unter Verwendung des adjungierten Systems aufgestellt. Die daraus resultierende Charakterisierung optimaler Steuerungen wird genutzt, um eine höhere Regularität optimaler Steuerungen sowie ihrer Zustandsfunktion und des adjungierten Problems zu erhalten. Da das FP Kontrollproblem aufgrund der bilinearen Struktur nicht konvex ist, sollte eine Analyse von Optimalitätsbedingungen erster Ordnung durch eine Analyse von Optimalitätsbedingungen zweiter Ordnung ergänzt werden. Dies wird für das Ensemble Kontrollproblem im Fall von zeit-- und ortsabhängigen Steuerungen mit $H^1$--Regularität durchgeführt, und hinreichende Bedingungen für lokale Minimierer werden hergeleitet. Analoge Ergebnisse werden für das Tracking--Problem für nur zeitabhängige Steuerungen bewiesen. Die entwickelte Theorie zu diesem optimalen Steuerungsproblem und dessen Optimalitätsbedingungen wird angewendet, um eine numerische Analyse für eine Galerkin--Diskretisierung des FP Kontrollproblems durchzuführen. Der Schwerpunkt liegt auf Tracking--Problemen mit nur zeitabhängigen Steuerungen. Die Idee des vorgestellten Galerkin--Verfahrens besteht darin, das PDE--Optimierungsproblem zunächst durch ein System von Optimierungsproblemen mit gewöhnlichen Differentialgleichungen (ODE) als Nebenbedingung zu approximieren. Dann werden Bedingungen an das Problem präsentiert, sodass die Konvergenz optimaler Steuerungen von einem Problem zum anderen garantiert werden kann. Zu diesem Zweck wird eine Klasse bilinearer ODE--Kontrollprobleme analysiert, welche sich aus der Galerkin--Diskretisierung des FP Problems ergeben. Optimalitätsbedingungen erster und zweiter Ordnung werden bewiesen, und eine numerische Analyse wird durchgeführt. Eine Diskretisierung mit linearen Finiten--Elementen der Zustands-- und Adjungiertengleichung wird untersucht, während die Kontrollfunktionen durch stückweise konstante oder stetige, stückweise quadratische Polynome approximiert werden. Diese Wahl wird durch die bilineare Struktur des optimalen Kontrollproblems begründet, da sie es ermöglicht, die Diskrepanzen zwischen einem Ansatz von ,,zuerst diskretisieren dann optimieren" und ,,zuerst optimieren, dann diskretisieren" zu überwinden. Durch die Verwendung stetiger, stückweise quadratischer Polynome als Diskretisierung der Steuerungen kann außerdem quadratische Konvergenzordnung gezeigt werden. Abschließend werden die theoretischen Ergebnisse und die Konvergenzraten zweiter Ordnung numerisch verifiziert. KW - Parabolische Differentialgleichung KW - Fokker-Planck-Gleichung KW - Optimale Kontrolle KW - Optimalitätsbedingung KW - Finite-Elemente-Methode KW - accuracy estimate Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-362997 ER - TY - THES A1 - Biersack, Florian T1 - Topological Properties of Quasiconformal Automorphism Groups T1 - Topologische Eigenschaften quasikonformer Automorphismengruppen N2 - The goal of this thesis is to study the topological and algebraic properties of the quasiconformal automorphism groups of simply and multiply connected domains in the complex plain, in which the quasiconformal automorphism groups are endowed with the supremum metric on the underlying domain. More precisely, questions concerning central topological properties such as (local) compactness, (path)-connectedness and separability and their dependence on the boundary of the corresponding domains are studied, as well as completeness with respect to the supremum metric. Moreover, special subsets of the quasiconformal automorphism group of the unit disk are investigated, and concrete quasiconformal automorphisms are constructed. Finally, a possible application of quasiconformal unit disk automorphisms to symmetric cryptography is presented, in which a quasiconformal cryptosystem is defined and studied. N2 - Das Ziel dieser Arbeit ist es, die topologischen und algebraischen Eigenschaften der quasikonformen Automorphismengruppen von einfach und mehrfach zusammenhängenden Gebieten in der komplexen Zahlenebene zu untersuchen, in denen die quasikonformen Automorphismengruppen mit der Supremum-Metrik auf dem zugrunde liegenden Gebiet versehen sind. Die Arbeit befasst sich mit Fragen zu zentralen topologischen Eigenschaften wie (lokaler) Kompaktheit, (Weg-)Zusammenhang und Separabilität sowie deren Abhängigkeit der Ränder der entsprechenden Gebiete, sowie mit der Vollständigkeit bezüglich der betrachteten Supremums-Metrik. Darüber hinaus werden spezielle Teilmengen der quasikonformen Automorphismengruppe des Einheitskreises untersucht und konkrete quasikonforme Automorphismen konstruiert. Schließlich wird eine mögliche Anwendung von quasikonformen Einheitskreis-Automorphismen auf symmetrische Kryptographie vorgestellt, bei der ein quasikonformes Kryptosystem definiert und untersucht wird. KW - Quasikonforme Abbildung KW - Automorphismengruppe KW - Quasiconformal automorphism KW - Uniform topology Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-359177 ER - TY - THES A1 - Birke, Claudius B. T1 - Low Mach and Well-Balanced Numerical Methods for Compressible Euler and Ideal MHD Equations with Gravity T1 - Low Mach und Well-Balanced Numerische Verfahren für die kompressiblen Euler und idealen MHD Gleichungen mit Gravitation N2 - Physical regimes characterized by low Mach numbers and steep stratifications pose severe challenges to standard finite volume methods. We present three new methods specifically designed to navigate these challenges by being both low Mach compliant and well-balanced. These properties are crucial for numerical methods to efficiently and accurately compute solutions in the regimes considered. First, we concentrate on the construction of an approximate Riemann solver within Godunov-type finite volume methods. A new relaxation system gives rise to a two-speed relaxation solver for the Euler equations with gravity. Derived from fundamental mathematical principles, this solver reduces the artificial dissipation in the subsonic regime and preserves hydrostatic equilibria. The solver is particularly stable as it satisfies a discrete entropy inequality, preserves positivity of density and internal energy, and suppresses checkerboard modes. The second scheme is designed to solve the equations of ideal MHD and combines different approaches. In order to deal with low Mach numbers, it makes use of a low-dissipation version of the HLLD solver and a partially implicit time discretization to relax the CFL time step constraint. A Deviation Well-Balancing method is employed to preserve a priori known magnetohydrostatic equilibria and thereby reduces the magnitude of spatial discretization errors in strongly stratified setups. The third scheme relies on an IMEX approach based on a splitting of the MHD equations. The slow scale part of the system is discretized by a time-explicit Godunov-type method, whereas the fast scale part is discretized implicitly by central finite differences. Numerical dissipation terms and CFL time step restriction of the method depend solely on the slow waves of the explicit part, making the method particularly suited for subsonic regimes. Deviation Well-Balancing ensures the preservation of a priori known magnetohydrostatic equilibria. The three schemes are applied to various numerical experiments for the compressible Euler and ideal MHD equations, demonstrating their ability to accurately simulate flows in regimes with low Mach numbers and strong stratification even on coarse grids. N2 - Physikalische Regime mit sehr niedrigen Machzahlen und starken Abschichtungen stellen konventionelle Finite Volumen Verfahren vor erhebliche Herausforderungen. In dieser Arbeit präsentieren wir drei neue Verfahren, die in der Lage sind, die Herausforderungen zu bewältigen. Die neuen Verfahren sind speziell an kleine Machzahlen angepasst und können (magneto-)hydrostatische Gleichgewichte exakt erhalten. Diese Eigenschaften sind essentiell für eine effiziente Berechnung präziser Lösungen in den betrachteten Regimen. Zunächst konzentrieren wir uns auf die Konstruktion eines approximativen Riemannlösers innerhalb von Godunov-artigen Finite Volumen Verfahren. Ein neues Relaxationssystem führt zu einem Relaxationslöser für die Euler Gleichungen mit Gravitation, der zwei Relaxationsgeschwindigkeiten verwendet. Abgeleitet von grundlegenden mathematischen Prinzipien reduziert dieser Löser die künstliche Dissipation im subsonischen Bereich und erhält hydrostatische Gleichgewichte. Der Löser ist besonders stabil, da er eine diskrete Entropieungleichung erfüllt, die Positivität von Dichte und interner Energie bewahrt und Schachbrettmuster unterdrückt. Das zweite Verfahren löst die idealen MHD Gleichungen und kombiniert verschiedene Ansätze, um die einzelnen numerischen Herausforderungen zu bewältigen. Für einen effizienten Umgang mit niedrigen Machzahlen wird eine Variante des HLLD Lösers mit künstlich niedriger Dissipation sowie eine teilweise implizite Zeitdiskretisierung zur Lockerung der CFL Zeitschrittbeschränkung gewählt. Eine Deviation Well-Balancing Methode wird angewendet, um magnetohydrostatische Gleichgewichte zu bewahren und dadurch das Ausmaß von räumlichen Diskretisierungsfehlern in stark geschichteten Atmosphären zu reduzieren. Das dritte Verfahren verwendet einen IMEX Ansatz, welcher auf einer Aufspaltung der MHD Gleichungen basiert. Das Teilsystem mit langsamen Ausbreitungsgeschwindigkeiten wird durch eine zeit-explizite Godunov-artige Methode diskretisiert, während das Teilsystem mit schnellen Ausbreitungsgeschwindigkiten implizit durch zentrale finite Differenzen diskretisiert wird. Numerische Dissipationsterme und die CFL Zeitschrittbeschränkung der Methode hängen somit nur von den langsamen Wellen des expliziten Teils ab, so dass die Methode besonders für subsonische Regime geeignet ist. Deviation Well-Balancing gewährleistet die Erhaltung a priori bekannter magnetohydrostatischer Gleichgewichte. Die drei Verfahren werden auf numerische Experimente für die kompressiblen Euler und idealen MHD Gleichungen angewendet und zeigen darin ihre Fähigkeit, Strömungen in Regimen mit niedrigen Machzahlen und starker Schichtung auch auf groben diskreten Gittern akkurat zu simulieren. KW - Magnetohydrodynamik KW - Numerische Strömungssimulation KW - Finite-Volumen-Methode KW - relaxation method KW - IMEX scheme KW - low Mach number KW - well-balanced Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-363303 ER - TY - THES A1 - Bossert, Patrick T1 - Statistical structure and inference methods for discrete high-frequency observations of SPDEs in one and multiple space dimensions T1 - Statistische Struktur und Inferenzmethoden für diskrete hochfrequente Beobachtungen von SPDEs in einer und mehreren Raumdimensionen N2 - The focus of this thesis is on analysing a linear stochastic partial differential equation (SPDE) with a bounded domain. The first part of the thesis commences with an examination of a one-dimensional SPDE. In this context, we construct estimators for the parameters of a parabolic SPDE based on discrete observations of a solution in time and space on a bounded domain. We establish central limit theorems for a high-frequency asymptotic regime, showing substantially smaller asymptotic variances compared to existing estimation methods. Moreover, asymptotic confidence intervals are directly feasible. Our approach builds upon realized volatilities and their asymptotic illustration as the response of a log-linear model with a spatial explanatory variable. This yields efficient estimators based on realized volatilities with optimal rates of convergence and minimal variances. We demonstrate our results by Monte Carlo simulations. Extending this framework, we analyse a second-order SPDE model in multiple space dimensions in the second part of this thesis and develop estimators for the parameters of this model based on discrete observations in time and space on a bounded domain. While parameter estimation for one and two spatial dimensions was established in recent literature, this is the first work that generalizes the theory to a general, multi-dimensional framework. Our methodology enables the construction of an oracle estimator for volatility within the underlying model. For proving central limit theorems, we use a high-frequency observation scheme. To showcase our results, we conduct a Monte Carlo simulation, highlighting the advantages of our novel approach in a multi-dimensional context. N2 - Der Fokus dieser Dissertation liegt auf der Analyse von linearen stochastischen partiellen Differentialgleichungen (SPDEs) auf einem beschränkten Raum. Der erste Teil der Arbeit befasst sich mit der Untersuchung einer eindimensionalen SPDE. In diesem Zusammenhang konstruieren wir Schätzer für die Parameter einer parabolischen SPDE basierend auf diskreten Beobachtungen einer Lösung in Zeit und Raum. Wir leiten zentrale Grenzwertsätze innerhalb eines hochfrequenten Beobachtungsschemas her und zeigen dabei, dass die neu entwickelten Schätzer wesentlich kleinere asymptotische Varianzen im Vergleich zu bestehenden Schätzmethoden besitzen. Darüber hinaus sind asymptotische Konfidenzintervalle direkt realisierbar. Unser Ansatz basiert auf realisierten Volatilitäten und ihrer asymptotischen Darstellung durch ein log-lineares Modell mit einer räumlichen erklärenden Variable. Dies ergibt effiziente Schätzer basierend auf realisierten Volatilitäten mit optimalen Konvergenzraten und minimalen Varianzen. Wir demonstrieren unsere Ergebnisse mithilfe von Monte-Carlo-Simulationen. Den ersten Teil erweiternd, analysieren wir im zweiten Teil dieser Arbeit ein SPDE-Modell zweiter Ordnung in mehreren Raumdimensionen und entwickeln Schätzer für die Parameter dieses Modells basierend auf diskreten Beobachtungen in Zeit und Raum auf einem begrenzten Gebiet. Während die Parameterschätzung für eine und zwei Raumdimensionen in der Literatur bereits behandelt wurde, ist dies die erste Arbeit, die die Theorie auf einen multidimensionalen Rahmen verallgemeinert. Unsere Methodik ermöglicht die Konstruktion eines Orakelschätzers für den Volatilitätsparameter innerhalb des zugrundeliegenden Modells. Für den Beweis zentraler Grenzwertsätze verwenden wir ein hochfrequentes Beobachtungsschema. Um unsere Ergebnisse zu veranschaulichen, führen wir eine Monte-Carlo-Simulation durch, wobei wir die zugrundeliegende Simulationsmethodik hierfür herleiten. KW - Stochastische partielle Differentialgleichung KW - Multi-dimensional SPDEs KW - Central limit theorem under dependence KW - High-frequency data KW - Least squares estimation KW - One-dimensional SPDEs Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-361130 ER -