TY - JOUR A1 - Kanzow, Christian A1 - Raharja, Andreas B. A1 - Schwartz, Alexandra T1 - Sequential optimality conditions for cardinality-constrained optimization problems with applications JF - Computational Optimization and Applications N2 - Recently, a new approach to tackle cardinality-constrained optimization problems based on a continuous reformulation of the problem was proposed. Following this approach, we derive a problem-tailored sequential optimality condition, which is satisfied at every local minimizer without requiring any constraint qualification. We relate this condition to an existing M-type stationary concept by introducing a weak sequential constraint qualification based on a cone-continuity property. Finally, we present two algorithmic applications: We improve existing results for a known regularization method by proving that it generates limit points satisfying the aforementioned optimality conditions even if the subproblems are only solved inexactly. And we show that, under a suitable Kurdyka–Łojasiewicz-type assumption, any limit point of a standard (safeguarded) multiplier penalty method applied directly to the reformulated problem also satisfies the optimality condition. These results are stronger than corresponding ones known for the related class of mathematical programs with complementarity constraints. KW - augmented Lagrangian method KW - cardinality constraints KW - sequential optimality condition KW - conecontinuity type constraint qualification KW - relaxation method Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-269052 SN - 1573-2894 VL - 80 IS - 1 ER - TY - THES A1 - Mönius, Katja T1 - Algebraic and Arithmetic Properties of Graph Spectra T1 - Algebraische und Arithmetische Eigenschaften von Graph Spektren N2 - In the present thesis we investigate algebraic and arithmetic properties of graph spectra. In particular, we study the algebraic degree of a graph, that is the dimension of the splitting field of the characteristic polynomial of the associated adjacency matrix over the rationals, and examine the question whether there is a relation between the algebraic degree of a graph and its structural properties. This generalizes the yet open question ``Which graphs have integral spectra?'' stated by Harary and Schwenk in 1974. We provide an overview of graph products since they are useful to study graph spectra and, in particular, to construct families of integral graphs. Moreover, we present a relation between the diameter, the maximum vertex degree and the algebraic degree of a graph, and construct a potential family of graphs of maximum algebraic degree. Furthermore, we determine precisely the algebraic degree of circulant graphs and find new criteria for isospectrality of circulant graphs. Moreover, we solve the inverse Galois problem for circulant graphs showing that every finite abelian extension of the rationals is the splitting field of some circulant graph. Those results generalize a theorem of So who characterized all integral circulant graphs. For our proofs we exploit the theory of Schur rings which was already used in order to solve the isomorphism problem for circulant graphs. Besides that, we study spectra of zero-divisor graphs over finite commutative rings. Given a ring \(R\), the zero-divisor graph over \(R\) is defined as the graph with vertex set being the set of non-zero zero-divisors of \(R\) where two vertices \(x,y\) are adjacent if and only if \(xy=0\). We investigate relations between the eigenvalues of a zero-divisor graph, its structural properties and the algebraic properties of the respective ring. N2 - In der vorliegenden Dissertation untersuchen wir algebraische und arithmetische Eigenschaften von Graph Spektren. Insbesondere studieren wir den algebraischen Grad eines Graphen, d.h. die Dimension des Zerfällungskörpers des charakteristischen Polynoms der zugehörigen Adjazenzmatrix über den rationalen Zahlen, und beschäftigen uns mit der Frage, ob es einen Zusammenhang zwischen dem algebraischen Grad eines Graphen und seinen strukturellen Eigenschaften gibt. Dies verallgemeinert die bis heute noch offene Fragestellung "Welche Graphen haben ganzzahliges Spektrum?", welche 1974 von Harary und Schwenk aufgeworfen wurde. Wir geben einen Überblick über verschiedene Graphprodukte, da diese oftmals hilfreich sind bei der Untersuchung von Graph Spektren, und konstruieren damit Familien von integralen Graphen. Außerdem stellen wir einen Zusammenhang zwischen dem Diameter, dem maximalen Eckengrad und dem algebraischen Grad von Graphen vor, und konstruieren eine potenzielle Familie von Graphen, welche alle maximalen algebraischen Grad haben. Zudem bestimmen wir den algebraischen Grad zirkulärer Graphen und finden neue Kriterien für Isospektralität solcher Graphen. Darüber hinaus lösen wir das inverse Galois Problem für zirkuläre Graphen, indem wir zeigen, dass jede endliche abelsche Erweiterung der rationalen Zahlen Zerfällungskörper eines zirkulären Graphen ist. Diese Resultate verallgemeinern einen Satz von So, in dem sämtliche integrale zirkuläre Graphen charakterisiert werden. Für unsere Beweise verwenden wir die Theorie der Schur Ringe, die bereits verwendet wurde, um das Isomorphieproblem für zirkuläre Graphen zu lösen. Zu guter Letzt untersuchen wir Spektren von Nullteilergraphen über kommutativen Ringen. Zu einem gegebenen Ring \(R\) ist der zugehörige Nullteilergraph über \(R\) definiert als der Graph, dessen Eckenmenge den Nullteilern von \(R\) entspricht, und in dem je zwei Ecken \(x,y\) benachbart sind, wenn \(xy=0\) gilt. Wir studieren Zusammenhänge zwischen den Eigenwerten von Nullteilergraphen, deren strukturellen Eigenschaften und den algebraischen Eigenschaften der entsprechenden Ringe. KW - Algebraische Zahlentheorie KW - Graph KW - Graph spectrum KW - Integral graph KW - Cayley graph KW - Schur ring KW - Zero-divisor graph KW - Kombinatorik Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-230850 ER - TY - THES A1 - Herrmann, Marc T1 - The Total Variation on Surfaces and of Surfaces T1 - Die totale Variation auf Oberflächen und von Oberflächen N2 - This thesis is concerned with applying the total variation (TV) regularizer to surfaces and different types of shape optimization problems. The resulting problems are challenging since they suffer from the non-differentiability of the TV-seminorm, but unlike most other priors it favors piecewise constant solutions, which results in piecewise flat geometries for shape optimization problems.The first part of this thesis deals with an analogue of the TV image reconstruction approach [Rudin, Osher, Fatemi (Physica D, 1992)] for images on smooth surfaces. A rigorous analytical framework is developed for this model and its Fenchel predual, which is a quadratic optimization problem with pointwise inequality constraints on the surface. A function space interior point method is proposed to solve it. Afterwards, a discrete variant (DTV) based on a nodal quadrature formula is defined for piecewise polynomial, globally discontinuous and continuous finite element functions on triangulated surface meshes. DTV has favorable properties, which include a convenient dual representation. Next, an analogue of the total variation prior for the normal vector field along the boundary of smooth shapes in 3D is introduced. Its analysis is based on a differential geometric setting in which the unit normal vector is viewed as an element of the two-dimensional sphere manifold. Shape calculus is used to characterize the relevant derivatives and an variant of the split Bregman method for manifold valued functions is proposed. This is followed by an extension of the total variation prior for the normal vector field for piecewise flat surfaces and the previous variant of split Bregman method is adapted. Numerical experiments confirm that the new prior favours polyhedral shapes. N2 - Die vorliegende Arbeit beschäftigt sich mit der Anwendung der totalen Variation (TV) als Regularisierung auf Oberflächen und in verschiedenen Problemen der Formoptimierung. Die daraus entstehenden Optimierungsprobleme sind aufgrund der TV-Seminorm nicht differenzierbar und daher eine Herausforderung. Allerdings werden dadurch, im Gegensatz zu anderen Regularisierungen, stückweise konstante Lösungen favorisiert. Dies führt bei Problemen der Formoptimierung zu stückweise flachen Geometrien. Der erste Teil dieser Arbeit widmet sich der Erweiterung des Ansatzes zur mathematischen Bildverarbeitung [Rudin, Osher, Fatemi (Physica D, 1992)] von flachen Bildern auf glatte Oberflächen und deren Texturen. Für das damit verbundene Optimierungsproblem wird das Fenchel präduale Problem hergeleitet. Dies ist ein quadratisches Optimierungsproblem mit Ungleichungsrestriktionen für dessen Lösung ein Innere-Punkte-Verfahren in Funktionenräumen vorgestellt wird. Basierend auf einer Quadraturformel, wird im Anschluss eine diskrete Variante (DTV) der TV-Seminorm für global unstetige und stetige Finite- Elemente-Funktionen auf triangulierten Oberflächen entwickelt. (DTV) besitzt positive Eigenschaften, wie eine praktische duale Darstellung. Im letzten Teil wird zuerst ein TV-Analogon für die Oberflächennormale von glatten Formen in 3D gezeigt und mit Hilfe von Differentialgeometrie analysiert. Danach wird eine mögliche Erweiterungen für stückweise glatte Oberflächen vorgestellt. Zur Lösung von beiden Regularisierungen wird eine Variante des Split-Bregman-Verfahrens für Funktionen mitWerten auf Mannigfaltigkeiten benutzt. KW - Gestaltoptimierung KW - optimization KW - total variation KW - Formoptimierung KW - Shape Optimization KW - Optimierung KW - Totale Variation KW - Finite-Elemente-Methode Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-240736 ER - TY - THES A1 - Schmeller, Christof T1 - Uniform distribution of zero ordinates of Epstein zeta-functions T1 - Gleichverteilung von Imaginärteilen nichttrivialer Nullstellen der Epsteinschen Zetafunktion N2 - The dissertation investigates the wide class of Epstein zeta-functions in terms of uniform distribution modulo one of the ordinates of their nontrivial zeros. Main results are a proof of a Landau type theorem for all Epstein zeta-functions as well as uniform distribution modulo one for the zero ordinates of all Epstein zeta-functions asscoiated with binary quadratic forms. N2 - Die vorliegende Arbeit untersucht, bei welchen Epsteinschen Zetafunktionen die Imaginärteile der nichttrivialen Nullstellen gleichverteilt modulo eins sind. Als zentrales Ergebnis wird dies für alle Epsteinschen Zetafunktionen, die durch binäre quadratische Formen gebildet werden, bewiesen. Außerdem wird unter anderem Landau's Theorem für alle Epsteinschen Zetafunktionen gezeigt. KW - Zetafunktion KW - Epstein, Paul KW - Gleichverteilung KW - Epstein zeta-function KW - Uniform distribution modulo one KW - Landau type theorem Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-251999 ER - TY - THES A1 - Suttner, Raik T1 - Output Optimization by Lie Bracket Approximations T1 - Ausgangsoptimierung durch Lie-Klammer-Approximationen N2 - In this dissertation, we develop and analyze novel optimizing feedback laws for control-affine systems with real-valued state-dependent output (or objective) functions. Given a control-affine system, our goal is to derive an output-feedback law that asymptotically stabilizes the closed-loop system around states at which the output function attains a minimum value. The control strategy has to be designed in such a way that an implementation only requires real-time measurements of the output value. Additional information, like the current system state or the gradient vector of the output function, is not assumed to be known. A method that meets all these criteria is called an extremum seeking control law. We follow a recently established approach to extremum seeking control, which is based on approximations of Lie brackets. For this purpose, the measured output is modulated by suitable highly oscillatory signals and is then fed back into the system. Averaging techniques for control-affine systems with highly oscillatory inputs reveal that the closed-loop system is driven, at least approximately, into the directions of certain Lie brackets. A suitable design of the control law ensures that these Lie brackets point into descent directions of the output function. Under suitable assumptions, this method leads to the effect that minima of the output function are practically uniformly asymptotically stable for the closed-loop system. The present document extends and improves this approach in various ways. One of the novelties is a control strategy that does not only lead to practical asymptotic stability, but in fact to asymptotic and even exponential stability. In this context, we focus on the application of distance-based formation control in autonomous multi-agent system in which only distance measurements are available. This means that the target formations as well as the sensed variables are determined by distances. We propose a fully distributed control law, which only involves distance measurements for each individual agent to stabilize a desired formation shape, while a storage of measured data is not required. The approach is applicable to point agents in the Euclidean space of arbitrary (but finite) dimension. Under the assumption of infinitesimal rigidity of the target formations, we show that the proposed control law induces local uniform asymptotic (and even exponential) stability. A similar statement is also derived for nonholonomic unicycle agents with all-to-all communication. We also show how the findings can be used to solve extremum seeking control problems. Another contribution is an extremum seeking control law with an adaptive dither signal. We present an output-feedback law that steers a fully actuated control-affine system with general drift vector field to a minimum of the output function. A key novelty of the approach is an adaptive choice of the frequency parameter. In this way, the task of determining a sufficiently large frequency parameter becomes obsolete. The adaptive choice of the frequency parameter also prevents finite escape times in the presence of a drift. The proposed control law does not only lead to convergence into a neighborhood of a minimum, but leads to exact convergence. For the case of an output function with a global minimum and no other critical point, we prove global convergence. Finally, we present an extremum seeking control law for a class of nonholonomic systems. A detailed averaging analysis reveals that the closed-loop system is driven approximately into descent directions of the output function along Lie brackets of the control vector fields. Those descent directions also originate from an approximation of suitably chosen Lie brackets. This requires a two-fold approximation of Lie brackets on different time scales. The proposed method can lead to practical asymptotic stability even if the control vector fields do not span the entire tangent space. It suffices instead that the tangent space is spanned by the elements in the Lie algebra generated by the control vector fields. This novel feature extends extremum seeking by Lie bracket approximations from the class of fully actuated systems to a larger class of nonholonomic systems. N2 - In dieser Dissertation werden neuartige optimierende Rückkopplungsgesetze für kontroll-affine Systeme mit reell-wertigen zustandsabhängigen Ausgangs- (bzw. Kosten-) funktionen entwickelt und analysiert. Das Ziel ist es zu einem gegebenen kontroll-affinen System ein Ausgangsrückkopplungsgesetz zu erlangen, welches das System im geschlossenen Regelkreis asymptotisch um Zustände stabilisiert bei denen die Ausgangsfunktion einen Minimalwert annimmt. Die Kontrollstrategie soll dabei derart konstruiert sein, dass eine Implementierung nur Echtzeitmessungen des Ausgangswerts erfordert. Zusätzliche Informationen, wie z.B. der aktuelle Systemzustand oder der Gradientenvektor der Ausgangsfunktion, werden nicht als bekannt angenommen. Eine Methode, die alle diese Kritierien erfüllt, bezeichnet man als Extremwertregelungsgesetz. Es wird hierzu ein vor kurzer Zeit etablierter Ansatz in der Extremwertregelung verfolgt, welcher auf der Approximation von Lie-Klammern basiert. Für diesen Zweck wird das gemessene Ausgangssignal mit geeigneten hoch-oszillierenden Signalen moduliert und danach zurück in das System eingespeist. Mittelungstechniken für kontroll-affine Systeme mit hoch-oszillierenden Eingängen enthüllen, dass das System im geschlossenen Regelkreis zumindest näherungsweise in die Richtung von gewissen Lie-Klammern getrieben wird. Eine geeignete Konstruktion des Kontrollgesetzes sichert, dass diese Lie-Klammern in Abstiegsrichtungen der Ausgangsfunktion zeigen. Unter geeigneten Annahmen führt diese Methode zu dem Effekt, dass Minima der Ausgangsfunktion praktisch gleichmäßig asymptotisch stabil für das System im geschlossenen Regelkreis sind. Das vorliegende Dokument erweitert und verbessert diesen Ansatz auf Verschiedene Arten und Weisen. Eine der Neuerungen ist eine Kontrollstrategie, die nicht nur zu praktischer asymptotischer Stabilität, sondern mehr noch zu asymptotischer Stabilität und sogar exponentieller Stabilität führt. In diesem Zusammenhang wird der Schwerpunkt auf die Anwendung zur abstandsbasierten Formationssteuerung in autonomen Multiagentensystemen gelegt, bei der nur Abstandsmessungen verfügbar sind. Dies bedeutet, dass sowohl die Zielformationen als auch die Messgrößen durch Abstände bestimmt sind. Es wird ein vollständig verteiltes Kontrollgesetz vorgeschlagen, welches lediglich Abstandsmessungen von jedem einzelnen Agenten beinhaltet um eine Formation zu stabilisieren, wobei eine Speicherung von Messdaten nicht erforderlich ist. Der Ansatz ist anwendbar auf Punktagenten im euklidischen Raum von beliebiger (aber endlicher) Dimension. Unter der Annahme von infinitesimaler Starrheit der Zielformationen wird nachgewiesen, dass das vorgeschlagene Steuerungsgesetz lokale gleichmäßige asymptotische (und sogar exponentielle) Stabilität induziert. Eine ähnliche Aussage wird auch für nicht-holonome Einradagenten mit alle-zu-allen-Kommunikation erlangt. Es wird außerdem gezeigt wie diese Erkenntnisse genutzt werden können um Extremwertregelungsprobleme zu lösen. Ein weiterer Beitrag ist ein Extremwertregelungsgesetz mit einem adaptiven Zittersignal. Es wird ein Ausgangsrückkopplungsgesetz präsentiert, welches ein voll-aktuiertes kontroll-affines System mit allgemeinem Driftvektorfeld zu einem Minimum der Ausgangsfunktion steuert. Eine entscheidende Neuheit des Ansatzes ist eine adaptive Wahl des Frequenzparameters. Auf diesem Weg wird die Aufgabe eine hinreicheind großen Frequenzparamter zu bestimmen hinfällig. Die adaptive Wahl des Frequenzparameters verhindert auch endliche Entweichzeiten in der Gegenwart eines Drifts. Das vorgeschlagene Kontrollgesetz führ nicht nur zu Konvergenz in eine Umgebung eines Minimums, sondern führt zu exakter Konvergenz. Für den Fall einer Ausgangsfunktion mit globalem Minimum und keinem anderen kritischen Punkt wird globale Konvergenz bewiesen. Schließlich wird ein Extremwertregelungsgesetz für eine Klasse von nicht-holonomen Systemen präsentiert. Eine detaillierte Mittelungsanalyse enthüllt, dass das System im geschlossenen Regelkreis näherungsweise in Abstiegsrichtungen der Ausgangsfunktion entlang von Lie-Klammern der Kontrollvektorfelder getrieben wird. Jene Abstiegsrichtungen stammen ebenso von einer Approximation von geeignet gewählten Lie-Klammern. Dies erfordert eine zweifache Approximation von Lie-Klammern auf verschiedenen Zeitskalen. Die vorgeschlagene Methode kann zu praktischer asymptotischer Stabilität führen selbst wenn die Kontrollvektorfelder nicht den gesamten Tangentialraum aufspannen. Es reicht stattdessen, dass der Tangentialraum durch die Elemente in der Lie-Algebra, welche durch die Kontrollvektorfelder generiert wird, aufgespannt wird. Diese neuartige Eigenschaft erweitert Extremwertregelung durch Lie-Klammer-Approximationen von der Klasse der voll-aktuierten Systeme zu einer größeren Klasse von nicht-holonomen Systemen. KW - extremum seeking control KW - Extremwertregelung KW - Approximation KW - Stabilität Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-211776 ER - TY - GEN A1 - Breitenbach, Tim T1 - Codes of examples for SQH method N2 - Code examples for the paper "On the SQH Scheme to Solve Nonsmooth PDE Optimal Control Problems" by Tim Breitenbach and Alfio Borzì published in the journal "Numerical Functional Analysis and Optimization", in 2019, DOI: 10.1080/01630563.2019.1599911 KW - SQH method KW - Code Examples Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-178588 ER - TY - THES A1 - Rehberg, Martin T1 - Weighted uniform distribution related to primes and the Selberg Class T1 - Gewichtete Gleichverteilung im Zusammenhang mit Primzahlen und der Selberg-Klasse N2 - In the thesis at hand, several sequences of number theoretic interest will be studied in the context of uniform distribution modulo one.

In the first part we deduce for positive and real \(z\not=1\) a discrepancy estimate for the sequence \( \left((2\pi )^{-1}(\log z)\gamma_a\right) \), where \(\gamma_a\) runs through the positive imaginary parts of the nontrivial \(a\)-points of the Riemann zeta-function. If the considered imaginary parts are bounded by \(T\), the discrepancy of the sequence \( \left((2\pi )^{-1}(\log z)\gamma_a\right) \) tends to zero like \( (\log\log\log T)^{-1} \) as \(T\rightarrow \infty\). The proof is related to the proof of Hlawka, who determined a discrepancy estimate for the sequence containing the positive imaginary parts of the nontrivial zeros of the Riemann zeta-function.

The second part of this thesis is about a sequence whose asymptotic behaviour is motivated by the sequence of primes. If \( \alpha\not=0\) is real and \(f\) is a function of logarithmic growth, we specify several conditions such that the sequence \( (\alpha f(q_n)) \) is uniformly distributed modulo one. The corresponding discrepancy estimates will be stated. The sequence \( (q_n)\) of real numbers is strictly increasing and the conditions on its counting function \( Q(x)=\#\lbrace q_n \leq x \rbrace \) are satisfied by primes and primes in arithmetic progessions. As an application we obtain that the sequence \( \left( (\log q_n)^K\right)\) is uniformly distributed modulo one for arbitrary \(K>1\), if the \(q_n\) are primes or primes in arithmetic progessions. The special case that \(q_n\) equals the \(\textit{n}\)th prime number \(p_n\) was studied by Too, Goto and Kano.

In the last part of this thesis we study for irrational \(\alpha\) the sequence \( (\alpha p_n)\) of irrational multiples of primes in the context of weighted uniform distribution modulo one. A result of Vinogradov concerning exponential sums states that this sequence is uniformly distributed modulo one. An alternative proof due to Vaaler uses L-functions. We extend this approach in the context of the Selberg class with polynomial Euler product. By doing so, we obtain two weighted versions of Vinogradov's result: The sequence \( (\alpha p_n)\) is \( (1+\chi_{D}(p_n))\log p_n\)-uniformly distributed modulo one, where \( \chi_D\) denotes the Legendre-Kronecker character. In the proof we use the Dedekind zeta-function of the quadratic number field \( \Bbb Q (\sqrt{D})\). As an application we obtain in case of \(D=-1\), that \( (\alpha p_n)\) is uniformly distributed modulo one, if the considered primes are congruent to one modulo four. Assuming additional conditions on the functions from the Selberg class we prove that the sequence \( (\alpha p_n) \) is also \( (\sum_{j=1}^{\nu_F}{\alpha_j(p_n)})\log p_n\)-uniformly distributed modulo one, where the weights are related to the Euler product of the function. N2 - In der vorliegenden Arbeit werden verschiedene zahlentheoretisch interessante Folgen im Kontext der Theorie der Gleichverteilung modulo eins untersucht.

Im ersten Teil wird für positiv reelles \( z\not = 1\) für die Folge \( \left((2\pi )^{-1}(\log z)\gamma_a\right) \) eine Diskrepanzabschätzung hergeleitet, wobei \( \gamma_a\) die positiven Imaginärteile der nichttrivialen \(a\)-Stellen der Riemannschen Zetafunktion durchlaufe: Sind die eingehenden Imaginäteile durch \(T\) beschränkt, dann strebt für \(T\rightarrow \infty\) die Diskrepanz der Folge \( \left((2\pi )^{-1}(\log z)\gamma_a\right) \) wie \( (\log\log\log T)^{-1}\) gegen Null. Der Beweis knüpft an das Vorgehen von Hlawka an, welcher eine Diskrepanzabschätzung für die Folge, in der die positiven Imaginärteile der nichttrivialen Nullstellen der Riemannschen Zetafunktion eingehen, ermittelte.

Der zweite Teil der Arbeit widmet sich einer Folge deren Wachstumsverhalten durch Primzahlen motiviert ist. Ist \(\alpha\not = 0\) reell und \(f\) eine logarithmisch wachsende Funktion, dann werden mehrere Bedingungen an \(f\) angegeben, unter denen die Folge \( (\alpha f(q_n)) \) gleichverteilt modulo eins ist. Entsprechende Diskrepanzabschätzungen der Folgen werden angegeben. Die Folge reeller Zahlen \( (q_n) \) ist selbst streng wachsend und die Bedingungen, die dabei an deren Zählfunktion \(Q(x)=\#\lbrace q_n \leq x \rbrace\) gestellt werden, sind von Primzahlen und Primzahlen in arithmetischen Progressionen erfällt. Als Anwendung ergibt sich, dass die Folge \( \left( (\log q_n)^K\right) \) für beliebiges \(K>1\) gleichverteilt modulo eins ist, etwa wenn die \(q_n\) Primzahlen oder Primzahlen in arithmetischen Progessionen durchlaufen. Der Spezialfall das \(q_n\) als die \(n\)te Primzahl \(p_n\) gewählt wird, wurde von Too, Goto und Kano untersucht.

Im letzten Teil der Arbeit wird für irrationales \(\alpha\) die Folge \( (\alpha p_n) \) irrationaler Vielfacher von Primzahlen im Rahmen der gewichteten Gleichverteilung modulo eins untersucht. Nach einem Resultat von Vinogradov über Exponentialsummen ist diese Folge gleichverteilt modulo eins. Ein alternativer Beweis von Vaaler verwendet L-Funktionen. Dieser Ansatz wird im Kontext von Funktionen aus der Selberg-Klasse mit polynomiellem Eulerprodukt ausgebaut. Dabei werden zwei gewichtete Versionen des vinogradovschen Resultats gewonnen: Die Folge \( (\alpha p_n) \) ist \( (1+\chi_{D}(p_n))\log p_n\)-gleichverteilt modulo eins, wobei \(\chi_{D}\) den Legendre-Kronecker Charakter bezeichnet. Der Beweis verwendet die Dedekindsche Zetafunktion zum quadratischen Zahlkörper \(\Bbb Q (\sqrt{D})\). Als Anwendung ergibt sich etwa für \(D=-1\), dass \( (\alpha p_n) \) gleichverteilt modulo eins ist, wenn die durchlaufenen Primzahlen kongruent zu eins modulo vier sind. Unter zusätzlichen Bedingungen an die Funktionen aus der Selberg-Klasse lässt sich weiter zeigen, das die Folge \( (\alpha p_n) \) auch \( (\sum_{j=1}^{\nu_F}{\alpha_j(p_n)})\log p_n\)-gleichverteilt modulo eins, wobei die Gewichte in direktem Zusammenhang mit dem Eulerprodukt der Funktion stehen. KW - Zahlentheorie KW - weighted uniform distribution modulo one KW - gewichtete Gleichverteilung modulo eins KW - Selberg Class KW - prime number KW - quadratic number field KW - Selberg Klasse KW - Diskrepanz KW - Primzahl KW - Selbergsche L-Reihe KW - Quadratischer Zahlkörper KW - Zetafunktion KW - Gleichverteilung Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-209252 ER - TY - THES A1 - Bartsch, Jan T1 - Theoretical and numerical investigation of optimal control problems governed by kinetic models T1 - Theoretische und numerische Untersuchung von Optimalsteuerungsproblemen mit kinetischen Modellen N2 - This thesis is devoted to the numerical and theoretical analysis of ensemble optimal control problems governed by kinetic models. The formulation and study of these problems have been put forward in recent years by R.W. Brockett with the motivation that ensemble control may provide a more general and robust control framework for dynamical systems. Following this formulation, a Liouville (or continuity) equation with an unbounded drift function is considered together with a class of cost functionals that include tracking of ensembles of trajectories of dynamical systems and different control costs. Specifically, $L^2$, $H^1$ and $L^1$ control costs are taken into account which leads to non--smooth optimization problems. For the theoretical investigation of the resulting optimal control problems, a well--posedness theory in weighted Sobolev spaces is presented for Liouville and related transport equations. Specifically, existence and uniqueness results for these equations and energy estimates in suitable norms are provided; in particular norms in weighted Sobolev spaces. Then, non--smooth optimal control problems governed by the Liouville equation are formulated with a control mechanism in the drift function. Further, box--constraints on the control are imposed. The control--to--state map is introduced, that associates to any control the unique solution of the corresponding Liouville equation. Important properties of this map are investigated, specifically, that it is well--defined, continuous and Frechet differentiable. Using the first two properties, the existence of solutions to the optimal control problems is shown. While proving the differentiability, a loss of regularity is encountered, that is natural to hyperbolic equations. This leads to the need of the investigation of the control--to--state map in the topology of weighted Sobolev spaces. Exploiting the Frechet differentiability, it is possible to characterize solutions to the optimal control problem as solutions to an optimality system. This system consists of the Liouville equation, its optimization adjoint in the form of a transport equation, and a gradient inequality. Numerical methodologies for solving Liouville and transport equations are presented that are based on a non--smooth Lagrange optimization framework. For this purpose, approximation and solution schemes for such equations are developed and analyzed. For the approximation of the Liouville model and its optimization adjoint, a combination of a Kurganov--Tadmor method, a Runge--Kutta scheme, and a Strang splitting method are discussed. Stability and second--order accuracy of these resulting schemes are proven in the discrete $L^1$ norm. In addition, conservation of mass and positivity preservation are confirmed for the solution method of the Liouville model. As numerical optimization strategy, an adapted Krylow--Newton method is applied. Since the control is considered to be an element of $H^1$ and to obey certain box--constraints, a method for calculating a $H^1$ projection is presented. Since the optimal control problem is non-smooth, a semi-smooth adaption of Newton's method is taken into account. Results of numerical experiments are presented that successfully validate the proposed deterministic framework. After the discussion of deterministic schemes, the linear space--homogeneous Keilson--Storer master equation is investigated. This equation was originally developed for the modelling of Brownian motion of particles immersed in a fluid and is a representative model of the class of linear Boltzmann equations. The well--posedness of the Keilson--Storer master equation is investigated and energy estimates in different topologies are derived. To solve this equation numerically, Monte Carlo methods are considered. Such methods take advantage of the kinetic formulation of the Liouville equation and directly implement the behaviour of the system of particles under consideration. This includes the probabilistic behaviour of the collisions between particles. Optimal control problems are formulated with an objective that is constituted of certain expected values in velocity space and the $L^2$ and $H^1$ costs of the control. The problems are governed by the Keilson--Storer master equation and the control mechanism is considered to be within the collision kernel. The objective of the optimal control of this model is to drive an ensemble of particles to acquire a desired mean velocity and to achieve a desired final velocity configuration. Existence of solutions of the optimal control problem is proven and a Keilson--Storer optimality system characterizing the solution of the proposed optimal control problem is obtained. The optimality system is used to construct a gradient--based optimization strategy in the framework of Monte--Carlo methods. This task requires to accommodate the resulting adjoint Keilson--Storer model in a form that is consistent with the kinetic formulation. For this reason, we derive an adjoint Keilson--Storer collision kernel and an additional source term. A similar approach is presented in the case of a linear space--inhomogeneous kinetic model with external forces and with Keilson--Storer collision term. In this framework, a control mechanism in the form of an external space--dependent force is investigated. The purpose of this control is to steer the multi--particle system to follow a desired mean velocity and position and to reach a desired final configuration in phase space. An optimal control problem using the formulation of ensemble controls is stated with an objective that is constituted of expected values in phase space and $H^1$ costs of the control. For solving the optimal control problems, a gradient--based computational strategy in the framework of Monte Carlo methods is developed. Part of this is the denoising of the distribution functions calculated by Monte Carlo algorithms using methods of the realm of partial differential equations. A standalone C++ code is presented that implements the developed non--linear conjugated gradient strategy. Results of numerical experiments confirm the ability of the designed probabilistic control framework to operate as desired. An outlook section about optimal control problems governed by non--linear space--inhomogeneous kinetic models completes this thesis. N2 - Diese Arbeit widmet sich der numerischen und theoretischen Analyse von Proble- men der optimalen Kontrolle von Ensembles, die durch kinetische Modelle gesteuert werden. Die Formulierung und Untersuchung von Ensemble–Kontrollproblemen wur- den in den letzten Jahren von R.W. Brockett vorgeschlagen und vorangetrieben, mit der Motivation, dass Ensemblekontrolle einen allgemeineren und robusteren Rahmen für die Kontrolle von dynamischen Systemen bieten kann. In Anlehnung an diese Formulierung der Ensemble–Steuerung werden eine Liouville– (oder Kontinuitäts– ) Gleichung mit unbeschränkter Driftfunktion und eine Klasse von Kostenfunk- tionalen miteinbezogen, die das Nachverfolgen der Ensembles und verschiedener Kon- trollkosten berücksichtigen. Insbesondere werden L2, H1 und L1 Kontrollkosten be- trachtet. Für die theoretische Untersuchung der resultierenden Optimalsteuerungs- problemen wird eine Gutgestelltheitstheorie in gewichteten Sobolev–Räumen für die Liouville– und Transportgleichungen vorgestellt. Insbesondere werden Existenz– und Eindeutigkeitsresultate sowie Energieabschätzungen in geeigneten Normen präsen- tiert; insbesondere in gewichteten Sobolev–Räumen. Dann wird eine Klasse von nicht–glatten Optimalsteuerungsproblemen formuliert mit der Liouville–Gleichung als Nebenbedingung und einem Kontrollmechanismus in der Driftfunktion. Weiter- hin werden Box–Einschränkungen angenommen. ... KW - Optimale Kontrolle KW - Optimierung / Nebenbedingung KW - Liouville and transport equations KW - Ensemble optimal control Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-249066 ER - TY - JOUR A1 - Bartsch, Jan A1 - Borzì, Alfio A1 - Fanelli, Francesco A1 - Roy, Souvik T1 - A numerical investigation of Brockett’s ensemble optimal control problems JF - Numerische Mathematik N2 - This paper is devoted to the numerical analysis of non-smooth ensemble optimal control problems governed by the Liouville (continuity) equation that have been originally proposed by R.W. Brockett with the purpose of determining an efficient and robust control strategy for dynamical systems. A numerical methodology for solving these problems is presented that is based on a non-smooth Lagrange optimization framework where the optimal controls are characterized as solutions to the related optimality systems. For this purpose, approximation and solution schemes are developed and analysed. Specifically, for the approximation of the Liouville model and its optimization adjoint, a combination of a Kurganov–Tadmor method, a Runge–Kutta scheme, and a Strang splitting method are discussed. The resulting optimality system is solved by a projected semi-smooth Krylov–Newton method. Results of numerical experiments are presented that successfully validate the proposed framework. KW - numerical analysis KW - Brockett KW - ensemble optimal control problems Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-265352 VL - 149 IS - 1 ER - TY - JOUR A1 - Matlach, Juliane A1 - Dhillon, Christine A1 - Hain, Johannes A1 - Schlunck, Günther A1 - Grehn, Franz A1 - Klink, Thomas T1 - Trabeculectomy versus canaloplasty (TVC study) in the treatment of patients with open-angle glaucoma: a prospective randomized clinical trial JF - Acta Ophthalmologica N2 - Purpose: To compare the outcomes of canaloplasty and trabeculectomy in open-angle glaucoma. Methods: This prospective, randomized clinical trial included 62 patients who randomly received trabeculectomy (n = 32) or canaloplasty (n = 30) and were followed up prospectively for 2 years. Primary endpoint was complete (without medication) and qualified success (with or without medication) defined as an intraocular pressure (IOP) of ≤18 mmHg (definition 1) or IOP ≤21 mmHg and ≥20% IOP reduction (definition 2), IOP ≥5 mmHg, no vision loss and no further glaucoma surgery. Secondary endpoints were the absolute IOP reduction, visual acuity, medication, complications and second surgeries. Results: Surgical treatment significantly reduced IOP in both groups (p < 0.001). Complete success was achieved in 74.2% and 39.1% (definition 1, p = 0.01), and 67.7% and 39.1% (definition 2, p = 0.04) after 2 years in the trabeculectomy and canaloplasty group, respectively. Mean absolute IOP reduction was 10.8 ± 6.9 mmHg in the trabeculectomy and 9.3 ± 5.7 mmHg in the canaloplasty group after 2 years (p = 0.47). Mean IOP was 11.5 ± 3.4 mmHg in the trabeculectomy and 14.4 ± 4.2 mmHg in the canaloplasty group after 2 years. Following trabeculectomy, complications were more frequent including hypotony (37.5%), choroidal detachment (12.5%) and elevated IOP (25.0%). Conclusions: Trabeculectomy is associated with a stronger IOP reduction and less need for medication at the cost of a higher rate of complications. If target pressure is attainable by moderate IOP reduction, canaloplasty may be considered for its relative ease of postoperative care and lack of complications. KW - months follow-up KW - surgical outcomes KW - mitomycin C KW - canaloplasty KW - open-angle glaucoma KW - trabeculectomy KW - glaucoma surgery KW - series KW - phacocanaloplasty KW - phacotrabeculectomy KW - canal surgery KW - cataract surgery KW - flexible microcatheter KW - circumferential viscodilation Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-149263 VL - 93 ER - TY - JOUR A1 - Hellmuth, Kathrin A1 - Klingenberg, Christian T1 - Computing Black Scholes with uncertain volatility — a machine learning approach JF - Mathematics N2 - In financial mathematics, it is a typical approach to approximate financial markets operating in discrete time by continuous-time models such as the Black Scholes model. Fitting this model gives rise to difficulties due to the discrete nature of market data. We thus model the pricing process of financial derivatives by the Black Scholes equation, where the volatility is a function of a finite number of random variables. This reflects an influence of uncertain factors when determining volatility. The aim is to quantify the effect of this uncertainty when computing the price of derivatives. Our underlying method is the generalized Polynomial Chaos (gPC) method in order to numerically compute the uncertainty of the solution by the stochastic Galerkin approach and a finite difference method. We present an efficient numerical variation of this method, which is based on a machine learning technique, the so-called Bi-Fidelity approach. This is illustrated with numerical examples. KW - numerical finance KW - Black Scholes equation KW - uncertainty quantification KW - uncertain volatility KW - polynomial chaos KW - Bi-Fidelity method Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-262280 SN - 2227-7390 VL - 10 IS - 3 ER - TY - THES A1 - Mungenast, Sebastian T1 - Zur Bedeutung von Metakognition beim Umgang mit Mathematik - Dokumentation metakognitiver Aktivitäten bei Studienanfänger_innen, Entwicklung eines Kategoriensystems für Metakognition beim Umgang mit Mathematik und Erörterung von Ansatzpunkten für Metakognition in der Analysis T1 - On the significance of metacognition in the context of mathematics – Documentation of metacognitive activity in prospective students, development of a category system for metacognition in a mathematical context and discussion of Calculus-related starting points for metacognitive activity N2 - Die vorliegende Arbeit beschäftigt sich explorativ mit Metakognition beim Umgang mit Mathematik. Aufbauend auf der vorgestellten Forschungsliteratur wird der Einsatz von Metakognition im Rahmen einer qualitativen Studie bei Studienanfänger_innen aus verschiedenen Mathematik-(Lehramts-)Studiengängen dokumentiert. Unter Verwendung der Qualitativen Inhaltsanalyse nach Mayring erfolgt die Etablierung eines Kategoriensystems für den Begriff Metakognition im Hinblick auf den Einsatz in der Mathematik, das bisherige Systematisierungen erweitert. Schließlich wird der Einsatz der entsprechenden metakognitiven Aspekte am Beispiel verschiedener Begriffe und Verfahren aus dem Analysis-Unterricht exemplarisch aufgezeigt. N2 - The thesis explores metacognition in the context of mathematics. Based on the presented research literature metacognitive activity is documented as part of a qualitative study among prospective students from various mathematics programmes (including mathematics teaching). Utilising Mayring’s Qualitative Content Analysis method a category system is established, which systemises metacognition and expands upon existing categorisations. Finally, the application of its metacognitive aspects is demonstrated using the example of various concepts and methods from the German upper secondary Calculus curriculum. KW - Metakognition KW - Mathematikunterricht KW - Hochschuldidaktik KW - Mathematik KW - Mathematikdidaktik KW - Mathematiklernen Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-293114 ER - TY - THES A1 - Nedrenco, Dmitri T1 - Axiomatisieren lernen mit Papierfalten : Entwicklung, Durchführung und Auswertung eines Hochschulkurses für gymnasiale Lehramtsstudierende T1 - Learning how to axiomatise with paperfolding N2 - In dieser Arbeit wird mathematisches Papierfalten und speziell 1-fach-Origami im universitären Kontext untersucht. Die Arbeit besteht aus drei Teilen. Der erste Teil ist im Wesentlichen der Sachanalyse des 1-fach-Origami gewidmet. Im ersten Kapitel gehen wir auf die geschichtliche Einordnung des 1-fach-Origami, betrachten axiomatische Grundlagen und diskutieren, wie das Axiomatisieren von 1-fach-Origami zum Verständnis des Axiomenbegriffs beitragen könnte. Im zweiten Kapitel schildern wir das Design der zugehörigen explorativen Studie, beschreiben unsere Forschungsziele und -fragen. Im dritten Kapitel wird 1-fach-Origami mathematisiert, definiert und eingehend untersucht. Der zweite Teil beschäftigt sich mit den von uns gestalteten und durchgeführten Kursen »Axiomatisieren lernen mit Papierfalten«. Im vierten Kapitel beschreiben wir die Lehrmethodik und die Gestaltung der Kurse, das fünfte Kapitel enthält ein Exzerpt der Kurse. Im dritten Teil werden die zugehörigen Tests beschrieben. Im sechsten Kapitel erläutern wir das Design der Tests sowie die Testmethodik. Im siebten Kapitel findet die Auswertung ebendieser Tests statt. N2 - In this manuscript, mathematical paper folding and specifically 1-fold origami is studied in a university context. The thesis consists of three parts. The first part is mainly devoted to the factual analysis of 1-fold origami. In the first chapter, we elaborate on the historical development of 1-fold origami, consider axiomatic foundations, and discuss how axiomatizing 1-fold origami could contribute to the understanding of the concept of an axiom. In the second chapter, we describe the design of the related exploratory study, describe our research objectives and questions. In the third chapter, 1-fold origami is mathematized, defined, and explored in depth. The second part focuses on the courses with the title "Learning how to axiomatize through paperfolding" which we designed and conducted. In the fourth chapter we describe the teaching methodology and the design of the courses, and the fifth chapter contains an excerpt of the courses. In the third part we describe the associated tests. In the sixth chapter we explain the design of the tests as well as the testing methodology. In the seventh chapter, the evaluation of these tests is carried out. KW - Mathematikunterricht KW - Axiom KW - Falten KW - Hochschule+Lehre KW - Origami KW - Axiomatisieren KW - mathematisches Papierfalten KW - 1-fach-Origami KW - one-fold-origami KW - mathematical paperfolding Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-279383 ER - TY - THES A1 - Karl, Veronika T1 - Augmented Lagrangian Methods for State Constrained Optimal Control Problems T1 - Augmentierte Lagrange-Verfahren für zustandsbeschränkte Optimalsteuerungsprobleme N2 - This thesis is concerned with the solution of control and state constrained optimal control problems, which are governed by elliptic partial differential equations. Problems of this type are challenging since they suffer from the low regularity of the multiplier corresponding to the state constraint. Applying an augmented Lagrangian method we overcome these difficulties by working with multiplier approximations in $L^2(\Omega)$. For each problem class, we introduce the solution algorithm, carry out a thoroughly convergence analysis and illustrate our theoretical findings with numerical examples. The thesis is divided into two parts. The first part focuses on classical PDE constrained optimal control problems. We start by studying linear-quadratic objective functionals, which include the standard tracking type term and an additional regularization term as well as the case, where the regularization term is replaced by an $L^1(\Omega)$-norm term, which makes the problem ill-posed. We deepen our study of the augmented Lagrangian algorithm by examining the more complicated class of optimal control problems that are governed by a semilinear partial differential equation. The second part investigates the broader class of multi-player control problems. While the examination of jointly convex generalized Nash equilibrium problems (GNEP) is a simple extension of the linear elliptic optimal control case, the complexity is increased significantly for pure GNEPs. The existence of solutions of jointly convex GNEPs is well-studied. However, solution algorithms may suffer from non-uniqueness of solutions. Therefore, the last part of this thesis is devoted to the analysis of the uniqueness of normalized equilibria. N2 - Die vorliegende Arbeit beschäftigt sich mit der Lösung von kontroll- und zustandsbeschränkten Optimalsteuerungsproblemen mit elliptischen partiellen Differentialgleichungen als Nebenbedingungen. Da die zur Zustandsbeschränkung zugehörigen Multiplikatoren nur eine niedrige Regularität aufweisen, sind Probleme dieses Typs besonders anspruchsvoll. Zur Lösung dieser Problemklasse wird ein augmentiertes Lagrange-Verfahren angewandt, das Annäherungen der Multiplikatoren in $L^2(\Omega)$ verwendet. Für jede Problemklasse erfolgt eine Präsentation des Lösungsalgorithmus, eine sorgfältige Konvergenzanalysis sowie eine Veranschaulichung der theoretischen Ergebnisse durch numerische Beispiele. Die Arbeit ist in zwei verschiedene Themenbereiche gegliedert. Der erste Teil widmet sich klassischen Optimalsteuerungsproblemen. Dabei wird zuerst der linear-quadratische und somit konvexe Fall untersucht. Hier setzt sich das Kostenfunktional aus einem Tracking-Type Term sowie einem $L^2(\Omega)$-Regularisierungsterm oder einem $L^1(\Omega)$-Term zusammen. Wir erweitern unsere Analysis auf nichtkonvexe Probleme. In diesem Fall erschwert die Nichtlinearität der zugrundeliegenden partiellen Differentialgleichung die Konvergenzanalysis des zugehörigen Optimalsteuerungsproblems maßgeblich. Der zweite Teil der Arbeit nutzt die Grundlagen, die im ersten Teil erarbeitet wurden und untersucht die allgemeiner gehaltene Problemklasse der Nash-Mehrspielerprobleme. Während die Untersuchung von konvexen verallgemeinerten Nash-Gleichsgewichtsproblemen (engl.: Generalized Nash Equilibrium Problem, kurz: GNEP) mit einer für alle Spieler identischen Restriktion eine einfache Erweiterung von linear elliptischen Optimalsteuerungsproblemen darstellt, erhöht sich der Schwierigkeitsgrad für Mehrspielerprobleme ohne gemeinsame Restriktion drastisch. Die Eindeutigkeit von normalisierten Nash-Gleichgewichten ist, im Gegensatz zu deren Existenz, nicht ausreichend erforscht, was insbesondere eine Schwierigkeit für Lösungsalgorithmen darstellt. Aus diesem Grund wird im letzten Teil dieser Arbeit die Eindeutigkeit von Lösungen gesondert betrachtet. KW - Optimale Kontrolle KW - Optimierung KW - Nash-Gleichgewicht KW - optimal control KW - state constraints KW - augmented Lagrangian method KW - Elliptische Differentialgleichung KW - Optimale Steuerung Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-213846 ER - TY - THES A1 - Lauerbach, Laura T1 - Stochastic Homogenization in the Passage from Discrete to Continuous Systems - Fracture in Composite Materials T1 - Stochastische Homogenisierung im Übergang von Diskreten zu Kontinuierlichen Systemen - Brüche in Verbundwerkstoffen N2 - The work in this thesis contains three main topics. These are the passage from discrete to continuous models by means of $\Gamma$-convergence, random as well as periodic homogenization and fracture enabled by non-convex Lennard-Jones type interaction potentials. Each of them is discussed in the following. We consider a discrete model given by a one-dimensional chain of particles with randomly distributed interaction potentials. Our interest lies in the continuum limit, which yields the effective behaviour of the system. This limit is achieved as the number of atoms tends to infinity, which corresponds to a vanishing distance between the particles. The starting point of our analysis is an energy functional in a discrete system; its continuum limit is obtained by variational $\Gamma$-convergence. The $\Gamma$-convergence methods are combined with a homogenization process in the framework of ergodic theory, which allows to focus on heterogeneous systems. On the one hand, composite materials or materials with impurities are modelled by a stochastic or periodic distribution of particles or interaction potentials. On the other hand, systems of one species of particles can be considered as random in cases when the orientation of particles matters. Nanomaterials, like chains of atoms, molecules or polymers, are an application of the heterogeneous chains in experimental sciences. A special interest is in fracture in such heterogeneous systems. We consider interaction potentials of Lennard-Jones type. The non-standard growth conditions and the convex-concave structure of the Lennard-Jones type interactions yield mathematical difficulties, but allow for fracture. The interaction potentials are long-range in the sense that their modulus decays slower than exponential. Further, we allow for interactions beyond nearest neighbours, which is also referred to as long-range. The main mathematical issue is to bring together the Lennard-Jones type interactions with ergodic theorems in the limiting process as the number of particles tends to infinity. The blow up at zero of the potentials prevents from using standard extensions of the Akcoglu-Krengel subadditive ergodic theorem. We overcome this difficulty by an approximation of the interaction potentials which shows suitable Lipschitz and Hölder regularity. Beyond that, allowing for continuous probability distributions instead of only finitely many different potentials leads to a further challenge. The limiting integral functional of the energy by means of $\Gamma$-convergence involves a homogenized energy density and allows for fracture, but without a fracture contribution in the energy. In order to refine this result, we rescale our model and consider its $\Gamma$-limit, which is of Griffith's type consisting of an elastic part and a jump contribution. In a further approach we study fracture at the level of the discrete energies. With an appropriate definition of fracture in the discrete setting, we define a fracture threshold separating the region of elasticity from that of fracture and consider the pointwise convergence of this threshold. This limit turns out to coincide with the one obtained in the variational $\Gamma$-convergence approach. N2 - Diese Arbeit vereinigt im Wesentlichen drei Themen: Den Übergang von diskreten zu kontinuierlichen Modellen mittels $\Gamma$-Konvergenz, stochastische sowie periodische Homogenisierung, sowie Bruchmechanik, die durch nicht-konvexe Wechselwirkungspotentiale vom Lennard-Jones-Typ ermöglicht wird. Jedes dieser drei Themen wird im Folgenden diskutiert. Wir betrachten ein diskretes Modell, bestehend aus einer eindimensionale Kette von Teilchen mit zufällig verteilten Wechselwirkungspotentialen. Wir sind am Kontinuumsgrenzwert interessiert, welcher das effektive Verhalten des Systems widerspiegelt. In diesem Grenzwert läuft die Anzahl der Atome gegen unendlich, was einem verschwindenden Abstand zwischen den Teilchen entspricht. Ausgehend von einer Energie eines diskreten Systems erhalten wir den Kontinuumsgrenzwert durch die variationelle Methode der $\Gamma$-Konvergenz, welche den Übergang zum kontinuierlichen System liefert. Die $\Gamma$-Konvergenzmethoden werden im Rahmen der Ergodentheorie mit einem Homogenisierungsprozess kombiniert, wodurch die Betrachtung heterogener Systeme möglich wird. Einerseits werden Verbundwerkstoffe oder Materialien mit Verunreinigungen durch eine stochastische oder periodische Verteilung der Teilchen oder der Wechselwirkungspotentiale modelliert. Andererseits können Systeme einer Teilchenart als zufällig angesehen werden, wenn die Orientierung der Teilchen von Bedeutung ist. Nanomaterialien wie Ketten von Atomen, Molekülen oder Polymeren bieten eine Anwendung des Modells der heterogenen Ketten in den experimentellen Wissenschaften. Von besonderem Interesse ist das Auftreten von Brüchen in diesen heterogenen Systemen. Wir betrachten Wechselwirkungspotentiale vom Lennard-Jones Typ. Die nicht-standardisierten Wachstumsbedingungen und die konvex-konkave Struktur der Lennard-Jones Potentiale werfen mathematische Schwierigkeiten auf, ermöglichen jedoch das Auftreten von Brüchen. Die Wechselwirkungen gelten als langreichweitig in dem Sinne, dass ihr Betrag langsamer als exponentiell abfällt. Darüber hinaus betrachten wir Wechselwirkungen jenseits der nächsten Nachbarn, was ebenfalls als langreichweitig bezeichnet wird. Eine der größten mathematischen Schwierigkeiten besteht darin, die Wechselwirkungen vom Lennard-Jones Typ mit den Ergodensätzen zusammenzuführen. Die Singularität der Potentiale bei Null erlaubt keine Verwendung der Standardtechniken zur Erweiterung des subadditiven Ergodensatzes von Akcoglu-Krengel. Die Lösung dieses Problems ist eine Approximation der Wechselwirkungspotentiale, welche eine geeignete Lipschitz- und Hölder-Regularität besitzt. Darüber hinaus stellt die Verwendung von kontinuierlichen Wahrscheinlichkeitsverteilungen, anstelle von nur endlich vielen verschiedenen Potentialen, eine weitere Herausforderung dar. Das Integralfunktional im Grenzwert besteht aus einer homogenisierten Energiedichte und ermöglicht Brüche, jedoch ohne einen Beitrag dieser Brüche zur Energie. Um dieses Ergebnis zu verfeinern, skalieren wir unser Modell neu und betrachten dessen $\Gamma$-Grenzwert, der in Form einer Energie vom Griffith-Typ gegeben ist und aus einem elastischen Teil und einem Sprungbeitrag besteht. In einem weiteren Ansatz untersuchen wir Brüche auf Ebene der diskreten Energien. Mit einer geeigneten Definition des Bruchpunktes im diskreten System definieren wir eine Bruchschwelle, die den Elastizitätsbereich von dem Gebiet mit Brüchen trennt. Von diesem Schwellwert berechnen wir anschließend den punktweisen Grenzwert. Es stellt sich heraus, dass dieser Grenzwert mit dem durch die variationelle $\Gamma$-Konvergenz errechneten übereinstimmt. KW - Homogenisierung KW - Gamma-Konvergenz KW - Variationsrechnung KW - Lennard-Jones-Potenzial KW - Calculus of Variations KW - Brittle fracture KW - Periodic homogenization KW - Discrete to continuum KW - Stochastic homogenization Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-214534 ER - TY - JOUR A1 - del Alamo, Miguel A1 - Li, Housen A1 - Munk, Axel A1 - Werner, Frank T1 - Variational Multiscale Nonparametric Regression: Algorithms and Implementation JF - Algorithms N2 - Many modern statistically efficient methods come with tremendous computational challenges, often leading to large-scale optimisation problems. In this work, we examine such computational issues for recently developed estimation methods in nonparametric regression with a specific view on image denoising. We consider in particular certain variational multiscale estimators which are statistically optimal in minimax sense, yet computationally intensive. Such an estimator is computed as the minimiser of a smoothness functional (e.g., TV norm) over the class of all estimators such that none of its coefficients with respect to a given multiscale dictionary is statistically significant. The so obtained multiscale Nemirowski-Dantzig estimator (MIND) can incorporate any convex smoothness functional and combine it with a proper dictionary including wavelets, curvelets and shearlets. The computation of MIND in general requires to solve a high-dimensional constrained convex optimisation problem with a specific structure of the constraints induced by the statistical multiscale testing criterion. To solve this explicitly, we discuss three different algorithmic approaches: the Chambolle-Pock, ADMM and semismooth Newton algorithms. Algorithmic details and an explicit implementation is presented and the solutions are then compared numerically in a simulation study and on various test images. We thereby recommend the Chambolle-Pock algorithm in most cases for its fast convergence. We stress that our analysis can also be transferred to signal recovery and other denoising problems to recover more general objects whenever it is possible to borrow statistical strength from data patches of similar object structure. KW - non-smooth large-scale optimisation KW - image denoising KW - variational estimation KW - multiscale methods KW - MIND estimator Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-219332 SN - 1999-4893 VL - 13 IS - 11 ER - TY - THES A1 - Börgens, Eike Alexander Lars Guido T1 - ADMM-Type Methods for Optimization and Generalized Nash Equilibrium Problems in Hilbert Spaces T1 - ADMM-Methoden für Optimierungs- und Verallgemeinerte Nash-Gleichgewichtsprobleme in Hilberträumen N2 - This thesis is concerned with a certain class of algorithms for the solution of constrained optimization problems and generalized Nash equilibrium problems in Hilbert spaces. This class of algorithms is inspired by the alternating direction method of multipliers (ADMM) and eliminates the constraints using an augmented Lagrangian approach. The alternating direction method consists of splitting the augmented Lagrangian subproblem into smaller and more easily manageable parts. Before the algorithms are discussed, a substantial amount of background material, including the theory of Banach and Hilbert spaces, fixed-point iterations as well as convex and monotone set-valued analysis, is presented. Thereafter, certain optimization problems and generalized Nash equilibrium problems are reformulated and analyzed using variational inequalities and set-valued mappings. The analysis of the algorithms developed in the course of this thesis is rooted in these reformulations as variational inequalities and set-valued mappings. The first algorithms discussed and analyzed are one weakly and one strongly convergent ADMM-type algorithm for convex, linearly constrained optimization. By equipping the associated Hilbert space with the correct weighted scalar product, the analysis of these two methods is accomplished using the proximal point method and the Halpern method. The rest of the thesis is concerned with the development and analysis of ADMM-type algorithms for generalized Nash equilibrium problems that jointly share a linear equality constraint. The first class of these algorithms is completely parallelizable and uses a forward-backward idea for the analysis, whereas the second class of algorithms can be interpreted as a direct extension of the classical ADMM-method to generalized Nash equilibrium problems. At the end of this thesis, the numerical behavior of the discussed algorithms is demonstrated on a collection of examples. N2 - Die vorliegende Arbeit behandelt eine Klasse von Algorithmen zur Lösung restringierter Optimierungsprobleme und verallgemeinerter Nash-Gleichgewichtsprobleme in Hilberträumen. Diese Klasse von Algorithmen ist angelehnt an die Alternating Direction Method of Multipliers (ADMM) und eliminiert die Nebenbedingungen durch einen Augmented-Lagrangian-Ansatz. Im Rahmen dessen wird in der Alternating Direction Method of Multipliers das jeweilige Augmented-Lagrangian-Teilproblem in kleinere Teilprobleme aufgespaltet. Zur Vorbereitung wird eine Vielzahl grundlegender Resultate präsentiert. Dies beinhaltet entsprechende Ergebnisse aus der Literatur zu der Theorie von Banach- und Hilberträumen, Fixpunktmethoden sowie konvexer und monotoner mengenwertiger Analysis. Im Anschluss werden gewisse Optimierungsprobleme sowie verallgemeinerte Nash-Gleichgewichtsprobleme als Variationsungleichungen und Inklusionen mit mengenwertigen Operatoren formuliert und analysiert. Die Analysis der im Rahmen dieser Arbeit entwickelten Algorithmen bezieht sich auf diese Reformulierungen als Variationsungleichungen und Inklusionsprobleme. Zuerst werden ein schwach und ein stark konvergenter paralleler ADMM-Algorithmus zur Lösung von separablen Optimierungsaufgaben mit linearen Gleichheitsnebenbedingungen präsentiert und analysiert. Durch die Ausstattung des zugehörigen Hilbertraums mit dem richtigen gewichteten Skalarprodukt gelingt die Analyse dieser beiden Methoden mit Hilfe der Proximalpunktmethode und der Halpern-Methode. Der Rest der Arbeit beschäftigt sich mit Algorithmen für verallgemeinerte Nash-Gleichgewichtsprobleme, die gemeinsame lineare Gleichheitsnebenbedingungen besitzen. Die erste Klasse von Algorithmen ist vollständig parallelisierbar und es wird ein Forward-Backward-Ansatz für die Analyse genutzt. Die zweite Klasse von Algorithmen kann hingegen als direkte Erweiterung des klassischen ADMM-Verfahrens auf verallgemeinerte Nash-Gleichgewichtsprobleme aufgefasst werden. Abschließend wird das Konvergenzverhalten der entwickelten Algorithmen an einer Sammlung von Beispielen demonstriert. KW - Constrained optimization KW - Nash-Gleichgewicht KW - ADMM KW - Generalized Nash Equilibrium Problem KW - Verallgemeinertes Nash-Gleichgewichtsproblem KW - Hilbert-Raum KW - Optimierung Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-218777 ER - TY - THES A1 - Kann, Lennart T1 - Statistical Failure Prediction with an Account for Prior Information T1 - Statistische Vorhersage von Ausfällen unter Berücksichtigung von Vorinformationen N2 - Prediction intervals are needed in many industrial applications. Frequently in mass production, small subgroups of unknown size with a lifetime behavior differing from the remainder of the population exist. A risk assessment for such a subgroup consists of two steps: i) the estimation of the subgroup size, and ii) the estimation of the lifetime behavior of this subgroup. This thesis covers both steps. An efficient practical method to estimate the size of a subgroup is presented and benchmarked against other methods. A prediction interval procedure which includes prior information in form of a Beta distribution is provided. This scheme is applied to the prediction of binomial and negative binomial counts. The effect of the population size on the prediction of the future number of failures is considered for a Weibull lifetime distribution, whose parameters are estimated from censored field data. Methods to obtain a prediction interval for the future number of failures with unknown sample size are presented. In many applications, failures are reported with a delay. The effects of such a reporting delay on the coverage properties of prediction intervals for the future number of failures are studied. The total failure probability of the two steps can be decomposed as a product probability. One-sided confidence intervals for such a product probability are presented. N2 - Vorhersageintervalle werden in vielen industriellen Anwendungen benötigt. In Massenproduktionen entstehen regelmäßig kleine Untergruppen von unbekannter Größer, welche ein anderes Lebensdauerverhalten als die übrige Population besitzen. Eine Risikoeinschätzung für eine solche Untergruppe besteht aus zwei Schritten: i) der Schätzung der Größe dieser Untergruppe und ii) der Schätzung des Lebensdauerverhaltens dieser Untergruppe. Diese Arbeit behandelt diese beiden Schritte. Eine effiziente Methode zur Schätzung der Größe der Untergruppe wird vorgestellt und mit anderen Methoden verglichen. Vorhersageintervalle unter Vorinformation in Form einer Betaverteilung werden dargelegt. Das Schema wird für die Vorhersage binomialer und negativ binomialer Zufallsvariablen angewandt. Der Effekt der Populationsgröße auf die Vorhersage der Anzahl von zukünftigen Ausfällen wird für eine Weibull Verteilung betrachtet, deren Parameter auf Basis von zensierten Felddaten geschätzt werden. Methoden um Vorhersageintervalle bei unbekannter Populationsgröße zu bestimmen werden dargelegt. In vielen Anwendungen werden Ausfälle mit einem Verzug gemeldet. Die Effekte eines solchen Meldeverzugs auf die Überdeckungseigenschaften von Vorhersageintervallen für die Anzahl an zukünftigen Ausfällen werden untersucht. Die Gesamtausfallwahrscheinlichkeit aus den zwei Schritten kann in eine Produktwahrscheinlichkeit zerlegt werden. Einseitige Konfidenzintervalle für eine solche Produktwahrscheinlichkeit werden dargelegt. KW - Konfidenzintervall KW - Statistik KW - Weibull-Verteilung KW - Vorhersagbarkeit KW - A-priori-Wissen KW - Prediction interval KW - Confidence interval KW - Prior information KW - Weibull distribution KW - Mathematik KW - Binomialverteilung Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-205049 ER - TY - GEN A1 - Breitenbach, Tim T1 - Codes of examples for SQH method N2 - Code examples for the paper "On the SQH Scheme to Solve Nonsmooth PDE Optimal Control Problems" by Tim Breitenbach and Alfio Borzì published in the journal "Numerical Functional Analysis and Optimization", in 2019, DOI: 10.1080/01630563.2019.1599911 KW - Code examples KW - SQH method Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-167587 ER - TY - THES A1 - Meyer, Michael T1 - Practical isogeny-based cryptography T1 - Praktische Isogenie-basierte Kryptographie N2 - This thesis aims at providing efficient and side-channel protected implementations of isogeny-based primitives, and at their application in threshold protocols. It is based on a sequence of academic papers. Chapter 3 reviews the original variable-time implementation of CSIDH and introduces several optimizations, e.g. a significant improvement of isogeny computations by using both Montgomery and Edwards curves. In total, our improvements yield a speedup of 25% compared to the original implementation. Chapter 4 presents the first practical constant-time implementation of CSIDH. We describe how variable-time implementations of CSIDH leak information on private keys, and describe ways to mitigate this. Further, we present several techniques to speed up the implementation. In total, our constant-time implementation achieves a rather small slowdown by a factor of 3.03. Chapter 5 reviews practical fault injection attacks on CSIDH and presents countermeasures. We evaluate different attack models theoretically and practically, using low-budget equipment. Moreover, we present countermeasures that mitigate the proposed fault injection attacks, only leading to a small performance overhead of 7%. Chapter 6 initiates the study of threshold schemes based on the Hard Homogeneous Spaces (HHS) framework of Couveignes. Using the HHS equivalent of Shamir’s secret sharing in the exponents, we adapt isogeny based schemes to the threshold setting. In particular, we present threshold versions of the CSIDH public key encryption and the CSI-FiSh signature scheme. Chapter 7 gives a sieving algorithm for finding pairs of consecutive smooth numbers that utilizes solutions to the Prouhet-Tarry-Escott (PTE) problem. Recent compact isogeny-based protocols, namely B-SIDH and SQISign, both require large primes that lie between two smooth integers. Finding such a prime can be seen as a special case of finding twin smooth integers under the additional stipulation that their sum is a prime. N2 - Die vorliegende Dissertation stellt effiziente und Seitenkanal-geschützte Implementierungen Isogenie-basierter Verfahren bereit, und behandelt deren Verwendung in Threshold-Protokollen. Sie basiert auf einer Reihe von Veröffentlichungen. Kapitel 3 untersucht die originale variable-time Implementierung von CSIDH und beschreibt einige Optimierungen, wie etwa die effizientere Berechnung von Isogenien durch die Verwendung von Montgomery- und Edwards-Kurven. Insgesamt erreichen die Optimierungen eine Beschleuningung von 25% gegenüber der Referenzimplementierung. Kapitel 4 enthält die erste effiziente constant-time Implementierung von CSIDH. Es beschreibt inwiefern variable-time Implementierungen Informationen über private Schlüssel liefern, und entsprechende Gegenmaßnahmen. Des Weiteren werden einige Techniken zur Optimierung der Implementierung beschrieben. Insgesamt ist die constant-time Implementierung nur etwa 3x langsamer. Kapitel 5 untersucht praktische Fault-injection Attacken auf CSIDH und beschreibt Gegenmaßnahmen. Es betrachtet verschiedene Angriffsmodelle theoretisch und praktisch unter der Verwendung von low-budget Equipment. Die Gegenmaßnahmen führen zu einer sehr kleinen Performance-Verschlechterung von 7%. Kapitel 6 initiiert die Untersuchung von Threshold-Verfahren basierend auf Hard Homogeneous Spaces (HHS). Unter Verwendung der HHS-Version von Shamir Secret Sharing im Exponenten, werden Threshold-Varianten der CSIDH Verschlüsselung und des CSI-FiSh Signaturschemas definiert. Kapitel 7 enthält einen Sieb-Algorithmus zur Suche nach Paaren von aufeinanderfolgenden glatten Zahlen, unter Verwendung von Lösungen des Prouhet-Tarry-Escott-Problems. Die kürzlich veröffentlichten Isogenie-Verfahren B-SIDH und SQISign benötigen große Primzahlen, die zwischen zwei glatten ganzen Zahlen liegen. Die Suche nach solchen Primzahlen ist ein Spezialfall der Suche nach glatten benachbarten Zahlen, unter der zusätzlichen Bedingung dass deren Summe prim ist. KW - Kryptologie KW - Post-Quantum-Kryptografie KW - isogeny-based cryptography KW - CSIDH KW - elliptic curves KW - Elliptische Kurve Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-246821 ER - TY - THES A1 - Calà Campana, Francesca T1 - Numerical methods for solving open-loop non zero-sum differential Nash games T1 - Numerische Methoden zur Lösung von Open-Loop-Nicht-Nullsummen-Differential-Nash-Spielen N2 - This thesis is devoted to a theoretical and numerical investigation of methods to solve open-loop non zero-sum differential Nash games. These problems arise in many applications, e.g., biology, economics, physics, where competition between different agents appears. In this case, the goal of each agent is in contrast with those of the others, and a competition game can be interpreted as a coupled optimization problem for which, in general, an optimal solution does not exist. In fact, an optimal strategy for one player may be unsatisfactory for the others. For this reason, a solution of a game is sought as an equilibrium and among the solutions concepts proposed in the literature, that of Nash equilibrium (NE) is the focus of this thesis. The building blocks of the resulting differential Nash games are a dynamical model with different control functions associated with different players that pursue non-cooperative objectives. In particular, the aim of this thesis is on differential models having linear or bilinear state-strategy structures. In this framework, in the first chapter, some well-known results are recalled, especially for non-cooperative linear-quadratic differential Nash games. Then, a bilinear Nash game is formulated and analysed. The main achievement in this chapter is Theorem 1.4.2 concerning existence of Nash equilibria for non-cooperative differential bilinear games. This result is obtained assuming a sufficiently small time horizon T, and an estimate of T is provided in Lemma 1.4.8 using specific properties of the regularized Nikaido-Isoda function. In Chapter 2, in order to solve a bilinear Nash game, a semi-smooth Newton (SSN) scheme combined with a relaxation method is investigated, where the choice of a SSN scheme is motivated by the presence of constraints on the players’ actions that make the problem non-smooth. The resulting method is proved to be locally convergent in Theorem 2.1, and an estimate on the relaxation parameter is also obtained that relates the relaxation factor to the time horizon of a Nash equilibrium and to the other parameters of the game. For the bilinear Nash game, a Nash bargaining problem is also introduced and discussed, aiming at determining an improvement of all players’ objectives with respect to the Nash equilibrium. A characterization of a bargaining solution is given in Theorem 2.2.1 and a numerical scheme based on this result is presented that allows to compute this solution on the Pareto frontier. Results of numerical experiments based on a quantum model of two spin-particles and on a population dynamics model with two competing species are presented that successfully validate the proposed algorithms. In Chapter 3 a functional formulation of the classical homicidal chauffeur (HC) Nash game is introduced and a new numerical framework for its solution in a time-optimal formulation is discussed. This methodology combines a Hamiltonian based scheme, with proximal penalty to determine the time horizon where the game takes place, with a Lagrangian optimal control approach and relaxation to solve the Nash game at a fixed end-time. The resulting numerical optimization scheme has a bilevel structure, which aims at decoupling the computation of the end-time from the solution of the pursuit-evader game. Several numerical experiments are performed to show the ability of the proposed algorithm to solve the HC game. Focusing on the case where a collision may occur, the time for this event is determined. The last part of this thesis deals with the analysis of a novel sequential quadratic Hamiltonian (SQH) scheme for solving open-loop differential Nash games. This method is formulated in the framework of Pontryagin’s maximum principle and represents an efficient and robust extension of the successive approximations strategy in the realm of Nash games. In the SQH method, the Hamilton-Pontryagin functions are augmented by a quadratic penalty term and the Nikaido-Isoda function is used as a selection criterion. Based on this fact, the key idea of this SQH scheme is that the PMP characterization of Nash games leads to a finite-dimensional Nash game for any fixed time. A class of problems for which this finite-dimensional game admits a unique solution is identified and for this class of games theoretical results are presented that prove the well-posedness of the proposed scheme. In particular, Proposition 4.2.1 is proved to show that the selection criterion on the Nikaido-Isoda function is fulfilled. A comparison of the computational performances of the SQH scheme and the SSN-relaxation method previously discussed is shown. Applications to linear-quadratic Nash games and variants with control constraints, weighted L1 costs of the players’ actions and tracking objectives are presented that corroborate the theoretical statements. N2 - Diese Dissertation handelt von eine theoretischen und numerischen Untersuchung von Methoden zur Lösung von Open-Loop-Nicht-Nullsummen-Differential-Nash-Spielen. Diese Probleme treten in vielen Anwendungen auf, z.B., Biologie, Wirtschaft, Physik, in denen die Konkurrenz zwischen verschiedenen Wirkstoffen bzw. Agenten auftritt. In diesem Fall steht das Ziel jedes Agenten im Gegensatz zu dem der anderen und ein Wettbewerbsspiel kann als gekoppeltes Optimierungsproblem interpretiert werden. Im Allgemeinen gibt es keine optimale Lösung für ein solches Spiel. Tatsächlich kann eine optimale Strategie für einen Spieler für den anderen unbefriedigend sein. Aus diesem Grund wird ein Gle- ichgewicht eines Spiels als Lösung gesucht, und unter den in der Literatur vorgeschlagenen Lösungskonzepten steht das Nash-Gleichgewicht (NE) im Mittelpunkt dieser Arbeit. ... KW - Differential Games KW - Bilinear differential games KW - Homicidal Chauffeur game KW - Sequential Quadratic Hamiltonian scheme KW - Pontryagin maximum principle KW - Relaxation method Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-245900 ER - TY - JOUR A1 - Breitenbach, Tim A1 - Borzì, Alfio T1 - The Pontryagin maximum principle for solving Fokker–Planck optimal control problems JF - Computational Optimization and Applications N2 - The characterization and numerical solution of two non-smooth optimal control problems governed by a Fokker–Planck (FP) equation are investigated in the framework of the Pontryagin maximum principle (PMP). The two FP control problems are related to the problem of determining open- and closed-loop controls for a stochastic process whose probability density function is modelled by the FP equation. In both cases, existence and PMP characterisation of optimal controls are proved, and PMP-based numerical optimization schemes are implemented that solve the PMP optimality conditions to determine the controls sought. Results of experiments are presented that successfully validate the proposed computational framework and allow to compare the two control strategies. KW - Fokker–Planck equation KW - Pontryagin maximum principle KW - non-smooth optimal control problems KW - stochastic processes Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-232665 SN - 0926-6003 VL - 76 ER - TY - THES A1 - Raharja, Andreas Budi T1 - Optimisation Problems with Sparsity Terms: Theory and Algorithms T1 - Optimierungsprobleme mit Dünnbesetzten Termen: Theorie und Algorithmen N2 - The present thesis deals with optimisation problems with sparsity terms, either in the constraints which lead to cardinality-constrained problems or in the objective function which in turn lead to sparse optimisation problems. One of the primary aims of this work is to extend the so-called sequential optimality conditions to these two classes of problems. In recent years sequential optimality conditions have become increasingly popular in the realm of standard nonlinear programming. In contrast to the more well-known Karush-Kuhn-Tucker condition, they are genuine optimality conditions in the sense that every local minimiser satisfies these conditions without any further assumption. Lately they have also been extended to mathematical programmes with complementarity constraints. At around the same time it was also shown that optimisation problems with sparsity terms can be reformulated into problems which possess similar structures to mathematical programmes with complementarity constraints. These recent developments have become the impetus of the present work. But rather than working with the aforementioned reformulations which involve an artifical variable we shall first directly look at the problems themselves and derive sequential optimality conditions which are independent of any artificial variable. Afterwards we shall derive the weakest constraint qualifications associated with these conditions which relate them to the Karush-Kuhn-Tucker-type conditions. Another equally important aim of this work is to then consider the practicability of the derived sequential optimality conditions. The previously mentioned reformulations open up the possibilities to adapt methods which have been proven successful to handle mathematical programmes with complementarity constraints. We will show that the safeguarded augmented Lagrangian method and some regularisation methods may generate a point satisfying the derived conditions. N2 - Die vorliegende Arbeit beschäftigt sich mit Optimierungsproblemen mit dünnbesetzten Termen, und zwar entweder in der Restriktionsmenge, was zu kardinalitätsrestringierten Problemen führen, oder in der Zielfunktion, was zu Optimierungsproblemen mit dünnbesetzten Lösungen führen. Die Herleitung der sogenannten sequentiellen Optimalitätsbedingungen für diese Problemklassen ist eines der Hauptziele dieser Arbeit. Im Bereich der nichtlinearen Optimierung gibt es in jüngster Zeit immer mehr Interesse an diesen Bedingungen. Im Gegensatz zu der mehr bekannten Karush-Kuhn-Tucker Bedingung sind diese Bedingungen echte Optimalitätsbedingungen. Sie sind also in jedem lokalen Minimum ohne weitere Voraussetzung erfüllt. Vor Kurzem wurden solche Bedingungen auch für mathematische Programme mit Komplementaritätsbedingungen hergeleitet. Zum gleichen Zeitpunkt wurde es auch gezeigt, dass Optimierungsproblemen mit dünnbesetzten Termen sich als Problemen, die ähnliche Strukturen wie mathematische Programme mit Komplementaritätsbedingungen besitzen, umformulieren lassen. Diese jüngsten Entwicklungen motivieren die vorliegende Arbeit. Hier werden wir zunächst die ursprunglichen Problemen direkt betrachten anstatt mit den Umformulierungen, die eine künstliche Variable enthalten, zu arbeiten. Dies ermöglicht uns, um Optimalitätsbedingungen, die von künstlichen Variablen unabhängig sind, zu gewinnen. Danach werden wir die entsprechenden schwächsten Constraint Qualifikationen, die diese Bedingungen mit Karush-Kuhn-Tucker-ähnlichen Bedingungen verknüpfen, herleiten. Als ein weiteres Hauptziel der Arbeit werden wir dann untersuchen, ob die gerade hergeleiteten Bedingungen eine praktische Bedeutung haben. Die vor Kurzem eingeführten Umformulierungen bieten die Möglichkeiten, um die für mathematische Programme mit Komplementaritätsbedingungen gut funktionierenden Methoden hier auch anzuwenden. Wir werden zeigen, dass das safeguarded augmented Lagrangian Method und einige Regularisierungsmethoden theoretisch in der Lage sind, um einen Punkt, der den hergeleiteten Bedingungen genügt, zu generieren. KW - Optimierungsproblem KW - Regularisierungsverfahren KW - Cardinality Constraints KW - Augmented Lagrangian KW - Regularisation Methods Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-241955 ER - TY - JOUR A1 - Homburg, Annika A1 - Weiß, Christian H. A1 - Frahm, Gabriel A1 - Alwan, Layth C. A1 - Göb, Rainer T1 - Analysis and forecasting of risk in count processes JF - Journal of Risk and Financial Management N2 - Risk measures are commonly used to prepare for a prospective occurrence of an adverse event. If we are concerned with discrete risk phenomena such as counts of natural disasters, counts of infections by a serious disease, or counts of certain economic events, then the required risk forecasts are to be computed for an underlying count process. In practice, however, the discrete nature of count data is sometimes ignored and risk forecasts are calculated based on Gaussian time series models. But even if methods from count time series analysis are used in an adequate manner, the performance of risk forecasting is affected by estimation uncertainty as well as certain discreteness phenomena. To get a thorough overview of the aforementioned issues in risk forecasting of count processes, a comprehensive simulation study was done considering a broad variety of risk measures and count time series models. It becomes clear that Gaussian approximate risk forecasts substantially distort risk assessment and, thus, should be avoided. In order to account for the apparent estimation uncertainty in risk forecasting, we use bootstrap approaches for count time series. The relevance and the application of the proposed approaches are illustrated by real data examples about counts of storm surges and counts of financial transactions. KW - count time series KW - expected shortfall KW - expectiles KW - Gaussian approximation KW - mid quantiles KW - tail conditional expectation KW - value at risk Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-236692 SN - 1911-8074 VL - 14 IS - 4 ER - TY - JOUR A1 - Pirner, Marlies T1 - A review on BGK models for gas mixtures of mono and polyatomic molecules JF - Fluids N2 - We consider the Bathnagar–Gross–Krook (BGK) model, an approximation of the Boltzmann equation, describing the time evolution of a single momoatomic rarefied gas and satisfying the same two main properties (conservation properties and entropy inequality). However, in practical applications, one often has to deal with two additional physical issues. First, a gas often does not consist of only one species, but it consists of a mixture of different species. Second, the particles can store energy not only in translational degrees of freedom but also in internal degrees of freedom such as rotations or vibrations (polyatomic molecules). Therefore, here, we will present recent BGK models for gas mixtures for mono- and polyatomic particles and the existing mathematical theory for these models. KW - multi-fluid mixture KW - kinetic model KW - BGK approximation KW - degrees of freedom in internal energy KW - existence of solutions KW - large-time behaviour Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-250161 SN - 2311-5521 VL - 6 IS - 11 ER - TY - JOUR A1 - Steuding, Jörn A1 - Suriajaya, Ade Irma T1 - Value-Distribution of the Riemann Zeta-Function Along Its Julia Lines JF - Computational Methods and Function Theory N2 - For an arbitrary complex number a≠0 we consider the distribution of values of the Riemann zeta-function ζ at the a-points of the function Δ which appears in the functional equation ζ(s)=Δ(s)ζ(1−s). These a-points δa are clustered around the critical line 1/2+i\(\mathbb {R}\) which happens to be a Julia line for the essential singularity of ζ at infinity. We observe a remarkable average behaviour for the sequence of values ζ(δ\(_a\)). KW - Riemann zeta-function KW - value-distribution KW - critical line KW - Julia line Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-232621 SN - 1617-9447 VL - 20 ER - TY - THES A1 - Biersack, Florian T1 - Topological Properties of Quasiconformal Automorphism Groups T1 - Topologische Eigenschaften quasikonformer Automorphismengruppen N2 - The goal of this thesis is to study the topological and algebraic properties of the quasiconformal automorphism groups of simply and multiply connected domains in the complex plain, in which the quasiconformal automorphism groups are endowed with the supremum metric on the underlying domain. More precisely, questions concerning central topological properties such as (local) compactness, (path)-connectedness and separability and their dependence on the boundary of the corresponding domains are studied, as well as completeness with respect to the supremum metric. Moreover, special subsets of the quasiconformal automorphism group of the unit disk are investigated, and concrete quasiconformal automorphisms are constructed. Finally, a possible application of quasiconformal unit disk automorphisms to symmetric cryptography is presented, in which a quasiconformal cryptosystem is defined and studied. N2 - Das Ziel dieser Arbeit ist es, die topologischen und algebraischen Eigenschaften der quasikonformen Automorphismengruppen von einfach und mehrfach zusammenhängenden Gebieten in der komplexen Zahlenebene zu untersuchen, in denen die quasikonformen Automorphismengruppen mit der Supremum-Metrik auf dem zugrunde liegenden Gebiet versehen sind. Die Arbeit befasst sich mit Fragen zu zentralen topologischen Eigenschaften wie (lokaler) Kompaktheit, (Weg-)Zusammenhang und Separabilität sowie deren Abhängigkeit der Ränder der entsprechenden Gebiete, sowie mit der Vollständigkeit bezüglich der betrachteten Supremums-Metrik. Darüber hinaus werden spezielle Teilmengen der quasikonformen Automorphismengruppe des Einheitskreises untersucht und konkrete quasikonforme Automorphismen konstruiert. Schließlich wird eine mögliche Anwendung von quasikonformen Einheitskreis-Automorphismen auf symmetrische Kryptographie vorgestellt, bei der ein quasikonformes Kryptosystem definiert und untersucht wird. KW - Quasikonforme Abbildung KW - Automorphismengruppe KW - Quasiconformal automorphism KW - Uniform topology Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-359177 ER - TY - THES A1 - Bossert, Patrick T1 - Statistical structure and inference methods for discrete high-frequency observations of SPDEs in one and multiple space dimensions T1 - Statistische Struktur und Inferenzmethoden für diskrete hochfrequente Beobachtungen von SPDEs in einer und mehreren Raumdimensionen N2 - The focus of this thesis is on analysing a linear stochastic partial differential equation (SPDE) with a bounded domain. The first part of the thesis commences with an examination of a one-dimensional SPDE. In this context, we construct estimators for the parameters of a parabolic SPDE based on discrete observations of a solution in time and space on a bounded domain. We establish central limit theorems for a high-frequency asymptotic regime, showing substantially smaller asymptotic variances compared to existing estimation methods. Moreover, asymptotic confidence intervals are directly feasible. Our approach builds upon realized volatilities and their asymptotic illustration as the response of a log-linear model with a spatial explanatory variable. This yields efficient estimators based on realized volatilities with optimal rates of convergence and minimal variances. We demonstrate our results by Monte Carlo simulations. Extending this framework, we analyse a second-order SPDE model in multiple space dimensions in the second part of this thesis and develop estimators for the parameters of this model based on discrete observations in time and space on a bounded domain. While parameter estimation for one and two spatial dimensions was established in recent literature, this is the first work that generalizes the theory to a general, multi-dimensional framework. Our methodology enables the construction of an oracle estimator for volatility within the underlying model. For proving central limit theorems, we use a high-frequency observation scheme. To showcase our results, we conduct a Monte Carlo simulation, highlighting the advantages of our novel approach in a multi-dimensional context. N2 - Der Fokus dieser Dissertation liegt auf der Analyse von linearen stochastischen partiellen Differentialgleichungen (SPDEs) auf einem beschränkten Raum. Der erste Teil der Arbeit befasst sich mit der Untersuchung einer eindimensionalen SPDE. In diesem Zusammenhang konstruieren wir Schätzer für die Parameter einer parabolischen SPDE basierend auf diskreten Beobachtungen einer Lösung in Zeit und Raum. Wir leiten zentrale Grenzwertsätze innerhalb eines hochfrequenten Beobachtungsschemas her und zeigen dabei, dass die neu entwickelten Schätzer wesentlich kleinere asymptotische Varianzen im Vergleich zu bestehenden Schätzmethoden besitzen. Darüber hinaus sind asymptotische Konfidenzintervalle direkt realisierbar. Unser Ansatz basiert auf realisierten Volatilitäten und ihrer asymptotischen Darstellung durch ein log-lineares Modell mit einer räumlichen erklärenden Variable. Dies ergibt effiziente Schätzer basierend auf realisierten Volatilitäten mit optimalen Konvergenzraten und minimalen Varianzen. Wir demonstrieren unsere Ergebnisse mithilfe von Monte-Carlo-Simulationen. Den ersten Teil erweiternd, analysieren wir im zweiten Teil dieser Arbeit ein SPDE-Modell zweiter Ordnung in mehreren Raumdimensionen und entwickeln Schätzer für die Parameter dieses Modells basierend auf diskreten Beobachtungen in Zeit und Raum auf einem begrenzten Gebiet. Während die Parameterschätzung für eine und zwei Raumdimensionen in der Literatur bereits behandelt wurde, ist dies die erste Arbeit, die die Theorie auf einen multidimensionalen Rahmen verallgemeinert. Unsere Methodik ermöglicht die Konstruktion eines Orakelschätzers für den Volatilitätsparameter innerhalb des zugrundeliegenden Modells. Für den Beweis zentraler Grenzwertsätze verwenden wir ein hochfrequentes Beobachtungsschema. Um unsere Ergebnisse zu veranschaulichen, führen wir eine Monte-Carlo-Simulation durch, wobei wir die zugrundeliegende Simulationsmethodik hierfür herleiten. KW - Stochastische partielle Differentialgleichung KW - Multi-dimensional SPDEs KW - Central limit theorem under dependence KW - High-frequency data KW - Least squares estimation KW - One-dimensional SPDEs Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-361130 ER - TY - THES A1 - Körner, Jacob T1 - Theoretical and numerical analysis of Fokker–Planck optimal control problems by first– and second–order optimality conditions T1 - Theoretische und numerische Analysis von Fokker-Planck optimalen Steuerungsproblemen mittels Optimalitätsbedingung erster und zweiter Ordnung N2 - In this thesis, a variety of Fokker--Planck (FP) optimal control problems are investigated. Main emphasis is put on a first-- and second--order analysis of different optimal control problems, characterizing optimal controls, establishing regularity results for optimal controls, and providing a numerical analysis for a Galerkin--based numerical scheme. The Fokker--Planck equation is a partial differential equation (PDE) of linear parabolic type deeply connected to the theory of stochastic processes and stochastic differential equations. In essence, it describes the evolution over time of the probability distribution of the state of an object or system of objects under the influence of both deterministic and stochastic forces. The FP equation is a cornerstone in understanding and modeling phenomena ranging from the diffusion and motion of molecules in a fluid to the fluctuations in financial markets. Two different types of optimal control problems are analyzed in this thesis. On the one hand, Fokker--Planck ensemble optimal control problems are considered that have a wide range of applications in controlling a system of multiple non--interacting objects. In this framework, the goal is to collectively drive each object into a desired state. On the other hand, tracking--type control problems are investigated, commonly used in parameter identification problems or stemming from the field of inverse problems. In this framework, the aim is to determine certain parameters or functions of the FP equation, such that the resulting probability distribution function takes a desired form, possibly observed by measurements. In both cases, we consider FP models where the control functions are part of the drift, arising only from the deterministic forces of the system. Therefore, the FP optimal control problem has a bilinear control structure. Box constraints on the controls may be present, and the focus is on time--space dependent controls for ensemble--type problems and on only time--dependent controls for tracking--type optimal control problems. In the first chapter of the thesis, a proof of the connection between the FP equation and stochastic differential equations is provided. Additionally, stochastic optimal control problems, aiming to minimize an expected cost value, are introduced, and the corresponding formulation within a deterministic FP control framework is established. For the analysis of this PDE--constrained optimal control problem, the existence, and regularity of solutions to the FP problem are investigated. New $L^\infty$--estimates for solutions are established for low space dimensions under mild assumptions on the drift. Furthermore, based on the theory of Bessel potential spaces, new smoothness properties are derived for solutions to the FP problem in the case of only time--dependent controls. Due to these properties, the control--to--state map, which associates the control functions with the corresponding solution of the FP problem, is well--defined, Fréchet differentiable and compact for suitable Lebesgue spaces or Sobolev spaces. The existence of optimal controls is proven under various assumptions on the space of admissible controls and objective functionals. First--order optimality conditions are derived using the adjoint system. The resulting characterization of optimal controls is exploited to achieve higher regularity of optimal controls, as well as their state and co--state functions. Since the FP optimal control problem is non--convex due to its bilinear structure, a first--order analysis should be complemented by a second--order analysis. Therefore, a second--order analysis for the ensemble--type control problem in the case of $H^1$--controls in time and space is performed, and sufficient second--order conditions are provided. Analogous results are obtained for the tracking--type problem for only time--dependent controls. The developed theory on the control problem and the first-- and second--order optimality conditions is applied to perform a numerical analysis for a Galerkin discretization of the FP optimal control problem. The main focus is on tracking-type problems with only time--dependent controls. The idea of the presented Galerkin scheme is to first approximate the PDE--constrained optimization problem by a system of ODE--constrained optimization problems. Then, conditions on the problem are presented such that the convergence of optimal controls from one problem to the other can be guaranteed. For this purpose, a class of bilinear ODE--constrained optimal control problems arising from the Galerkin discretization of the FP problem is analyzed. First-- and second--order optimality conditions are established, and a numerical analysis is performed. A discretization with linear finite elements for the state and co--state problem is investigated, while the control functions are approximated by piecewise constant or piecewise quadratic continuous polynomials. The latter choice is motivated by the bilinear structure of the optimal control problem, allowing to overcome the discrepancies between a discretize--then--optimize and optimize--then--discretize approach. Moreover, second--order accuracy results are shown using the space of continuous, piecewise quadratic polynomials as the discrete space of controls. Lastly, the theoretical results and the second--order convergence rates are numerically verified. N2 - In dieser Dissertation werden verschiedene Fokker--Planck (FP) optimale Steuerungsprobleme untersucht. Die Schwerpunkte liegen auf einer Analyse von Optimalitätsbedingungen erster und zweiter Ordnung, der Charakterisierung optimaler Steuerungen, dem Herleiten höhere Regularität von optimalen Kontrollen sowie einer theoretischen numerischen Analyse für ein numerisches Verfahren basierend auf einer Galerkin Approximation. Die Fokker--Planck Gleichung ist eine lineare, parabolische, partielle Differentialgleichung (PDE), die aus dem Gebiet stochastischer Differentialgleichungen und stochastischer Prozesse stammt. Im Wesentlichen beschreibt sie die zeitliche Entwicklung der Wahrscheinlichkeitsverteilung des Zustands eines Objekts bzw. eines Systems von Objekten unter dem Einfluss sowohl deterministischer als auch stochastischer Kräfte. Die Fokker--Planck Gleichung ist ein Eckpfeiler zum Verständnis und Modellieren von Phänomenen, die von der Diffusion und Bewegung von Molekülen in einer Flüssigkeit bis hin zu den Schwankungen in Finanzmärkten reichen. Zwei verschiedene Arten von optimalen Kontrollproblemen werden in dieser Arbeit umfassend analysiert. Einerseits werden Fokker--Planck Ensemble Steuerungsprobleme betrachtet, die in der Kontrolle von Systemen mit mehreren nicht wechselwirkenden Objekten vielfältige Anwendungen haben. In diesem Gebiet ist das Ziel, alle Objekte gemeinsam in einen gewünschten Zustand zu lenken. Andererseits werden Tracking Kontrollprobleme untersucht, die häufig bei Parameteridentifikationsproblemen auftreten oder aus dem Bereich inverser Probleme stammen. Hier besteht das Ziel darin, bestimmte Parameter oder Funktionen der Fokker--Planck Gleichung derart zu bestimmen, dass die resultierende Wahrscheinlichkeitsverteilung eine gewünschte Form annimmt, welche beispielsweise durch Messungen beobachtet wurde. In beiden Fällen betrachten wir FP Modelle, bei denen die Kontrollfunktion Teil des sogenannten Drifts ist, das heißt der Teil, der nur aus den deterministischen Kräften des Systems resultiert. Daher hat das FP Kontrollproblem eine bilineare Struktur. Untere und obere Schranken für die Kontrollfunktionen können vorhanden sein, und der Fokus liegt auf zeit-- und raumabhängigen Steuerungen für Ensemble Kontrollprobleme, sowie auf nur zeitlich abhängigen Steuerungen für Tracking Kontrollprobleme. Am Anfang der Dissertation wird ein Beweis für den Zusammenhang zwischen der FP Gleichung und stochastischen Differentialgleichungen dargelegt. Darüber hinaus werden stochastische optimale Steuerungsprobleme eingeführt, deren Ziel es ist, einen erwarteten Kostenwert zu minimieren. Zusätzlich wird das Problem als ein deterministisches FP Kontrollproblem formuliert. Für die Analyse dieses Kontrollproblems wird die Existenz und Regularität von Lösungen für die FP Differentialgleichung untersucht. Neue $L^\infty$--Abschätzungen für Lösungen werden für niedrige Raumdimensionen unter schwachen Annahmen an den Drift bewiesen. Zusätzlich werden, basierend auf der Theorie über Bessel Potentialräume, neue Glattheitseigenschaften für Lösungen des FP--Problems im Falle zeitabhängiger Steuerungen erarbeitet. Aufgrund dieser Eigenschaften ist die sogenannte control--to--state Abbildung, welche die Kontrollfunktion mit der entsprechenden Lösung des FP Problems verknüpft, wohldefiniert, Fréchet--differenzierbar und kompakt für geeignete Lebesgue--Räume oder Sobolev--Räume. Die Existenz optimaler Steuerungen wird unter verschiedenen Annahmen an den Funktionenraum der Kontrollen und des Kostenfunktionals bewiesen. Optimalitätsbedingungen erster Ordnung werden unter Verwendung des adjungierten Systems aufgestellt. Die daraus resultierende Charakterisierung optimaler Steuerungen wird genutzt, um eine höhere Regularität optimaler Steuerungen sowie ihrer Zustandsfunktion und des adjungierten Problems zu erhalten. Da das FP Kontrollproblem aufgrund der bilinearen Struktur nicht konvex ist, sollte eine Analyse von Optimalitätsbedingungen erster Ordnung durch eine Analyse von Optimalitätsbedingungen zweiter Ordnung ergänzt werden. Dies wird für das Ensemble Kontrollproblem im Fall von zeit-- und ortsabhängigen Steuerungen mit $H^1$--Regularität durchgeführt, und hinreichende Bedingungen für lokale Minimierer werden hergeleitet. Analoge Ergebnisse werden für das Tracking--Problem für nur zeitabhängige Steuerungen bewiesen. Die entwickelte Theorie zu diesem optimalen Steuerungsproblem und dessen Optimalitätsbedingungen wird angewendet, um eine numerische Analyse für eine Galerkin--Diskretisierung des FP Kontrollproblems durchzuführen. Der Schwerpunkt liegt auf Tracking--Problemen mit nur zeitabhängigen Steuerungen. Die Idee des vorgestellten Galerkin--Verfahrens besteht darin, das PDE--Optimierungsproblem zunächst durch ein System von Optimierungsproblemen mit gewöhnlichen Differentialgleichungen (ODE) als Nebenbedingung zu approximieren. Dann werden Bedingungen an das Problem präsentiert, sodass die Konvergenz optimaler Steuerungen von einem Problem zum anderen garantiert werden kann. Zu diesem Zweck wird eine Klasse bilinearer ODE--Kontrollprobleme analysiert, welche sich aus der Galerkin--Diskretisierung des FP Problems ergeben. Optimalitätsbedingungen erster und zweiter Ordnung werden bewiesen, und eine numerische Analyse wird durchgeführt. Eine Diskretisierung mit linearen Finiten--Elementen der Zustands-- und Adjungiertengleichung wird untersucht, während die Kontrollfunktionen durch stückweise konstante oder stetige, stückweise quadratische Polynome approximiert werden. Diese Wahl wird durch die bilineare Struktur des optimalen Kontrollproblems begründet, da sie es ermöglicht, die Diskrepanzen zwischen einem Ansatz von ,,zuerst diskretisieren dann optimieren" und ,,zuerst optimieren, dann diskretisieren" zu überwinden. Durch die Verwendung stetiger, stückweise quadratischer Polynome als Diskretisierung der Steuerungen kann außerdem quadratische Konvergenzordnung gezeigt werden. Abschließend werden die theoretischen Ergebnisse und die Konvergenzraten zweiter Ordnung numerisch verifiziert. KW - Parabolische Differentialgleichung KW - Fokker-Planck-Gleichung KW - Optimale Kontrolle KW - Optimalitätsbedingung KW - Finite-Elemente-Methode KW - accuracy estimate Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-362997 ER - TY - THES A1 - Birke, Claudius B. T1 - Low Mach and Well-Balanced Numerical Methods for Compressible Euler and Ideal MHD Equations with Gravity T1 - Low Mach und Well-Balanced Numerische Verfahren für die kompressiblen Euler und idealen MHD Gleichungen mit Gravitation N2 - Physical regimes characterized by low Mach numbers and steep stratifications pose severe challenges to standard finite volume methods. We present three new methods specifically designed to navigate these challenges by being both low Mach compliant and well-balanced. These properties are crucial for numerical methods to efficiently and accurately compute solutions in the regimes considered. First, we concentrate on the construction of an approximate Riemann solver within Godunov-type finite volume methods. A new relaxation system gives rise to a two-speed relaxation solver for the Euler equations with gravity. Derived from fundamental mathematical principles, this solver reduces the artificial dissipation in the subsonic regime and preserves hydrostatic equilibria. The solver is particularly stable as it satisfies a discrete entropy inequality, preserves positivity of density and internal energy, and suppresses checkerboard modes. The second scheme is designed to solve the equations of ideal MHD and combines different approaches. In order to deal with low Mach numbers, it makes use of a low-dissipation version of the HLLD solver and a partially implicit time discretization to relax the CFL time step constraint. A Deviation Well-Balancing method is employed to preserve a priori known magnetohydrostatic equilibria and thereby reduces the magnitude of spatial discretization errors in strongly stratified setups. The third scheme relies on an IMEX approach based on a splitting of the MHD equations. The slow scale part of the system is discretized by a time-explicit Godunov-type method, whereas the fast scale part is discretized implicitly by central finite differences. Numerical dissipation terms and CFL time step restriction of the method depend solely on the slow waves of the explicit part, making the method particularly suited for subsonic regimes. Deviation Well-Balancing ensures the preservation of a priori known magnetohydrostatic equilibria. The three schemes are applied to various numerical experiments for the compressible Euler and ideal MHD equations, demonstrating their ability to accurately simulate flows in regimes with low Mach numbers and strong stratification even on coarse grids. N2 - Physikalische Regime mit sehr niedrigen Machzahlen und starken Abschichtungen stellen konventionelle Finite Volumen Verfahren vor erhebliche Herausforderungen. In dieser Arbeit präsentieren wir drei neue Verfahren, die in der Lage sind, die Herausforderungen zu bewältigen. Die neuen Verfahren sind speziell an kleine Machzahlen angepasst und können (magneto-)hydrostatische Gleichgewichte exakt erhalten. Diese Eigenschaften sind essentiell für eine effiziente Berechnung präziser Lösungen in den betrachteten Regimen. Zunächst konzentrieren wir uns auf die Konstruktion eines approximativen Riemannlösers innerhalb von Godunov-artigen Finite Volumen Verfahren. Ein neues Relaxationssystem führt zu einem Relaxationslöser für die Euler Gleichungen mit Gravitation, der zwei Relaxationsgeschwindigkeiten verwendet. Abgeleitet von grundlegenden mathematischen Prinzipien reduziert dieser Löser die künstliche Dissipation im subsonischen Bereich und erhält hydrostatische Gleichgewichte. Der Löser ist besonders stabil, da er eine diskrete Entropieungleichung erfüllt, die Positivität von Dichte und interner Energie bewahrt und Schachbrettmuster unterdrückt. Das zweite Verfahren löst die idealen MHD Gleichungen und kombiniert verschiedene Ansätze, um die einzelnen numerischen Herausforderungen zu bewältigen. Für einen effizienten Umgang mit niedrigen Machzahlen wird eine Variante des HLLD Lösers mit künstlich niedriger Dissipation sowie eine teilweise implizite Zeitdiskretisierung zur Lockerung der CFL Zeitschrittbeschränkung gewählt. Eine Deviation Well-Balancing Methode wird angewendet, um magnetohydrostatische Gleichgewichte zu bewahren und dadurch das Ausmaß von räumlichen Diskretisierungsfehlern in stark geschichteten Atmosphären zu reduzieren. Das dritte Verfahren verwendet einen IMEX Ansatz, welcher auf einer Aufspaltung der MHD Gleichungen basiert. Das Teilsystem mit langsamen Ausbreitungsgeschwindigkeiten wird durch eine zeit-explizite Godunov-artige Methode diskretisiert, während das Teilsystem mit schnellen Ausbreitungsgeschwindigkiten implizit durch zentrale finite Differenzen diskretisiert wird. Numerische Dissipationsterme und die CFL Zeitschrittbeschränkung der Methode hängen somit nur von den langsamen Wellen des expliziten Teils ab, so dass die Methode besonders für subsonische Regime geeignet ist. Deviation Well-Balancing gewährleistet die Erhaltung a priori bekannter magnetohydrostatischer Gleichgewichte. Die drei Verfahren werden auf numerische Experimente für die kompressiblen Euler und idealen MHD Gleichungen angewendet und zeigen darin ihre Fähigkeit, Strömungen in Regimen mit niedrigen Machzahlen und starker Schichtung auch auf groben diskreten Gittern akkurat zu simulieren. KW - Magnetohydrodynamik KW - Numerische Strömungssimulation KW - Finite-Volumen-Methode KW - relaxation method KW - IMEX scheme KW - low Mach number KW - well-balanced Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-363303 ER -