TY - JOUR A1 - Hellmuth, Kathrin A1 - Klingenberg, Christian T1 - Computing Black Scholes with uncertain volatility — a machine learning approach JF - Mathematics N2 - In financial mathematics, it is a typical approach to approximate financial markets operating in discrete time by continuous-time models such as the Black Scholes model. Fitting this model gives rise to difficulties due to the discrete nature of market data. We thus model the pricing process of financial derivatives by the Black Scholes equation, where the volatility is a function of a finite number of random variables. This reflects an influence of uncertain factors when determining volatility. The aim is to quantify the effect of this uncertainty when computing the price of derivatives. Our underlying method is the generalized Polynomial Chaos (gPC) method in order to numerically compute the uncertainty of the solution by the stochastic Galerkin approach and a finite difference method. We present an efficient numerical variation of this method, which is based on a machine learning technique, the so-called Bi-Fidelity approach. This is illustrated with numerical examples. KW - numerical finance KW - Black Scholes equation KW - uncertainty quantification KW - uncertain volatility KW - polynomial chaos KW - Bi-Fidelity method Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-262280 SN - 2227-7390 VL - 10 IS - 3 ER - TY - THES A1 - Mungenast, Sebastian T1 - Zur Bedeutung von Metakognition beim Umgang mit Mathematik - Dokumentation metakognitiver Aktivitäten bei Studienanfänger_innen, Entwicklung eines Kategoriensystems für Metakognition beim Umgang mit Mathematik und Erörterung von Ansatzpunkten für Metakognition in der Analysis T1 - On the significance of metacognition in the context of mathematics – Documentation of metacognitive activity in prospective students, development of a category system for metacognition in a mathematical context and discussion of Calculus-related starting points for metacognitive activity N2 - Die vorliegende Arbeit beschäftigt sich explorativ mit Metakognition beim Umgang mit Mathematik. Aufbauend auf der vorgestellten Forschungsliteratur wird der Einsatz von Metakognition im Rahmen einer qualitativen Studie bei Studienanfänger_innen aus verschiedenen Mathematik-(Lehramts-)Studiengängen dokumentiert. Unter Verwendung der Qualitativen Inhaltsanalyse nach Mayring erfolgt die Etablierung eines Kategoriensystems für den Begriff Metakognition im Hinblick auf den Einsatz in der Mathematik, das bisherige Systematisierungen erweitert. Schließlich wird der Einsatz der entsprechenden metakognitiven Aspekte am Beispiel verschiedener Begriffe und Verfahren aus dem Analysis-Unterricht exemplarisch aufgezeigt. N2 - The thesis explores metacognition in the context of mathematics. Based on the presented research literature metacognitive activity is documented as part of a qualitative study among prospective students from various mathematics programmes (including mathematics teaching). Utilising Mayring’s Qualitative Content Analysis method a category system is established, which systemises metacognition and expands upon existing categorisations. Finally, the application of its metacognitive aspects is demonstrated using the example of various concepts and methods from the German upper secondary Calculus curriculum. KW - Metakognition KW - Mathematikunterricht KW - Hochschuldidaktik KW - Mathematik KW - Mathematikdidaktik KW - Mathematiklernen Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-293114 ER - TY - THES A1 - Nedrenco, Dmitri T1 - Axiomatisieren lernen mit Papierfalten : Entwicklung, Durchführung und Auswertung eines Hochschulkurses für gymnasiale Lehramtsstudierende T1 - Learning how to axiomatise with paperfolding N2 - In dieser Arbeit wird mathematisches Papierfalten und speziell 1-fach-Origami im universitären Kontext untersucht. Die Arbeit besteht aus drei Teilen. Der erste Teil ist im Wesentlichen der Sachanalyse des 1-fach-Origami gewidmet. Im ersten Kapitel gehen wir auf die geschichtliche Einordnung des 1-fach-Origami, betrachten axiomatische Grundlagen und diskutieren, wie das Axiomatisieren von 1-fach-Origami zum Verständnis des Axiomenbegriffs beitragen könnte. Im zweiten Kapitel schildern wir das Design der zugehörigen explorativen Studie, beschreiben unsere Forschungsziele und -fragen. Im dritten Kapitel wird 1-fach-Origami mathematisiert, definiert und eingehend untersucht. Der zweite Teil beschäftigt sich mit den von uns gestalteten und durchgeführten Kursen »Axiomatisieren lernen mit Papierfalten«. Im vierten Kapitel beschreiben wir die Lehrmethodik und die Gestaltung der Kurse, das fünfte Kapitel enthält ein Exzerpt der Kurse. Im dritten Teil werden die zugehörigen Tests beschrieben. Im sechsten Kapitel erläutern wir das Design der Tests sowie die Testmethodik. Im siebten Kapitel findet die Auswertung ebendieser Tests statt. N2 - In this manuscript, mathematical paper folding and specifically 1-fold origami is studied in a university context. The thesis consists of three parts. The first part is mainly devoted to the factual analysis of 1-fold origami. In the first chapter, we elaborate on the historical development of 1-fold origami, consider axiomatic foundations, and discuss how axiomatizing 1-fold origami could contribute to the understanding of the concept of an axiom. In the second chapter, we describe the design of the related exploratory study, describe our research objectives and questions. In the third chapter, 1-fold origami is mathematized, defined, and explored in depth. The second part focuses on the courses with the title "Learning how to axiomatize through paperfolding" which we designed and conducted. In the fourth chapter we describe the teaching methodology and the design of the courses, and the fifth chapter contains an excerpt of the courses. In the third part we describe the associated tests. In the sixth chapter we explain the design of the tests as well as the testing methodology. In the seventh chapter, the evaluation of these tests is carried out. KW - Mathematikunterricht KW - Axiom KW - Falten KW - Hochschule+Lehre KW - Origami KW - Axiomatisieren KW - mathematisches Papierfalten KW - 1-fach-Origami KW - one-fold-origami KW - mathematical paperfolding Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-279383 ER - TY - THES A1 - Karl, Veronika T1 - Augmented Lagrangian Methods for State Constrained Optimal Control Problems T1 - Augmentierte Lagrange-Verfahren für zustandsbeschränkte Optimalsteuerungsprobleme N2 - This thesis is concerned with the solution of control and state constrained optimal control problems, which are governed by elliptic partial differential equations. Problems of this type are challenging since they suffer from the low regularity of the multiplier corresponding to the state constraint. Applying an augmented Lagrangian method we overcome these difficulties by working with multiplier approximations in $L^2(\Omega)$. For each problem class, we introduce the solution algorithm, carry out a thoroughly convergence analysis and illustrate our theoretical findings with numerical examples. The thesis is divided into two parts. The first part focuses on classical PDE constrained optimal control problems. We start by studying linear-quadratic objective functionals, which include the standard tracking type term and an additional regularization term as well as the case, where the regularization term is replaced by an $L^1(\Omega)$-norm term, which makes the problem ill-posed. We deepen our study of the augmented Lagrangian algorithm by examining the more complicated class of optimal control problems that are governed by a semilinear partial differential equation. The second part investigates the broader class of multi-player control problems. While the examination of jointly convex generalized Nash equilibrium problems (GNEP) is a simple extension of the linear elliptic optimal control case, the complexity is increased significantly for pure GNEPs. The existence of solutions of jointly convex GNEPs is well-studied. However, solution algorithms may suffer from non-uniqueness of solutions. Therefore, the last part of this thesis is devoted to the analysis of the uniqueness of normalized equilibria. N2 - Die vorliegende Arbeit beschäftigt sich mit der Lösung von kontroll- und zustandsbeschränkten Optimalsteuerungsproblemen mit elliptischen partiellen Differentialgleichungen als Nebenbedingungen. Da die zur Zustandsbeschränkung zugehörigen Multiplikatoren nur eine niedrige Regularität aufweisen, sind Probleme dieses Typs besonders anspruchsvoll. Zur Lösung dieser Problemklasse wird ein augmentiertes Lagrange-Verfahren angewandt, das Annäherungen der Multiplikatoren in $L^2(\Omega)$ verwendet. Für jede Problemklasse erfolgt eine Präsentation des Lösungsalgorithmus, eine sorgfältige Konvergenzanalysis sowie eine Veranschaulichung der theoretischen Ergebnisse durch numerische Beispiele. Die Arbeit ist in zwei verschiedene Themenbereiche gegliedert. Der erste Teil widmet sich klassischen Optimalsteuerungsproblemen. Dabei wird zuerst der linear-quadratische und somit konvexe Fall untersucht. Hier setzt sich das Kostenfunktional aus einem Tracking-Type Term sowie einem $L^2(\Omega)$-Regularisierungsterm oder einem $L^1(\Omega)$-Term zusammen. Wir erweitern unsere Analysis auf nichtkonvexe Probleme. In diesem Fall erschwert die Nichtlinearität der zugrundeliegenden partiellen Differentialgleichung die Konvergenzanalysis des zugehörigen Optimalsteuerungsproblems maßgeblich. Der zweite Teil der Arbeit nutzt die Grundlagen, die im ersten Teil erarbeitet wurden und untersucht die allgemeiner gehaltene Problemklasse der Nash-Mehrspielerprobleme. Während die Untersuchung von konvexen verallgemeinerten Nash-Gleichsgewichtsproblemen (engl.: Generalized Nash Equilibrium Problem, kurz: GNEP) mit einer für alle Spieler identischen Restriktion eine einfache Erweiterung von linear elliptischen Optimalsteuerungsproblemen darstellt, erhöht sich der Schwierigkeitsgrad für Mehrspielerprobleme ohne gemeinsame Restriktion drastisch. Die Eindeutigkeit von normalisierten Nash-Gleichgewichten ist, im Gegensatz zu deren Existenz, nicht ausreichend erforscht, was insbesondere eine Schwierigkeit für Lösungsalgorithmen darstellt. Aus diesem Grund wird im letzten Teil dieser Arbeit die Eindeutigkeit von Lösungen gesondert betrachtet. KW - Optimale Kontrolle KW - Optimierung KW - Nash-Gleichgewicht KW - optimal control KW - state constraints KW - augmented Lagrangian method KW - Elliptische Differentialgleichung KW - Optimale Steuerung Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-213846 ER - TY - THES A1 - Lauerbach, Laura T1 - Stochastic Homogenization in the Passage from Discrete to Continuous Systems - Fracture in Composite Materials T1 - Stochastische Homogenisierung im Übergang von Diskreten zu Kontinuierlichen Systemen - Brüche in Verbundwerkstoffen N2 - The work in this thesis contains three main topics. These are the passage from discrete to continuous models by means of $\Gamma$-convergence, random as well as periodic homogenization and fracture enabled by non-convex Lennard-Jones type interaction potentials. Each of them is discussed in the following. We consider a discrete model given by a one-dimensional chain of particles with randomly distributed interaction potentials. Our interest lies in the continuum limit, which yields the effective behaviour of the system. This limit is achieved as the number of atoms tends to infinity, which corresponds to a vanishing distance between the particles. The starting point of our analysis is an energy functional in a discrete system; its continuum limit is obtained by variational $\Gamma$-convergence. The $\Gamma$-convergence methods are combined with a homogenization process in the framework of ergodic theory, which allows to focus on heterogeneous systems. On the one hand, composite materials or materials with impurities are modelled by a stochastic or periodic distribution of particles or interaction potentials. On the other hand, systems of one species of particles can be considered as random in cases when the orientation of particles matters. Nanomaterials, like chains of atoms, molecules or polymers, are an application of the heterogeneous chains in experimental sciences. A special interest is in fracture in such heterogeneous systems. We consider interaction potentials of Lennard-Jones type. The non-standard growth conditions and the convex-concave structure of the Lennard-Jones type interactions yield mathematical difficulties, but allow for fracture. The interaction potentials are long-range in the sense that their modulus decays slower than exponential. Further, we allow for interactions beyond nearest neighbours, which is also referred to as long-range. The main mathematical issue is to bring together the Lennard-Jones type interactions with ergodic theorems in the limiting process as the number of particles tends to infinity. The blow up at zero of the potentials prevents from using standard extensions of the Akcoglu-Krengel subadditive ergodic theorem. We overcome this difficulty by an approximation of the interaction potentials which shows suitable Lipschitz and Hölder regularity. Beyond that, allowing for continuous probability distributions instead of only finitely many different potentials leads to a further challenge. The limiting integral functional of the energy by means of $\Gamma$-convergence involves a homogenized energy density and allows for fracture, but without a fracture contribution in the energy. In order to refine this result, we rescale our model and consider its $\Gamma$-limit, which is of Griffith's type consisting of an elastic part and a jump contribution. In a further approach we study fracture at the level of the discrete energies. With an appropriate definition of fracture in the discrete setting, we define a fracture threshold separating the region of elasticity from that of fracture and consider the pointwise convergence of this threshold. This limit turns out to coincide with the one obtained in the variational $\Gamma$-convergence approach. N2 - Diese Arbeit vereinigt im Wesentlichen drei Themen: Den Übergang von diskreten zu kontinuierlichen Modellen mittels $\Gamma$-Konvergenz, stochastische sowie periodische Homogenisierung, sowie Bruchmechanik, die durch nicht-konvexe Wechselwirkungspotentiale vom Lennard-Jones-Typ ermöglicht wird. Jedes dieser drei Themen wird im Folgenden diskutiert. Wir betrachten ein diskretes Modell, bestehend aus einer eindimensionale Kette von Teilchen mit zufällig verteilten Wechselwirkungspotentialen. Wir sind am Kontinuumsgrenzwert interessiert, welcher das effektive Verhalten des Systems widerspiegelt. In diesem Grenzwert läuft die Anzahl der Atome gegen unendlich, was einem verschwindenden Abstand zwischen den Teilchen entspricht. Ausgehend von einer Energie eines diskreten Systems erhalten wir den Kontinuumsgrenzwert durch die variationelle Methode der $\Gamma$-Konvergenz, welche den Übergang zum kontinuierlichen System liefert. Die $\Gamma$-Konvergenzmethoden werden im Rahmen der Ergodentheorie mit einem Homogenisierungsprozess kombiniert, wodurch die Betrachtung heterogener Systeme möglich wird. Einerseits werden Verbundwerkstoffe oder Materialien mit Verunreinigungen durch eine stochastische oder periodische Verteilung der Teilchen oder der Wechselwirkungspotentiale modelliert. Andererseits können Systeme einer Teilchenart als zufällig angesehen werden, wenn die Orientierung der Teilchen von Bedeutung ist. Nanomaterialien wie Ketten von Atomen, Molekülen oder Polymeren bieten eine Anwendung des Modells der heterogenen Ketten in den experimentellen Wissenschaften. Von besonderem Interesse ist das Auftreten von Brüchen in diesen heterogenen Systemen. Wir betrachten Wechselwirkungspotentiale vom Lennard-Jones Typ. Die nicht-standardisierten Wachstumsbedingungen und die konvex-konkave Struktur der Lennard-Jones Potentiale werfen mathematische Schwierigkeiten auf, ermöglichen jedoch das Auftreten von Brüchen. Die Wechselwirkungen gelten als langreichweitig in dem Sinne, dass ihr Betrag langsamer als exponentiell abfällt. Darüber hinaus betrachten wir Wechselwirkungen jenseits der nächsten Nachbarn, was ebenfalls als langreichweitig bezeichnet wird. Eine der größten mathematischen Schwierigkeiten besteht darin, die Wechselwirkungen vom Lennard-Jones Typ mit den Ergodensätzen zusammenzuführen. Die Singularität der Potentiale bei Null erlaubt keine Verwendung der Standardtechniken zur Erweiterung des subadditiven Ergodensatzes von Akcoglu-Krengel. Die Lösung dieses Problems ist eine Approximation der Wechselwirkungspotentiale, welche eine geeignete Lipschitz- und Hölder-Regularität besitzt. Darüber hinaus stellt die Verwendung von kontinuierlichen Wahrscheinlichkeitsverteilungen, anstelle von nur endlich vielen verschiedenen Potentialen, eine weitere Herausforderung dar. Das Integralfunktional im Grenzwert besteht aus einer homogenisierten Energiedichte und ermöglicht Brüche, jedoch ohne einen Beitrag dieser Brüche zur Energie. Um dieses Ergebnis zu verfeinern, skalieren wir unser Modell neu und betrachten dessen $\Gamma$-Grenzwert, der in Form einer Energie vom Griffith-Typ gegeben ist und aus einem elastischen Teil und einem Sprungbeitrag besteht. In einem weiteren Ansatz untersuchen wir Brüche auf Ebene der diskreten Energien. Mit einer geeigneten Definition des Bruchpunktes im diskreten System definieren wir eine Bruchschwelle, die den Elastizitätsbereich von dem Gebiet mit Brüchen trennt. Von diesem Schwellwert berechnen wir anschließend den punktweisen Grenzwert. Es stellt sich heraus, dass dieser Grenzwert mit dem durch die variationelle $\Gamma$-Konvergenz errechneten übereinstimmt. KW - Homogenisierung KW - Gamma-Konvergenz KW - Variationsrechnung KW - Lennard-Jones-Potenzial KW - Calculus of Variations KW - Brittle fracture KW - Periodic homogenization KW - Discrete to continuum KW - Stochastic homogenization Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-214534 ER - TY - JOUR A1 - del Alamo, Miguel A1 - Li, Housen A1 - Munk, Axel A1 - Werner, Frank T1 - Variational Multiscale Nonparametric Regression: Algorithms and Implementation JF - Algorithms N2 - Many modern statistically efficient methods come with tremendous computational challenges, often leading to large-scale optimisation problems. In this work, we examine such computational issues for recently developed estimation methods in nonparametric regression with a specific view on image denoising. We consider in particular certain variational multiscale estimators which are statistically optimal in minimax sense, yet computationally intensive. Such an estimator is computed as the minimiser of a smoothness functional (e.g., TV norm) over the class of all estimators such that none of its coefficients with respect to a given multiscale dictionary is statistically significant. The so obtained multiscale Nemirowski-Dantzig estimator (MIND) can incorporate any convex smoothness functional and combine it with a proper dictionary including wavelets, curvelets and shearlets. The computation of MIND in general requires to solve a high-dimensional constrained convex optimisation problem with a specific structure of the constraints induced by the statistical multiscale testing criterion. To solve this explicitly, we discuss three different algorithmic approaches: the Chambolle-Pock, ADMM and semismooth Newton algorithms. Algorithmic details and an explicit implementation is presented and the solutions are then compared numerically in a simulation study and on various test images. We thereby recommend the Chambolle-Pock algorithm in most cases for its fast convergence. We stress that our analysis can also be transferred to signal recovery and other denoising problems to recover more general objects whenever it is possible to borrow statistical strength from data patches of similar object structure. KW - non-smooth large-scale optimisation KW - image denoising KW - variational estimation KW - multiscale methods KW - MIND estimator Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-219332 SN - 1999-4893 VL - 13 IS - 11 ER - TY - THES A1 - Börgens, Eike Alexander Lars Guido T1 - ADMM-Type Methods for Optimization and Generalized Nash Equilibrium Problems in Hilbert Spaces T1 - ADMM-Methoden für Optimierungs- und Verallgemeinerte Nash-Gleichgewichtsprobleme in Hilberträumen N2 - This thesis is concerned with a certain class of algorithms for the solution of constrained optimization problems and generalized Nash equilibrium problems in Hilbert spaces. This class of algorithms is inspired by the alternating direction method of multipliers (ADMM) and eliminates the constraints using an augmented Lagrangian approach. The alternating direction method consists of splitting the augmented Lagrangian subproblem into smaller and more easily manageable parts. Before the algorithms are discussed, a substantial amount of background material, including the theory of Banach and Hilbert spaces, fixed-point iterations as well as convex and monotone set-valued analysis, is presented. Thereafter, certain optimization problems and generalized Nash equilibrium problems are reformulated and analyzed using variational inequalities and set-valued mappings. The analysis of the algorithms developed in the course of this thesis is rooted in these reformulations as variational inequalities and set-valued mappings. The first algorithms discussed and analyzed are one weakly and one strongly convergent ADMM-type algorithm for convex, linearly constrained optimization. By equipping the associated Hilbert space with the correct weighted scalar product, the analysis of these two methods is accomplished using the proximal point method and the Halpern method. The rest of the thesis is concerned with the development and analysis of ADMM-type algorithms for generalized Nash equilibrium problems that jointly share a linear equality constraint. The first class of these algorithms is completely parallelizable and uses a forward-backward idea for the analysis, whereas the second class of algorithms can be interpreted as a direct extension of the classical ADMM-method to generalized Nash equilibrium problems. At the end of this thesis, the numerical behavior of the discussed algorithms is demonstrated on a collection of examples. N2 - Die vorliegende Arbeit behandelt eine Klasse von Algorithmen zur Lösung restringierter Optimierungsprobleme und verallgemeinerter Nash-Gleichgewichtsprobleme in Hilberträumen. Diese Klasse von Algorithmen ist angelehnt an die Alternating Direction Method of Multipliers (ADMM) und eliminiert die Nebenbedingungen durch einen Augmented-Lagrangian-Ansatz. Im Rahmen dessen wird in der Alternating Direction Method of Multipliers das jeweilige Augmented-Lagrangian-Teilproblem in kleinere Teilprobleme aufgespaltet. Zur Vorbereitung wird eine Vielzahl grundlegender Resultate präsentiert. Dies beinhaltet entsprechende Ergebnisse aus der Literatur zu der Theorie von Banach- und Hilberträumen, Fixpunktmethoden sowie konvexer und monotoner mengenwertiger Analysis. Im Anschluss werden gewisse Optimierungsprobleme sowie verallgemeinerte Nash-Gleichgewichtsprobleme als Variationsungleichungen und Inklusionen mit mengenwertigen Operatoren formuliert und analysiert. Die Analysis der im Rahmen dieser Arbeit entwickelten Algorithmen bezieht sich auf diese Reformulierungen als Variationsungleichungen und Inklusionsprobleme. Zuerst werden ein schwach und ein stark konvergenter paralleler ADMM-Algorithmus zur Lösung von separablen Optimierungsaufgaben mit linearen Gleichheitsnebenbedingungen präsentiert und analysiert. Durch die Ausstattung des zugehörigen Hilbertraums mit dem richtigen gewichteten Skalarprodukt gelingt die Analyse dieser beiden Methoden mit Hilfe der Proximalpunktmethode und der Halpern-Methode. Der Rest der Arbeit beschäftigt sich mit Algorithmen für verallgemeinerte Nash-Gleichgewichtsprobleme, die gemeinsame lineare Gleichheitsnebenbedingungen besitzen. Die erste Klasse von Algorithmen ist vollständig parallelisierbar und es wird ein Forward-Backward-Ansatz für die Analyse genutzt. Die zweite Klasse von Algorithmen kann hingegen als direkte Erweiterung des klassischen ADMM-Verfahrens auf verallgemeinerte Nash-Gleichgewichtsprobleme aufgefasst werden. Abschließend wird das Konvergenzverhalten der entwickelten Algorithmen an einer Sammlung von Beispielen demonstriert. KW - Constrained optimization KW - Nash-Gleichgewicht KW - ADMM KW - Generalized Nash Equilibrium Problem KW - Verallgemeinertes Nash-Gleichgewichtsproblem KW - Hilbert-Raum KW - Optimierung Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-218777 ER - TY - THES A1 - Kann, Lennart T1 - Statistical Failure Prediction with an Account for Prior Information T1 - Statistische Vorhersage von Ausfällen unter Berücksichtigung von Vorinformationen N2 - Prediction intervals are needed in many industrial applications. Frequently in mass production, small subgroups of unknown size with a lifetime behavior differing from the remainder of the population exist. A risk assessment for such a subgroup consists of two steps: i) the estimation of the subgroup size, and ii) the estimation of the lifetime behavior of this subgroup. This thesis covers both steps. An efficient practical method to estimate the size of a subgroup is presented and benchmarked against other methods. A prediction interval procedure which includes prior information in form of a Beta distribution is provided. This scheme is applied to the prediction of binomial and negative binomial counts. The effect of the population size on the prediction of the future number of failures is considered for a Weibull lifetime distribution, whose parameters are estimated from censored field data. Methods to obtain a prediction interval for the future number of failures with unknown sample size are presented. In many applications, failures are reported with a delay. The effects of such a reporting delay on the coverage properties of prediction intervals for the future number of failures are studied. The total failure probability of the two steps can be decomposed as a product probability. One-sided confidence intervals for such a product probability are presented. N2 - Vorhersageintervalle werden in vielen industriellen Anwendungen benötigt. In Massenproduktionen entstehen regelmäßig kleine Untergruppen von unbekannter Größer, welche ein anderes Lebensdauerverhalten als die übrige Population besitzen. Eine Risikoeinschätzung für eine solche Untergruppe besteht aus zwei Schritten: i) der Schätzung der Größe dieser Untergruppe und ii) der Schätzung des Lebensdauerverhaltens dieser Untergruppe. Diese Arbeit behandelt diese beiden Schritte. Eine effiziente Methode zur Schätzung der Größe der Untergruppe wird vorgestellt und mit anderen Methoden verglichen. Vorhersageintervalle unter Vorinformation in Form einer Betaverteilung werden dargelegt. Das Schema wird für die Vorhersage binomialer und negativ binomialer Zufallsvariablen angewandt. Der Effekt der Populationsgröße auf die Vorhersage der Anzahl von zukünftigen Ausfällen wird für eine Weibull Verteilung betrachtet, deren Parameter auf Basis von zensierten Felddaten geschätzt werden. Methoden um Vorhersageintervalle bei unbekannter Populationsgröße zu bestimmen werden dargelegt. In vielen Anwendungen werden Ausfälle mit einem Verzug gemeldet. Die Effekte eines solchen Meldeverzugs auf die Überdeckungseigenschaften von Vorhersageintervallen für die Anzahl an zukünftigen Ausfällen werden untersucht. Die Gesamtausfallwahrscheinlichkeit aus den zwei Schritten kann in eine Produktwahrscheinlichkeit zerlegt werden. Einseitige Konfidenzintervalle für eine solche Produktwahrscheinlichkeit werden dargelegt. KW - Konfidenzintervall KW - Statistik KW - Weibull-Verteilung KW - Vorhersagbarkeit KW - A-priori-Wissen KW - Prediction interval KW - Confidence interval KW - Prior information KW - Weibull distribution KW - Mathematik KW - Binomialverteilung Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-205049 ER - TY - GEN A1 - Breitenbach, Tim T1 - Codes of examples for SQH method N2 - Code examples for the paper "On the SQH Scheme to Solve Nonsmooth PDE Optimal Control Problems" by Tim Breitenbach and Alfio Borzì published in the journal "Numerical Functional Analysis and Optimization", in 2019, DOI: 10.1080/01630563.2019.1599911 KW - Code examples KW - SQH method Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-167587 ER - TY - THES A1 - Meyer, Michael T1 - Practical isogeny-based cryptography T1 - Praktische Isogenie-basierte Kryptographie N2 - This thesis aims at providing efficient and side-channel protected implementations of isogeny-based primitives, and at their application in threshold protocols. It is based on a sequence of academic papers. Chapter 3 reviews the original variable-time implementation of CSIDH and introduces several optimizations, e.g. a significant improvement of isogeny computations by using both Montgomery and Edwards curves. In total, our improvements yield a speedup of 25% compared to the original implementation. Chapter 4 presents the first practical constant-time implementation of CSIDH. We describe how variable-time implementations of CSIDH leak information on private keys, and describe ways to mitigate this. Further, we present several techniques to speed up the implementation. In total, our constant-time implementation achieves a rather small slowdown by a factor of 3.03. Chapter 5 reviews practical fault injection attacks on CSIDH and presents countermeasures. We evaluate different attack models theoretically and practically, using low-budget equipment. Moreover, we present countermeasures that mitigate the proposed fault injection attacks, only leading to a small performance overhead of 7%. Chapter 6 initiates the study of threshold schemes based on the Hard Homogeneous Spaces (HHS) framework of Couveignes. Using the HHS equivalent of Shamir’s secret sharing in the exponents, we adapt isogeny based schemes to the threshold setting. In particular, we present threshold versions of the CSIDH public key encryption and the CSI-FiSh signature scheme. Chapter 7 gives a sieving algorithm for finding pairs of consecutive smooth numbers that utilizes solutions to the Prouhet-Tarry-Escott (PTE) problem. Recent compact isogeny-based protocols, namely B-SIDH and SQISign, both require large primes that lie between two smooth integers. Finding such a prime can be seen as a special case of finding twin smooth integers under the additional stipulation that their sum is a prime. N2 - Die vorliegende Dissertation stellt effiziente und Seitenkanal-geschützte Implementierungen Isogenie-basierter Verfahren bereit, und behandelt deren Verwendung in Threshold-Protokollen. Sie basiert auf einer Reihe von Veröffentlichungen. Kapitel 3 untersucht die originale variable-time Implementierung von CSIDH und beschreibt einige Optimierungen, wie etwa die effizientere Berechnung von Isogenien durch die Verwendung von Montgomery- und Edwards-Kurven. Insgesamt erreichen die Optimierungen eine Beschleuningung von 25% gegenüber der Referenzimplementierung. Kapitel 4 enthält die erste effiziente constant-time Implementierung von CSIDH. Es beschreibt inwiefern variable-time Implementierungen Informationen über private Schlüssel liefern, und entsprechende Gegenmaßnahmen. Des Weiteren werden einige Techniken zur Optimierung der Implementierung beschrieben. Insgesamt ist die constant-time Implementierung nur etwa 3x langsamer. Kapitel 5 untersucht praktische Fault-injection Attacken auf CSIDH und beschreibt Gegenmaßnahmen. Es betrachtet verschiedene Angriffsmodelle theoretisch und praktisch unter der Verwendung von low-budget Equipment. Die Gegenmaßnahmen führen zu einer sehr kleinen Performance-Verschlechterung von 7%. Kapitel 6 initiiert die Untersuchung von Threshold-Verfahren basierend auf Hard Homogeneous Spaces (HHS). Unter Verwendung der HHS-Version von Shamir Secret Sharing im Exponenten, werden Threshold-Varianten der CSIDH Verschlüsselung und des CSI-FiSh Signaturschemas definiert. Kapitel 7 enthält einen Sieb-Algorithmus zur Suche nach Paaren von aufeinanderfolgenden glatten Zahlen, unter Verwendung von Lösungen des Prouhet-Tarry-Escott-Problems. Die kürzlich veröffentlichten Isogenie-Verfahren B-SIDH und SQISign benötigen große Primzahlen, die zwischen zwei glatten ganzen Zahlen liegen. Die Suche nach solchen Primzahlen ist ein Spezialfall der Suche nach glatten benachbarten Zahlen, unter der zusätzlichen Bedingung dass deren Summe prim ist. KW - Kryptologie KW - Post-Quantum-Kryptografie KW - isogeny-based cryptography KW - CSIDH KW - elliptic curves KW - Elliptische Kurve Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-246821 ER - TY - THES A1 - Calà Campana, Francesca T1 - Numerical methods for solving open-loop non zero-sum differential Nash games T1 - Numerische Methoden zur Lösung von Open-Loop-Nicht-Nullsummen-Differential-Nash-Spielen N2 - This thesis is devoted to a theoretical and numerical investigation of methods to solve open-loop non zero-sum differential Nash games. These problems arise in many applications, e.g., biology, economics, physics, where competition between different agents appears. In this case, the goal of each agent is in contrast with those of the others, and a competition game can be interpreted as a coupled optimization problem for which, in general, an optimal solution does not exist. In fact, an optimal strategy for one player may be unsatisfactory for the others. For this reason, a solution of a game is sought as an equilibrium and among the solutions concepts proposed in the literature, that of Nash equilibrium (NE) is the focus of this thesis. The building blocks of the resulting differential Nash games are a dynamical model with different control functions associated with different players that pursue non-cooperative objectives. In particular, the aim of this thesis is on differential models having linear or bilinear state-strategy structures. In this framework, in the first chapter, some well-known results are recalled, especially for non-cooperative linear-quadratic differential Nash games. Then, a bilinear Nash game is formulated and analysed. The main achievement in this chapter is Theorem 1.4.2 concerning existence of Nash equilibria for non-cooperative differential bilinear games. This result is obtained assuming a sufficiently small time horizon T, and an estimate of T is provided in Lemma 1.4.8 using specific properties of the regularized Nikaido-Isoda function. In Chapter 2, in order to solve a bilinear Nash game, a semi-smooth Newton (SSN) scheme combined with a relaxation method is investigated, where the choice of a SSN scheme is motivated by the presence of constraints on the players’ actions that make the problem non-smooth. The resulting method is proved to be locally convergent in Theorem 2.1, and an estimate on the relaxation parameter is also obtained that relates the relaxation factor to the time horizon of a Nash equilibrium and to the other parameters of the game. For the bilinear Nash game, a Nash bargaining problem is also introduced and discussed, aiming at determining an improvement of all players’ objectives with respect to the Nash equilibrium. A characterization of a bargaining solution is given in Theorem 2.2.1 and a numerical scheme based on this result is presented that allows to compute this solution on the Pareto frontier. Results of numerical experiments based on a quantum model of two spin-particles and on a population dynamics model with two competing species are presented that successfully validate the proposed algorithms. In Chapter 3 a functional formulation of the classical homicidal chauffeur (HC) Nash game is introduced and a new numerical framework for its solution in a time-optimal formulation is discussed. This methodology combines a Hamiltonian based scheme, with proximal penalty to determine the time horizon where the game takes place, with a Lagrangian optimal control approach and relaxation to solve the Nash game at a fixed end-time. The resulting numerical optimization scheme has a bilevel structure, which aims at decoupling the computation of the end-time from the solution of the pursuit-evader game. Several numerical experiments are performed to show the ability of the proposed algorithm to solve the HC game. Focusing on the case where a collision may occur, the time for this event is determined. The last part of this thesis deals with the analysis of a novel sequential quadratic Hamiltonian (SQH) scheme for solving open-loop differential Nash games. This method is formulated in the framework of Pontryagin’s maximum principle and represents an efficient and robust extension of the successive approximations strategy in the realm of Nash games. In the SQH method, the Hamilton-Pontryagin functions are augmented by a quadratic penalty term and the Nikaido-Isoda function is used as a selection criterion. Based on this fact, the key idea of this SQH scheme is that the PMP characterization of Nash games leads to a finite-dimensional Nash game for any fixed time. A class of problems for which this finite-dimensional game admits a unique solution is identified and for this class of games theoretical results are presented that prove the well-posedness of the proposed scheme. In particular, Proposition 4.2.1 is proved to show that the selection criterion on the Nikaido-Isoda function is fulfilled. A comparison of the computational performances of the SQH scheme and the SSN-relaxation method previously discussed is shown. Applications to linear-quadratic Nash games and variants with control constraints, weighted L1 costs of the players’ actions and tracking objectives are presented that corroborate the theoretical statements. N2 - Diese Dissertation handelt von eine theoretischen und numerischen Untersuchung von Methoden zur Lösung von Open-Loop-Nicht-Nullsummen-Differential-Nash-Spielen. Diese Probleme treten in vielen Anwendungen auf, z.B., Biologie, Wirtschaft, Physik, in denen die Konkurrenz zwischen verschiedenen Wirkstoffen bzw. Agenten auftritt. In diesem Fall steht das Ziel jedes Agenten im Gegensatz zu dem der anderen und ein Wettbewerbsspiel kann als gekoppeltes Optimierungsproblem interpretiert werden. Im Allgemeinen gibt es keine optimale Lösung für ein solches Spiel. Tatsächlich kann eine optimale Strategie für einen Spieler für den anderen unbefriedigend sein. Aus diesem Grund wird ein Gle- ichgewicht eines Spiels als Lösung gesucht, und unter den in der Literatur vorgeschlagenen Lösungskonzepten steht das Nash-Gleichgewicht (NE) im Mittelpunkt dieser Arbeit. ... KW - Differential Games KW - Bilinear differential games KW - Homicidal Chauffeur game KW - Sequential Quadratic Hamiltonian scheme KW - Pontryagin maximum principle KW - Relaxation method Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-245900 ER - TY - JOUR A1 - Breitenbach, Tim A1 - Borzì, Alfio T1 - The Pontryagin maximum principle for solving Fokker–Planck optimal control problems JF - Computational Optimization and Applications N2 - The characterization and numerical solution of two non-smooth optimal control problems governed by a Fokker–Planck (FP) equation are investigated in the framework of the Pontryagin maximum principle (PMP). The two FP control problems are related to the problem of determining open- and closed-loop controls for a stochastic process whose probability density function is modelled by the FP equation. In both cases, existence and PMP characterisation of optimal controls are proved, and PMP-based numerical optimization schemes are implemented that solve the PMP optimality conditions to determine the controls sought. Results of experiments are presented that successfully validate the proposed computational framework and allow to compare the two control strategies. KW - Fokker–Planck equation KW - Pontryagin maximum principle KW - non-smooth optimal control problems KW - stochastic processes Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-232665 SN - 0926-6003 VL - 76 ER - TY - THES A1 - Raharja, Andreas Budi T1 - Optimisation Problems with Sparsity Terms: Theory and Algorithms T1 - Optimierungsprobleme mit Dünnbesetzten Termen: Theorie und Algorithmen N2 - The present thesis deals with optimisation problems with sparsity terms, either in the constraints which lead to cardinality-constrained problems or in the objective function which in turn lead to sparse optimisation problems. One of the primary aims of this work is to extend the so-called sequential optimality conditions to these two classes of problems. In recent years sequential optimality conditions have become increasingly popular in the realm of standard nonlinear programming. In contrast to the more well-known Karush-Kuhn-Tucker condition, they are genuine optimality conditions in the sense that every local minimiser satisfies these conditions without any further assumption. Lately they have also been extended to mathematical programmes with complementarity constraints. At around the same time it was also shown that optimisation problems with sparsity terms can be reformulated into problems which possess similar structures to mathematical programmes with complementarity constraints. These recent developments have become the impetus of the present work. But rather than working with the aforementioned reformulations which involve an artifical variable we shall first directly look at the problems themselves and derive sequential optimality conditions which are independent of any artificial variable. Afterwards we shall derive the weakest constraint qualifications associated with these conditions which relate them to the Karush-Kuhn-Tucker-type conditions. Another equally important aim of this work is to then consider the practicability of the derived sequential optimality conditions. The previously mentioned reformulations open up the possibilities to adapt methods which have been proven successful to handle mathematical programmes with complementarity constraints. We will show that the safeguarded augmented Lagrangian method and some regularisation methods may generate a point satisfying the derived conditions. N2 - Die vorliegende Arbeit beschäftigt sich mit Optimierungsproblemen mit dünnbesetzten Termen, und zwar entweder in der Restriktionsmenge, was zu kardinalitätsrestringierten Problemen führen, oder in der Zielfunktion, was zu Optimierungsproblemen mit dünnbesetzten Lösungen führen. Die Herleitung der sogenannten sequentiellen Optimalitätsbedingungen für diese Problemklassen ist eines der Hauptziele dieser Arbeit. Im Bereich der nichtlinearen Optimierung gibt es in jüngster Zeit immer mehr Interesse an diesen Bedingungen. Im Gegensatz zu der mehr bekannten Karush-Kuhn-Tucker Bedingung sind diese Bedingungen echte Optimalitätsbedingungen. Sie sind also in jedem lokalen Minimum ohne weitere Voraussetzung erfüllt. Vor Kurzem wurden solche Bedingungen auch für mathematische Programme mit Komplementaritätsbedingungen hergeleitet. Zum gleichen Zeitpunkt wurde es auch gezeigt, dass Optimierungsproblemen mit dünnbesetzten Termen sich als Problemen, die ähnliche Strukturen wie mathematische Programme mit Komplementaritätsbedingungen besitzen, umformulieren lassen. Diese jüngsten Entwicklungen motivieren die vorliegende Arbeit. Hier werden wir zunächst die ursprunglichen Problemen direkt betrachten anstatt mit den Umformulierungen, die eine künstliche Variable enthalten, zu arbeiten. Dies ermöglicht uns, um Optimalitätsbedingungen, die von künstlichen Variablen unabhängig sind, zu gewinnen. Danach werden wir die entsprechenden schwächsten Constraint Qualifikationen, die diese Bedingungen mit Karush-Kuhn-Tucker-ähnlichen Bedingungen verknüpfen, herleiten. Als ein weiteres Hauptziel der Arbeit werden wir dann untersuchen, ob die gerade hergeleiteten Bedingungen eine praktische Bedeutung haben. Die vor Kurzem eingeführten Umformulierungen bieten die Möglichkeiten, um die für mathematische Programme mit Komplementaritätsbedingungen gut funktionierenden Methoden hier auch anzuwenden. Wir werden zeigen, dass das safeguarded augmented Lagrangian Method und einige Regularisierungsmethoden theoretisch in der Lage sind, um einen Punkt, der den hergeleiteten Bedingungen genügt, zu generieren. KW - Optimierungsproblem KW - Regularisierungsverfahren KW - Cardinality Constraints KW - Augmented Lagrangian KW - Regularisation Methods Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-241955 ER - TY - JOUR A1 - Homburg, Annika A1 - Weiß, Christian H. A1 - Frahm, Gabriel A1 - Alwan, Layth C. A1 - Göb, Rainer T1 - Analysis and forecasting of risk in count processes JF - Journal of Risk and Financial Management N2 - Risk measures are commonly used to prepare for a prospective occurrence of an adverse event. If we are concerned with discrete risk phenomena such as counts of natural disasters, counts of infections by a serious disease, or counts of certain economic events, then the required risk forecasts are to be computed for an underlying count process. In practice, however, the discrete nature of count data is sometimes ignored and risk forecasts are calculated based on Gaussian time series models. But even if methods from count time series analysis are used in an adequate manner, the performance of risk forecasting is affected by estimation uncertainty as well as certain discreteness phenomena. To get a thorough overview of the aforementioned issues in risk forecasting of count processes, a comprehensive simulation study was done considering a broad variety of risk measures and count time series models. It becomes clear that Gaussian approximate risk forecasts substantially distort risk assessment and, thus, should be avoided. In order to account for the apparent estimation uncertainty in risk forecasting, we use bootstrap approaches for count time series. The relevance and the application of the proposed approaches are illustrated by real data examples about counts of storm surges and counts of financial transactions. KW - count time series KW - expected shortfall KW - expectiles KW - Gaussian approximation KW - mid quantiles KW - tail conditional expectation KW - value at risk Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-236692 SN - 1911-8074 VL - 14 IS - 4 ER - TY - JOUR A1 - Pirner, Marlies T1 - A review on BGK models for gas mixtures of mono and polyatomic molecules JF - Fluids N2 - We consider the Bathnagar–Gross–Krook (BGK) model, an approximation of the Boltzmann equation, describing the time evolution of a single momoatomic rarefied gas and satisfying the same two main properties (conservation properties and entropy inequality). However, in practical applications, one often has to deal with two additional physical issues. First, a gas often does not consist of only one species, but it consists of a mixture of different species. Second, the particles can store energy not only in translational degrees of freedom but also in internal degrees of freedom such as rotations or vibrations (polyatomic molecules). Therefore, here, we will present recent BGK models for gas mixtures for mono- and polyatomic particles and the existing mathematical theory for these models. KW - multi-fluid mixture KW - kinetic model KW - BGK approximation KW - degrees of freedom in internal energy KW - existence of solutions KW - large-time behaviour Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-250161 SN - 2311-5521 VL - 6 IS - 11 ER - TY - JOUR A1 - Steuding, Jörn A1 - Suriajaya, Ade Irma T1 - Value-Distribution of the Riemann Zeta-Function Along Its Julia Lines JF - Computational Methods and Function Theory N2 - For an arbitrary complex number a≠0 we consider the distribution of values of the Riemann zeta-function ζ at the a-points of the function Δ which appears in the functional equation ζ(s)=Δ(s)ζ(1−s). These a-points δa are clustered around the critical line 1/2+i\(\mathbb {R}\) which happens to be a Julia line for the essential singularity of ζ at infinity. We observe a remarkable average behaviour for the sequence of values ζ(δ\(_a\)). KW - Riemann zeta-function KW - value-distribution KW - critical line KW - Julia line Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-232621 SN - 1617-9447 VL - 20 ER - TY - THES A1 - Biersack, Florian T1 - Topological Properties of Quasiconformal Automorphism Groups T1 - Topologische Eigenschaften quasikonformer Automorphismengruppen N2 - The goal of this thesis is to study the topological and algebraic properties of the quasiconformal automorphism groups of simply and multiply connected domains in the complex plain, in which the quasiconformal automorphism groups are endowed with the supremum metric on the underlying domain. More precisely, questions concerning central topological properties such as (local) compactness, (path)-connectedness and separability and their dependence on the boundary of the corresponding domains are studied, as well as completeness with respect to the supremum metric. Moreover, special subsets of the quasiconformal automorphism group of the unit disk are investigated, and concrete quasiconformal automorphisms are constructed. Finally, a possible application of quasiconformal unit disk automorphisms to symmetric cryptography is presented, in which a quasiconformal cryptosystem is defined and studied. N2 - Das Ziel dieser Arbeit ist es, die topologischen und algebraischen Eigenschaften der quasikonformen Automorphismengruppen von einfach und mehrfach zusammenhängenden Gebieten in der komplexen Zahlenebene zu untersuchen, in denen die quasikonformen Automorphismengruppen mit der Supremum-Metrik auf dem zugrunde liegenden Gebiet versehen sind. Die Arbeit befasst sich mit Fragen zu zentralen topologischen Eigenschaften wie (lokaler) Kompaktheit, (Weg-)Zusammenhang und Separabilität sowie deren Abhängigkeit der Ränder der entsprechenden Gebiete, sowie mit der Vollständigkeit bezüglich der betrachteten Supremums-Metrik. Darüber hinaus werden spezielle Teilmengen der quasikonformen Automorphismengruppe des Einheitskreises untersucht und konkrete quasikonforme Automorphismen konstruiert. Schließlich wird eine mögliche Anwendung von quasikonformen Einheitskreis-Automorphismen auf symmetrische Kryptographie vorgestellt, bei der ein quasikonformes Kryptosystem definiert und untersucht wird. KW - Quasikonforme Abbildung KW - Automorphismengruppe KW - Quasiconformal automorphism KW - Uniform topology Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-359177 ER - TY - THES A1 - Bossert, Patrick T1 - Statistical structure and inference methods for discrete high-frequency observations of SPDEs in one and multiple space dimensions T1 - Statistische Struktur und Inferenzmethoden für diskrete hochfrequente Beobachtungen von SPDEs in einer und mehreren Raumdimensionen N2 - The focus of this thesis is on analysing a linear stochastic partial differential equation (SPDE) with a bounded domain. The first part of the thesis commences with an examination of a one-dimensional SPDE. In this context, we construct estimators for the parameters of a parabolic SPDE based on discrete observations of a solution in time and space on a bounded domain. We establish central limit theorems for a high-frequency asymptotic regime, showing substantially smaller asymptotic variances compared to existing estimation methods. Moreover, asymptotic confidence intervals are directly feasible. Our approach builds upon realized volatilities and their asymptotic illustration as the response of a log-linear model with a spatial explanatory variable. This yields efficient estimators based on realized volatilities with optimal rates of convergence and minimal variances. We demonstrate our results by Monte Carlo simulations. Extending this framework, we analyse a second-order SPDE model in multiple space dimensions in the second part of this thesis and develop estimators for the parameters of this model based on discrete observations in time and space on a bounded domain. While parameter estimation for one and two spatial dimensions was established in recent literature, this is the first work that generalizes the theory to a general, multi-dimensional framework. Our methodology enables the construction of an oracle estimator for volatility within the underlying model. For proving central limit theorems, we use a high-frequency observation scheme. To showcase our results, we conduct a Monte Carlo simulation, highlighting the advantages of our novel approach in a multi-dimensional context. N2 - Der Fokus dieser Dissertation liegt auf der Analyse von linearen stochastischen partiellen Differentialgleichungen (SPDEs) auf einem beschränkten Raum. Der erste Teil der Arbeit befasst sich mit der Untersuchung einer eindimensionalen SPDE. In diesem Zusammenhang konstruieren wir Schätzer für die Parameter einer parabolischen SPDE basierend auf diskreten Beobachtungen einer Lösung in Zeit und Raum. Wir leiten zentrale Grenzwertsätze innerhalb eines hochfrequenten Beobachtungsschemas her und zeigen dabei, dass die neu entwickelten Schätzer wesentlich kleinere asymptotische Varianzen im Vergleich zu bestehenden Schätzmethoden besitzen. Darüber hinaus sind asymptotische Konfidenzintervalle direkt realisierbar. Unser Ansatz basiert auf realisierten Volatilitäten und ihrer asymptotischen Darstellung durch ein log-lineares Modell mit einer räumlichen erklärenden Variable. Dies ergibt effiziente Schätzer basierend auf realisierten Volatilitäten mit optimalen Konvergenzraten und minimalen Varianzen. Wir demonstrieren unsere Ergebnisse mithilfe von Monte-Carlo-Simulationen. Den ersten Teil erweiternd, analysieren wir im zweiten Teil dieser Arbeit ein SPDE-Modell zweiter Ordnung in mehreren Raumdimensionen und entwickeln Schätzer für die Parameter dieses Modells basierend auf diskreten Beobachtungen in Zeit und Raum auf einem begrenzten Gebiet. Während die Parameterschätzung für eine und zwei Raumdimensionen in der Literatur bereits behandelt wurde, ist dies die erste Arbeit, die die Theorie auf einen multidimensionalen Rahmen verallgemeinert. Unsere Methodik ermöglicht die Konstruktion eines Orakelschätzers für den Volatilitätsparameter innerhalb des zugrundeliegenden Modells. Für den Beweis zentraler Grenzwertsätze verwenden wir ein hochfrequentes Beobachtungsschema. Um unsere Ergebnisse zu veranschaulichen, führen wir eine Monte-Carlo-Simulation durch, wobei wir die zugrundeliegende Simulationsmethodik hierfür herleiten. KW - Stochastische partielle Differentialgleichung KW - Multi-dimensional SPDEs KW - Central limit theorem under dependence KW - High-frequency data KW - Least squares estimation KW - One-dimensional SPDEs Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-361130 ER - TY - THES A1 - Körner, Jacob T1 - Theoretical and numerical analysis of Fokker–Planck optimal control problems by first– and second–order optimality conditions T1 - Theoretische und numerische Analysis von Fokker-Planck optimalen Steuerungsproblemen mittels Optimalitätsbedingung erster und zweiter Ordnung N2 - In this thesis, a variety of Fokker--Planck (FP) optimal control problems are investigated. Main emphasis is put on a first-- and second--order analysis of different optimal control problems, characterizing optimal controls, establishing regularity results for optimal controls, and providing a numerical analysis for a Galerkin--based numerical scheme. The Fokker--Planck equation is a partial differential equation (PDE) of linear parabolic type deeply connected to the theory of stochastic processes and stochastic differential equations. In essence, it describes the evolution over time of the probability distribution of the state of an object or system of objects under the influence of both deterministic and stochastic forces. The FP equation is a cornerstone in understanding and modeling phenomena ranging from the diffusion and motion of molecules in a fluid to the fluctuations in financial markets. Two different types of optimal control problems are analyzed in this thesis. On the one hand, Fokker--Planck ensemble optimal control problems are considered that have a wide range of applications in controlling a system of multiple non--interacting objects. In this framework, the goal is to collectively drive each object into a desired state. On the other hand, tracking--type control problems are investigated, commonly used in parameter identification problems or stemming from the field of inverse problems. In this framework, the aim is to determine certain parameters or functions of the FP equation, such that the resulting probability distribution function takes a desired form, possibly observed by measurements. In both cases, we consider FP models where the control functions are part of the drift, arising only from the deterministic forces of the system. Therefore, the FP optimal control problem has a bilinear control structure. Box constraints on the controls may be present, and the focus is on time--space dependent controls for ensemble--type problems and on only time--dependent controls for tracking--type optimal control problems. In the first chapter of the thesis, a proof of the connection between the FP equation and stochastic differential equations is provided. Additionally, stochastic optimal control problems, aiming to minimize an expected cost value, are introduced, and the corresponding formulation within a deterministic FP control framework is established. For the analysis of this PDE--constrained optimal control problem, the existence, and regularity of solutions to the FP problem are investigated. New $L^\infty$--estimates for solutions are established for low space dimensions under mild assumptions on the drift. Furthermore, based on the theory of Bessel potential spaces, new smoothness properties are derived for solutions to the FP problem in the case of only time--dependent controls. Due to these properties, the control--to--state map, which associates the control functions with the corresponding solution of the FP problem, is well--defined, Fréchet differentiable and compact for suitable Lebesgue spaces or Sobolev spaces. The existence of optimal controls is proven under various assumptions on the space of admissible controls and objective functionals. First--order optimality conditions are derived using the adjoint system. The resulting characterization of optimal controls is exploited to achieve higher regularity of optimal controls, as well as their state and co--state functions. Since the FP optimal control problem is non--convex due to its bilinear structure, a first--order analysis should be complemented by a second--order analysis. Therefore, a second--order analysis for the ensemble--type control problem in the case of $H^1$--controls in time and space is performed, and sufficient second--order conditions are provided. Analogous results are obtained for the tracking--type problem for only time--dependent controls. The developed theory on the control problem and the first-- and second--order optimality conditions is applied to perform a numerical analysis for a Galerkin discretization of the FP optimal control problem. The main focus is on tracking-type problems with only time--dependent controls. The idea of the presented Galerkin scheme is to first approximate the PDE--constrained optimization problem by a system of ODE--constrained optimization problems. Then, conditions on the problem are presented such that the convergence of optimal controls from one problem to the other can be guaranteed. For this purpose, a class of bilinear ODE--constrained optimal control problems arising from the Galerkin discretization of the FP problem is analyzed. First-- and second--order optimality conditions are established, and a numerical analysis is performed. A discretization with linear finite elements for the state and co--state problem is investigated, while the control functions are approximated by piecewise constant or piecewise quadratic continuous polynomials. The latter choice is motivated by the bilinear structure of the optimal control problem, allowing to overcome the discrepancies between a discretize--then--optimize and optimize--then--discretize approach. Moreover, second--order accuracy results are shown using the space of continuous, piecewise quadratic polynomials as the discrete space of controls. Lastly, the theoretical results and the second--order convergence rates are numerically verified. N2 - In dieser Dissertation werden verschiedene Fokker--Planck (FP) optimale Steuerungsprobleme untersucht. Die Schwerpunkte liegen auf einer Analyse von Optimalitätsbedingungen erster und zweiter Ordnung, der Charakterisierung optimaler Steuerungen, dem Herleiten höhere Regularität von optimalen Kontrollen sowie einer theoretischen numerischen Analyse für ein numerisches Verfahren basierend auf einer Galerkin Approximation. Die Fokker--Planck Gleichung ist eine lineare, parabolische, partielle Differentialgleichung (PDE), die aus dem Gebiet stochastischer Differentialgleichungen und stochastischer Prozesse stammt. Im Wesentlichen beschreibt sie die zeitliche Entwicklung der Wahrscheinlichkeitsverteilung des Zustands eines Objekts bzw. eines Systems von Objekten unter dem Einfluss sowohl deterministischer als auch stochastischer Kräfte. Die Fokker--Planck Gleichung ist ein Eckpfeiler zum Verständnis und Modellieren von Phänomenen, die von der Diffusion und Bewegung von Molekülen in einer Flüssigkeit bis hin zu den Schwankungen in Finanzmärkten reichen. Zwei verschiedene Arten von optimalen Kontrollproblemen werden in dieser Arbeit umfassend analysiert. Einerseits werden Fokker--Planck Ensemble Steuerungsprobleme betrachtet, die in der Kontrolle von Systemen mit mehreren nicht wechselwirkenden Objekten vielfältige Anwendungen haben. In diesem Gebiet ist das Ziel, alle Objekte gemeinsam in einen gewünschten Zustand zu lenken. Andererseits werden Tracking Kontrollprobleme untersucht, die häufig bei Parameteridentifikationsproblemen auftreten oder aus dem Bereich inverser Probleme stammen. Hier besteht das Ziel darin, bestimmte Parameter oder Funktionen der Fokker--Planck Gleichung derart zu bestimmen, dass die resultierende Wahrscheinlichkeitsverteilung eine gewünschte Form annimmt, welche beispielsweise durch Messungen beobachtet wurde. In beiden Fällen betrachten wir FP Modelle, bei denen die Kontrollfunktion Teil des sogenannten Drifts ist, das heißt der Teil, der nur aus den deterministischen Kräften des Systems resultiert. Daher hat das FP Kontrollproblem eine bilineare Struktur. Untere und obere Schranken für die Kontrollfunktionen können vorhanden sein, und der Fokus liegt auf zeit-- und raumabhängigen Steuerungen für Ensemble Kontrollprobleme, sowie auf nur zeitlich abhängigen Steuerungen für Tracking Kontrollprobleme. Am Anfang der Dissertation wird ein Beweis für den Zusammenhang zwischen der FP Gleichung und stochastischen Differentialgleichungen dargelegt. Darüber hinaus werden stochastische optimale Steuerungsprobleme eingeführt, deren Ziel es ist, einen erwarteten Kostenwert zu minimieren. Zusätzlich wird das Problem als ein deterministisches FP Kontrollproblem formuliert. Für die Analyse dieses Kontrollproblems wird die Existenz und Regularität von Lösungen für die FP Differentialgleichung untersucht. Neue $L^\infty$--Abschätzungen für Lösungen werden für niedrige Raumdimensionen unter schwachen Annahmen an den Drift bewiesen. Zusätzlich werden, basierend auf der Theorie über Bessel Potentialräume, neue Glattheitseigenschaften für Lösungen des FP--Problems im Falle zeitabhängiger Steuerungen erarbeitet. Aufgrund dieser Eigenschaften ist die sogenannte control--to--state Abbildung, welche die Kontrollfunktion mit der entsprechenden Lösung des FP Problems verknüpft, wohldefiniert, Fréchet--differenzierbar und kompakt für geeignete Lebesgue--Räume oder Sobolev--Räume. Die Existenz optimaler Steuerungen wird unter verschiedenen Annahmen an den Funktionenraum der Kontrollen und des Kostenfunktionals bewiesen. Optimalitätsbedingungen erster Ordnung werden unter Verwendung des adjungierten Systems aufgestellt. Die daraus resultierende Charakterisierung optimaler Steuerungen wird genutzt, um eine höhere Regularität optimaler Steuerungen sowie ihrer Zustandsfunktion und des adjungierten Problems zu erhalten. Da das FP Kontrollproblem aufgrund der bilinearen Struktur nicht konvex ist, sollte eine Analyse von Optimalitätsbedingungen erster Ordnung durch eine Analyse von Optimalitätsbedingungen zweiter Ordnung ergänzt werden. Dies wird für das Ensemble Kontrollproblem im Fall von zeit-- und ortsabhängigen Steuerungen mit $H^1$--Regularität durchgeführt, und hinreichende Bedingungen für lokale Minimierer werden hergeleitet. Analoge Ergebnisse werden für das Tracking--Problem für nur zeitabhängige Steuerungen bewiesen. Die entwickelte Theorie zu diesem optimalen Steuerungsproblem und dessen Optimalitätsbedingungen wird angewendet, um eine numerische Analyse für eine Galerkin--Diskretisierung des FP Kontrollproblems durchzuführen. Der Schwerpunkt liegt auf Tracking--Problemen mit nur zeitabhängigen Steuerungen. Die Idee des vorgestellten Galerkin--Verfahrens besteht darin, das PDE--Optimierungsproblem zunächst durch ein System von Optimierungsproblemen mit gewöhnlichen Differentialgleichungen (ODE) als Nebenbedingung zu approximieren. Dann werden Bedingungen an das Problem präsentiert, sodass die Konvergenz optimaler Steuerungen von einem Problem zum anderen garantiert werden kann. Zu diesem Zweck wird eine Klasse bilinearer ODE--Kontrollprobleme analysiert, welche sich aus der Galerkin--Diskretisierung des FP Problems ergeben. Optimalitätsbedingungen erster und zweiter Ordnung werden bewiesen, und eine numerische Analyse wird durchgeführt. Eine Diskretisierung mit linearen Finiten--Elementen der Zustands-- und Adjungiertengleichung wird untersucht, während die Kontrollfunktionen durch stückweise konstante oder stetige, stückweise quadratische Polynome approximiert werden. Diese Wahl wird durch die bilineare Struktur des optimalen Kontrollproblems begründet, da sie es ermöglicht, die Diskrepanzen zwischen einem Ansatz von ,,zuerst diskretisieren dann optimieren" und ,,zuerst optimieren, dann diskretisieren" zu überwinden. Durch die Verwendung stetiger, stückweise quadratischer Polynome als Diskretisierung der Steuerungen kann außerdem quadratische Konvergenzordnung gezeigt werden. Abschließend werden die theoretischen Ergebnisse und die Konvergenzraten zweiter Ordnung numerisch verifiziert. KW - Parabolische Differentialgleichung KW - Fokker-Planck-Gleichung KW - Optimale Kontrolle KW - Optimalitätsbedingung KW - Finite-Elemente-Methode KW - accuracy estimate Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-362997 ER - TY - THES A1 - Birke, Claudius B. T1 - Low Mach and Well-Balanced Numerical Methods for Compressible Euler and Ideal MHD Equations with Gravity T1 - Low Mach und Well-Balanced Numerische Verfahren für die kompressiblen Euler und idealen MHD Gleichungen mit Gravitation N2 - Physical regimes characterized by low Mach numbers and steep stratifications pose severe challenges to standard finite volume methods. We present three new methods specifically designed to navigate these challenges by being both low Mach compliant and well-balanced. These properties are crucial for numerical methods to efficiently and accurately compute solutions in the regimes considered. First, we concentrate on the construction of an approximate Riemann solver within Godunov-type finite volume methods. A new relaxation system gives rise to a two-speed relaxation solver for the Euler equations with gravity. Derived from fundamental mathematical principles, this solver reduces the artificial dissipation in the subsonic regime and preserves hydrostatic equilibria. The solver is particularly stable as it satisfies a discrete entropy inequality, preserves positivity of density and internal energy, and suppresses checkerboard modes. The second scheme is designed to solve the equations of ideal MHD and combines different approaches. In order to deal with low Mach numbers, it makes use of a low-dissipation version of the HLLD solver and a partially implicit time discretization to relax the CFL time step constraint. A Deviation Well-Balancing method is employed to preserve a priori known magnetohydrostatic equilibria and thereby reduces the magnitude of spatial discretization errors in strongly stratified setups. The third scheme relies on an IMEX approach based on a splitting of the MHD equations. The slow scale part of the system is discretized by a time-explicit Godunov-type method, whereas the fast scale part is discretized implicitly by central finite differences. Numerical dissipation terms and CFL time step restriction of the method depend solely on the slow waves of the explicit part, making the method particularly suited for subsonic regimes. Deviation Well-Balancing ensures the preservation of a priori known magnetohydrostatic equilibria. The three schemes are applied to various numerical experiments for the compressible Euler and ideal MHD equations, demonstrating their ability to accurately simulate flows in regimes with low Mach numbers and strong stratification even on coarse grids. N2 - Physikalische Regime mit sehr niedrigen Machzahlen und starken Abschichtungen stellen konventionelle Finite Volumen Verfahren vor erhebliche Herausforderungen. In dieser Arbeit präsentieren wir drei neue Verfahren, die in der Lage sind, die Herausforderungen zu bewältigen. Die neuen Verfahren sind speziell an kleine Machzahlen angepasst und können (magneto-)hydrostatische Gleichgewichte exakt erhalten. Diese Eigenschaften sind essentiell für eine effiziente Berechnung präziser Lösungen in den betrachteten Regimen. Zunächst konzentrieren wir uns auf die Konstruktion eines approximativen Riemannlösers innerhalb von Godunov-artigen Finite Volumen Verfahren. Ein neues Relaxationssystem führt zu einem Relaxationslöser für die Euler Gleichungen mit Gravitation, der zwei Relaxationsgeschwindigkeiten verwendet. Abgeleitet von grundlegenden mathematischen Prinzipien reduziert dieser Löser die künstliche Dissipation im subsonischen Bereich und erhält hydrostatische Gleichgewichte. Der Löser ist besonders stabil, da er eine diskrete Entropieungleichung erfüllt, die Positivität von Dichte und interner Energie bewahrt und Schachbrettmuster unterdrückt. Das zweite Verfahren löst die idealen MHD Gleichungen und kombiniert verschiedene Ansätze, um die einzelnen numerischen Herausforderungen zu bewältigen. Für einen effizienten Umgang mit niedrigen Machzahlen wird eine Variante des HLLD Lösers mit künstlich niedriger Dissipation sowie eine teilweise implizite Zeitdiskretisierung zur Lockerung der CFL Zeitschrittbeschränkung gewählt. Eine Deviation Well-Balancing Methode wird angewendet, um magnetohydrostatische Gleichgewichte zu bewahren und dadurch das Ausmaß von räumlichen Diskretisierungsfehlern in stark geschichteten Atmosphären zu reduzieren. Das dritte Verfahren verwendet einen IMEX Ansatz, welcher auf einer Aufspaltung der MHD Gleichungen basiert. Das Teilsystem mit langsamen Ausbreitungsgeschwindigkeiten wird durch eine zeit-explizite Godunov-artige Methode diskretisiert, während das Teilsystem mit schnellen Ausbreitungsgeschwindigkiten implizit durch zentrale finite Differenzen diskretisiert wird. Numerische Dissipationsterme und die CFL Zeitschrittbeschränkung der Methode hängen somit nur von den langsamen Wellen des expliziten Teils ab, so dass die Methode besonders für subsonische Regime geeignet ist. Deviation Well-Balancing gewährleistet die Erhaltung a priori bekannter magnetohydrostatischer Gleichgewichte. Die drei Verfahren werden auf numerische Experimente für die kompressiblen Euler und idealen MHD Gleichungen angewendet und zeigen darin ihre Fähigkeit, Strömungen in Regimen mit niedrigen Machzahlen und starker Schichtung auch auf groben diskreten Gittern akkurat zu simulieren. KW - Magnetohydrodynamik KW - Numerische Strömungssimulation KW - Finite-Volumen-Methode KW - relaxation method KW - IMEX scheme KW - low Mach number KW - well-balanced Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-363303 ER -