TY - THES A1 - Wurst, Jan-Eric T1 - Hp-Finite Elements for PDE-Constrained Optimization N2 - Diese Arbeit behandelt die hp-Finite Elemente Methode (FEM) für linear quadratische Optimal-steuerungsprobleme. Dabei soll ein Zielfunktional, welches die Entfernung zu einem angestrebten Zustand und hohe Steuerungskosten (als Regularisierung) bestraft, unter der Nebenbedingung einer elliptischen partiellen Differentialgleichung minimiert werden. Bei der Anwesenheit von Steuerungsbeschränkungen können die notwendigen Bedingungen erster Ordnung, die typischerweise für numerische Lösungsverfahren genutzt werden, als halbglatte Projektionsformel formuliert werden. Folglich sind optimale Lösungen oftmals auch nicht-glatt. Die Technik der hp-Diskretisierung berücksichtigt diese Tatsache und approximiert raue Funktionen auf feinen Gittern, während Elemente höherer Ordnung auf Gebieten verwendet werden, auf denen die Lösung glatt ist. Die erste Leistung dieser Arbeit ist die erfolgreiche Anwendung der hp-FEM auf zwei verwandte Problemklassen: Neumann- und Interface-Steuerungsprobleme. Diese werden zunächst mit entsprechenden a-priori Verfeinerungsstrategien gelöst, mit der randkonzentrierten (bc) FEM oder interface konzentrierten (ic) FEM. Diese Strategien generieren Gitter, die stark in Richtung des Randes beziehungsweise des Interfaces verfeinert werden. Um für beide Techniken eine algebraische Reduktion des Approximationsfehlers zu beweisen, wird eine elementweise interpolierende Funktion konstruiert. Außerdem werden die lokale und globale Regularität von Lösungen behandelt, weil sie entscheidend für die Konvergenzgeschwindigkeit ist. Da die bc- und ic- FEM kleine Polynomgrade für Elemente verwenden, die den Rand beziehungsweise das Interface berühren, können eine neue L2- und L∞-Fehlerabschätzung hergeleitet werden. Letztere bildet die Grundlage für eine a-priori Strategie zum Aufdatieren des Regularisierungsparameters im Zielfunktional, um Probleme mit bang-bang Charakter zu lösen. Zudem wird die herkömmliche hp-Idee, die daraus besteht das Gitter geometrisch in Richtung der Ecken des Gebiets abzustufen, auf die Lösung von Optimalsteuerungsproblemen übertragen (vc-FEM). Es gelingt, Regularität in abzählbar normierten Räumen für die Variablen des gekoppelten Optimalitätssystems zu zeigen. Hieraus resultiert die exponentielle Konvergenz im Bezug auf die Anzahl der Freiheitsgrade. Die zweite Leistung dieser Arbeit ist die Entwicklung einer völlig adaptiven hp-Innere-Punkte-Methode, die Probleme mit verteilter oder Neumann Steuerung lösen kann. Das zugrundeliegende Barriereproblem besitzt ein nichtlineares Optimilitätssystem, das eine numerische Herausforderung beinhaltet: die stabile Berechnung von Integralen über Funktionen mit möglichen Singularitäten in Elementen höherer Ordnung. Dieses Problem wird dadurch gelöst, dass die Steuerung an den Integrationspunkten überwacht wird. Die Zulässigkeit an diesen Punkten wird durch einen Glättungsschritt garantiert. In dieser Arbeit werden sowohl die Konvergenz eines Innere-Punkte-Verfahrens mit Glättungsschritt als auch a-posteriori Schranken für den Diskretisierungsfehler gezeigt. Dies führt zu einem adaptiven Lösungsalgorithmus, dessen Gitterverfeinerung auf der Entwicklung der Lösung in eine Legendre Reihe basiert. Hierbei dient das Abklingverhalten der Koeffizienten als Glattheitsindikator und wird für die Entscheidung zwischen h- und p-Verfeinerung herangezogen. N2 - This thesis deals with the hp-finite element method (FEM) for linear quadratic optimal control problems. Here, a tracking type functional with control costs as regularization shall be minimized subject to an elliptic partial differential equation. In the presence of control constraints, the first order necessary conditions, which are typically used to find optimal solutions numerically, can be formulated as a semi-smooth projection formula. Consequently, optimal solutions may be non-smooth as well. The hp-discretization technique considers this fact and approximates rough functions on fine meshes while using higher order finite elements on domains where the solution is smooth. The first main achievement of this thesis is the successful application of hp-FEM to two related problem classes: Neumann boundary and interface control problems. They are solved with an a-priori refinement strategy called boundary concentrated (bc) FEM and interface concentrated (ic) FEM, respectively. These strategies generate grids that are heavily refined towards the boundary or interface. We construct an elementwise interpolant that allows to prove algebraic decay of the approximation error for both techniques. Additionally, a detailed analysis of global and local regularity of solutions, which is critical for the speed of convergence, is included. Since the bc- and ic-FEM retain small polynomial degrees for elements touching the boundary and interface, respectively, we are able to deduce novel error estimates in the L2- and L∞-norm. The latter allows an a-priori strategy for updating the regularization parameter in the objective functional to solve bang-bang problems. Furthermore, we apply the traditional idea of the hp-FEM, i.e., grading the mesh geometrically towards vertices of the domain, for solving optimal control problems (vc-FEM). In doing so, we obtain exponential convergence with respect to the number of unknowns. This is proved with a regularity result in countably normed spaces for the variables of the coupled optimality system. The second main achievement of this thesis is the development of a fully adaptive hp-interior point method that can solve problems with distributed or Neumann control. The underlying barrier problem yields a non-linear optimality system, which poses a numerical challenge: the numerically stable evaluation of integrals over possibly singular functions in higher order elements. We successfully overcome this difficulty by monitoring the control variable at the integration points and enforcing feasibility in an additional smoothing step. In this work, we prove convergence of an interior point method with smoothing step and derive a-posteriori error estimators. The adaptive mesh refinement is based on the expansion of the solution in a Legendre series. The decay of the coefficients serves as an indicator for smoothness that guides between h- and p-refinement. KW - Finite-Elemente-Methode KW - Optimale Kontrolle KW - Elliptische Differentialgleichung KW - finite elements KW - optimal control KW - higher order methods KW - partial differetial equations Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-115027 SN - 978-3-95826-024-5 (print) SN - 978-3-95826-025-2 (online) PB - Würzburg University Press CY - Würzburg ER - TY - THES A1 - Wongkaew, Suttida T1 - On the control through leadership of multi-agent systems T1 - Die Steuerung durch den Hauptagent von Multi-Agenten -Systemen N2 - The investigation of interacting multi-agent models is a new field of mathematical research with application to the study of behavior in groups of animals or community of people. One interesting feature of multi-agent systems is collective behavior. From the mathematical point of view, one of the challenging issues considering with these dynamical models is development of control mechanisms that are able to influence the time evolution of these systems. In this thesis, we focus on the study of controllability, stabilization and optimal control problems for multi-agent systems considering three models as follows: The first one is the Hegselmann Krause opinion formation (HK) model. The HK dynamics describes how individuals' opinions are changed by the interaction with others taking place in a bounded domain of confidence. The study of this model focuses on determining feedback controls in order to drive the agents' opinions to reach a desired agreement. The second model is the Heider social balance (HB) model. The HB dynamics explains the evolution of relationships in a social network. One purpose of studying this system is the construction of control function in oder to steer the relationship to reach a friendship state. The third model that we discuss is a flocking model describing collective motion observed in biological systems. The flocking model under consideration includes self-propelling, friction, attraction, repulsion, and alignment features. We investigate a control for steering the flocking system to track a desired trajectory. Common to all these systems is our strategy to add a leader agent that interacts with all other members of the system and includes the control mechanism. Our control through leadership approach is developed using classical theoretical control methods and a model predictive control (MPC) scheme. To apply the former method, for each model the stability of the corresponding linearized system near consensus is investigated. Further, local controllability is examined. However, only in the Hegselmann-Krause opinion formation model, the feedback control is determined in order to steer agents' opinions to globally converge to a desired agreement. The MPC approach is an optimal control strategy based on numerical optimization. To apply the MPC scheme, optimal control problems for each model are formulated where the objective functions are different depending on the desired objective of the problem. The first-oder necessary optimality conditions for each problem are presented. Moreover for the numerical treatment, a sequence of open-loop discrete optimality systems is solved by accurate Runge-Kutta schemes, and in the optimization procedure, a nonlinear conjugate gradient solver is implemented. Finally, numerical experiments are performed to investigate the properties of the multi-agent models and demonstrate the ability of the proposed control strategies to drive multi-agent systems to attain a desired consensus and to track a given trajectory. N2 - Die Untersuchung von interagierende Multiagent-Modellen ist ein neues mathematisches Forschungsfeld, das sich mit dem Gruppenverhalten von Tieren beziehungsweise Sozialverhalten von Menschen. Eine interessante Eigenschaft der Multiagentensysteme ist kollektives Verhalten. Eine der herausfordernden Themen, die sich mit diesen dynamischen Modellen befassen, ist in der mathematischen Sicht eine Entwicklung der Regelungsmechanismen, die die Zeitevolution dieser Systemen beeinflussen können. In der Doktorarbeit fokussieren wir uns hauptsächlich auf die Studie von Problemen der Steuerbarkeit, Stabilität und optimalen Regelung für Multiagentensysteme anhand drei Modellen wie folgt: Das erste ist die Hegselmann- Krause opinion formation Modell. Die HK-Dynamik beschreibt die Änderung der Meinungen von einzelnen Personen aufgrund der Interaktionen mit den Anderen. Die Studie dieses Model fokussiert auf bestimmte Regelungen, um die Meinungen der Agenten zu betreiben, damit eine gewünschte Zustimmung erreicht wird. Das zweite Model ist das Heider social balance (HB) Modell. Die HB-Dynamik beschreibt die Evolution von Beziehungen in einem sozialen Netzwerk. Ein Ziel der Untersuchung dieses Systems ist die Konstruktion der Regelungsfunktion um die Beziehungen zu steuern, damit eine Freundschaft erreicht wird. Das dritte Modell ist ein Schar-Modell, das in biologischen Systemen beobachteten kollektive Bewegung beschreibt. Das Schar-Model unter Berücksichtigung beinhaltet Selbstantrieb, Friktion, Attraktion Repulsion und Anpassungsfähigkeiten. Wir untersuchen einen Regler für die Steuerung des Schar-Systems, um eine gewünschte Trajektorie zu verfolgen. Üblich wie alle dieser Systeme soll laut unsere Strategie ein Hauptagent, der sich mit alle anderen Mitgliedern des Systems interagieren, hinzugefügt werden und das Regelungsmechanismus inkludiert werden. Unserer Regelung anhand dem Vorgehen mit Führungsverhalten ist unter Verwendung von klassischen theoretischen Regelungsmethode und ein Schema der modellpr ädiktiven Regelung entwickelt. Zur Ausführung der genannten Methode wird für jedes Modell die Stabilität der korrespondierenden Linearsystem in der Nähe von Konsensus untersucht. Ferner wird die lokale Regelbarkeit geprüft. Nur in dem Hegselmann-Krause opinion formation Modell. Der Regler wird so bestimmt, dass die Meinungen der Agenten gesteuert werden können. Dadurch konvergiert es global zu eine gewünschten Zustimmung. Die MPC-Vorgehensweise ist eine optimale Regelung Strategie, die auf numerische Optimierung basiert. Zu Verwendung des MPC-Shema werden die optimalen Regelungsproblemen für jedes Modell formuliert, wo sich die objektive Funktionen in Abhängigkeit von den gewünschten objective des Problems unterscheidet. Die erforderliche Optimalitätsbedingungen erster Ordnung für jedes Problem sind präsentiert. Auÿerdem für die numerische Prozess, eine Sequenz von offenen diskreten Optimalitätssystemen ist nach dem expliziten Runge-Kutta Schema gelöst. In dem Optimierungsverfahren ist ein nicht linear konjugierter Gradientlöser umgesetzt. Schlieÿlich sind numerische Experimenten in der Lage, die Eigenschaften der Multiagent-Modellen zu untersuchen und die Fähigkeiten der gezielten Regelstrategie zu beweisen. Die Strategie nutzt zu betreiben Multiagentensysteme, um einen gewünschten Konsensus zu erreichen und eine gegebene Trajektorie zu verfolgen. KW - Controllability KW - Optimal control problem KW - Multi-agent systems KW - Mehragentensystem KW - Optimale Kontrolle Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-120914 ER - TY - THES A1 - Srichan, Teerapat T1 - Discrete Moments of Zeta-Functions with respect to random and ergodic transformations T1 - Diskrete Momente von Zetafunktionen mit zufälligen und ergodentheoretischen Transformationen N2 - In the thesis discrete moments of the Riemann zeta-function and allied Dirichlet series are studied. In the first part the asymptotic value-distribution of zeta-functions is studied where the samples are taken from a Cauchy random walk on a vertical line inside the critical strip. Building on techniques by Lifshits and Weber analogous results for the Hurwitz zeta-function are derived. Using Atkinson’s dissection this is even generalized to Dirichlet L-functions associated with a primitive character. Both results indicate that the expectation value equals one which shows that the values of these zeta-function are small on average. The second part deals with the logarithmic derivative of the Riemann zeta-function on vertical lines and here the samples are with respect to an explicit ergodic transformation. Extending work of Steuding, discrete moments are evaluated and an equivalent formulation for the Riemann Hypothesis in terms of ergodic theory is obtained. In the third and last part of the thesis, the phenomenon of universality with respect to stochastic processes is studied. It is shown that certain random shifts of the zeta-function can approximate non-vanishing analytic target functions as good as we please. This result relies on Voronin's universality theorem. N2 - Die Dissertation behandelt diskrete Momente der Riemannschen Zetafunktion und verwandter Dirichletreihen. Im ersten Teil wird die asymptotische Werteverteilung von Zetafunktionen studiert, wobei die Werte zufällig auf einer vertikalen Geraden im kritischen Streifen gemäß einer Cauchyschen Irrfahrt summiert werden. Auf einer Vorarbeit von Lifshits und Weber aufbauend werden analoge Resultate für die Hurwitz Zetafunktion erzielt. Mit Hilfe der Atkinsonschen Formel gelingt eine weitere Verallgemeinerung für Dirichletsche L-Funktion zu einem primitiven Charakter. Beide Ergebnisse zeigen, dass der Erwartungswert stets eins beträgt, womit die jeweilige Zetafunktion im Mittel betragsmäßig klein ist. Der zweite Teil befasst sich mit der logarithmischen Ableitung der Riemannschen Zetafunktion auf vertikalen Geraden, wobei hier die Werte einer ergodischen Transformation entstammen. Eine Arbeit von Steuding verallgemeinernd werden diskrete Momente berechnet und eine äquivalente Formulierung der Riemannschen Vermutung in ergodentheoretischer Sprache erzielt. Im dritten und letzten Teil der Dissertation wird das Phänomen der Universalität unter dem Aspekt stochastischer Prozesse studiert. Es wird gezeigt, dass gewisse zufällige Translate der Zetafunktion nullstellenfreie analytische Zielfunktionen beliebig gut approximieren. Dieses Ergebnis basiert auf dem Voroninschen Universalitätssatz. KW - Riemannsche Zetafunktion KW - Zeta-function KW - random walk KW - ergodic transformation KW - Dirichlet-Reihe KW - Riemann Hypothesis Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-118395 ER - TY - THES A1 - Schäffner, Mathias T1 - Multiscale analysis of non-convex discrete systems via \(\Gamma\)-convergence T1 - Mehrskalenanalyse von nicht-konvexen diskreten Systemen mittels \(\Gamma\)-Konvergenz N2 - The subject of this thesis is the rigorous passage from discrete systems to continuum models via variational methods. The first part of this work studies a discrete model describing a one-dimensional chain of atoms with finite range interactions of Lennard-Jones type. We derive an expansion of the ground state energy using \(\Gamma\)-convergence. In particular, we show that a variant of the Cauchy-Born rule holds true for the model under consideration. We exploit this observation to derive boundary layer energies due to asymmetries of the lattice at the boundary or at cracks of the specimen. Hereby we extend several results obtained previously for models involving only nearest and next-to-nearest neighbour interactions by Braides and Cicalese and Scardia, Schlömerkemper and Zanini. The second part of this thesis is devoted to the analysis of a quasi-continuum (QC) method. To this end, we consider the discrete model studied in the first part of this thesis as the fully atomistic model problem and construct an approximation based on a QC method. We show that in an elastic setting the expansion by \(\Gamma\)-convergence of the fully atomistic energy and its QC approximation coincide. In the case of fracture, we show that this is not true in general. In the case of only nearest and next-to-nearest neighbour interactions, we give sufficient conditions on the QC approximation such that, also in case of fracture, the minimal energies of the fully atomistic energy and its approximation coincide in the limit. N2 - Der Gegenstand dieser Doktorarbeit ist der mathematisch strenge Übergang von diskreten Systemen zu kontinuierlichen Modellen. Im ersten Teil der Arbeit betrachten wir ein diskretes Modell für eine Kette von Atomen welche durch Lennard-Jones-artige Potentiale mit endlicher Reichweite miteinander wechselwirken. Wir leiten eine Entwicklung der Energie des Grundzustands mittels \(\Gamma\)-Konvergenz her. Dabei zeigen wir zunächst die Gültigkeit einer Variante der sogenannten Cauchy-Born Regel für unser Modell. Diese Beobachtung benutzen wir um Oberflächenenergien herzuleiten. Diese entstehen zum einen am Rand der Kette, aber auch an den Oberflächen die durch Brüche im kontinuierlichem Material gebildet werden. Dabei werden einige Resultate verallgemeinert, welche von Braides und Cicalese bzw. Scardia, Schlömerkemper und Zanini für Modelle bewiesen wurden in denen nur nächste und übernächste Nachbarn wechselwirken. Im zweiten Teil der Arbeit widmen wir uns der Untersuchung einer Quasi-continuum (QC) Methode. Wir betrachten die Energie aus dem ersten Teil als atomistisches Modellproblem und konstruieren eine Annäherung dieser Energie durch eine QC Methode. Im Falle von elastischen Verhalten zeigen wir, dass die Entwicklung mittels \(\Gamma\)-Konvergenz der atomistischen Energie und ihrer QC Approximation übereinstimmen. Falls allerdings Brüche auftreten gilt dies im Allgemeinen nicht mehr. Für Modelle in denen nur nächste und übernächste Nachbarn miteinander wechselwirken leiten wir hinreichende Bedingungen her die, auch im Falle von Brüchen, garantieren, dass das Minimum der atomistischen Energie und das Minimum der QC Approximation den gleichen Grenzwert haben. KW - Gamma-Konvergenz KW - gamma-convergence KW - discrete-to-continuum KW - quasi-continuum KW - fracture Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-122349 ER - TY - THES A1 - Mohammadi, Masoumeh T1 - Analysis of discretization schemes for Fokker-Planck equations and related optimality systems T1 - Analyse von Diskretisierungsmethoden für Fokker-Planck-Gleichungen und verwandte Optimalitätssysteme N2 - The Fokker-Planck (FP) equation is a fundamental model in thermodynamic kinetic theories and statistical mechanics. In general, the FP equation appears in a number of different fields in natural sciences, for instance in solid-state physics, quantum optics, chemical physics, theoretical biology, and circuit theory. These equations also provide a powerful mean to define robust control strategies for random models. The FP equations are partial differential equations (PDE) describing the time evolution of the probability density function (PDF) of stochastic processes. These equations are of different types depending on the underlying stochastic process. In particular, they are parabolic PDEs for the PDF of Ito processes, and hyperbolic PDEs for piecewise deterministic processes (PDP). A fundamental axiom of probability calculus requires that the integral of the PDF over all the allowable state space must be equal to one, for all time. Therefore, for the purpose of accurate numerical simulation, a discretized FP equation must guarantee conservativeness of the total probability. Furthermore, since the solution of the FP equation represents a probability density, any numerical scheme that approximates the FP equation is required to guarantee the positivity of the solution. In addition, an approximation scheme must be accurate and stable. For these purposes, for parabolic FP equations on bounded domains, we investigate the Chang-Cooper (CC) scheme for space discretization and first- and second-order backward time differencing. We prove that the resulting space-time discretization schemes are accurate, conditionally stable, conservative, and preserve positivity. Further, we discuss a finite difference discretization for the FP system corresponding to a PDP process in a bounded domain. Next, we discuss FP equations in unbounded domains. In this case, finite-difference or finite-element methods cannot be applied. By employing a suitable set of basis functions, spectral methods allow to treat unbounded domains. Since FP solutions decay exponentially at infinity, we consider Hermite functions as basis functions, which are Hermite polynomials multiplied by a Gaussian. To this end, the Hermite spectral discretization is applied to two different FP equations; the parabolic PDE corresponding to Ito processes, and the system of hyperbolic PDEs corresponding to a PDP process. The resulting discretized schemes are analyzed. Stability and spectral accuracy of the Hermite spectral discretization of the FP problems is proved. Furthermore, we investigate the conservativity of the solutions of FP equations discretized with the Hermite spectral scheme. In the last part of this thesis, we discuss optimal control problems governed by FP equations on the characterization of their solution by optimality systems. We then investigate the Hermite spectral discretization of FP optimality systems in unbounded domains. Within the framework of Hermite discretization, we obtain sparse-band systems of ordinary differential equations. We analyze the accuracy of the discretization schemes by showing spectral convergence in approximating the state, the adjoint, and the control variables that appear in the FP optimality systems. To validate our theoretical estimates, we present results of numerical experiments. N2 - Die Fokker-Planck (FP) Gleichung ist ein grundlegendes Modell in thermodynamischen kinetischen Theorien und der statistischen Mechanik. Die FP-Gleichungen sind partielle Differentialgleichungen (PDE), welche die zeitliche Entwicklung der Wahrscheinlichkeitsdichtefunktion (PDF) von stochastischen Prozessen beschreiben. Diese Gleichungen sind von verschiedenen Arten, abhängig von dem zugrunde liegenden stochastischen Prozess. Insbesondere sind dies parabolische PDEs für die PDF von Ito Prozessen, und hyperbolische PDEs für teilweise deterministische Prozesse (PDP). Ein grundlegendes Axiom der Wahrscheinlichkeitsrechnung verlangt, dass das Integral der PDF über den ganzen Raum für alle Zeit muss gleich sein muss. Daher muss eine diskretisierte FP Gleichung Konservativität der Gesamtwahrscheinlichkeit garantieren. Da die Lösung der FP Gleichung eine Wahrscheinlichkeitsdichte darstellt, muss das numerische Verfahren, das die FP-Gleichung approximiert, die Positivität der Lösung gewährleisten. Darüber hinaus muss ein Approximationsschema genau und stabil sein. Für FP-Gleichungen auf begrenzte Bereiche untersuchen wir das Chang-Cooper (CC) Schema. Wir beweisen, dass die Diskretisierungsmethoden genau, bedingt stabil und konservativ sind, und Positivität bewahren. Als nächstes diskutieren wir FP Gleichungen in unbeschränkten Gebieten und wir wählen die Hermite spektrale Diskretisierung. Die resultierenden diskretisierten Schemata werden analysiert. Stabilität und spektrale Genauigkeit der Hermiten spektralen Diskretisierung ist bewiesen. Darüber hinaus untersuchen wir die Konservativität der numerischen Lösungen der FP Gleichungen. Im letzten Teil dieser Arbeit diskutieren wir Probleme der optimalen Steuerung, die von FP Gleichungen geregelt werden. Wir untersuchen dann die Hermite spektrale Diskretisierung von FP Optimalitätssystemen in unbeschränkten Gebieten. Wir erhalten spärliche Band-Systeme gewöhnlicher Differentialgleichungen. Wir analysieren die Genauigkeit der Diskretisierungsmethoden, indem wir spektrale Konvergenz bei der Annäherung des zustandes, das Adjoint, und die Stellgrößen, die in den FP Optimalitätssystemen erscheinen, aufzeigen. Um unsere theoretischen Schätzungen zu bestätigen, präsentieren wir Ergebnisse von numerischen Experimenten. KW - Fokker-Planck-Gleichung KW - Fokker-Planck optimality systems Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-111494 ER - TY - JOUR A1 - Matlach, Juliane A1 - Dhillon, Christine A1 - Hain, Johannes A1 - Schlunck, Günther A1 - Grehn, Franz A1 - Klink, Thomas T1 - Trabeculectomy versus canaloplasty (TVC study) in the treatment of patients with open-angle glaucoma: a prospective randomized clinical trial JF - Acta Ophthalmologica N2 - Purpose: To compare the outcomes of canaloplasty and trabeculectomy in open-angle glaucoma. Methods: This prospective, randomized clinical trial included 62 patients who randomly received trabeculectomy (n = 32) or canaloplasty (n = 30) and were followed up prospectively for 2 years. Primary endpoint was complete (without medication) and qualified success (with or without medication) defined as an intraocular pressure (IOP) of ≤18 mmHg (definition 1) or IOP ≤21 mmHg and ≥20% IOP reduction (definition 2), IOP ≥5 mmHg, no vision loss and no further glaucoma surgery. Secondary endpoints were the absolute IOP reduction, visual acuity, medication, complications and second surgeries. Results: Surgical treatment significantly reduced IOP in both groups (p < 0.001). Complete success was achieved in 74.2% and 39.1% (definition 1, p = 0.01), and 67.7% and 39.1% (definition 2, p = 0.04) after 2 years in the trabeculectomy and canaloplasty group, respectively. Mean absolute IOP reduction was 10.8 ± 6.9 mmHg in the trabeculectomy and 9.3 ± 5.7 mmHg in the canaloplasty group after 2 years (p = 0.47). Mean IOP was 11.5 ± 3.4 mmHg in the trabeculectomy and 14.4 ± 4.2 mmHg in the canaloplasty group after 2 years. Following trabeculectomy, complications were more frequent including hypotony (37.5%), choroidal detachment (12.5%) and elevated IOP (25.0%). Conclusions: Trabeculectomy is associated with a stronger IOP reduction and less need for medication at the cost of a higher rate of complications. If target pressure is attainable by moderate IOP reduction, canaloplasty may be considered for its relative ease of postoperative care and lack of complications. KW - months follow-up KW - surgical outcomes KW - mitomycin C KW - canaloplasty KW - open-angle glaucoma KW - trabeculectomy KW - glaucoma surgery KW - series KW - phacocanaloplasty KW - phacotrabeculectomy KW - canal surgery KW - cataract surgery KW - flexible microcatheter KW - circumferential viscodilation Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-149263 VL - 93 ER - TY - THES A1 - Lurz, Kristina T1 - Confidence and Prediction under Covariates and Prior Information T1 - Konfidenz- und Prognoseintervalle unter Kovariaten und Vorinformation N2 - The purpose of confidence and prediction intervals is to provide an interval estimation for an unknown distribution parameter or the future value of a phenomenon. In many applications, prior knowledge about the distribution parameter is available, but rarely made use of, unless in a Bayesian framework. This thesis provides exact frequentist confidence intervals of minimal volume exploiting prior information. The scheme is applied to distribution parameters of the binomial and the Poisson distribution. The Bayesian approach to obtain intervals on a distribution parameter in form of credibility intervals is considered, with particular emphasis on the binomial distribution. An application of interval estimation is found in auditing, where two-sided intervals of Stringer type are meant to contain the mean of a zero-inflated population. In the context of time series analysis, covariates are supposed to improve the prediction of future values. Exponential smoothing with covariates as an extension of the popular forecasting method exponential smoothing is considered in this thesis. A double-seasonality version of it is applied to forecast hourly electricity load under the use of meteorological covariates. Different kinds of prediction intervals for exponential smoothing with covariates are formulated. N2 - Konfidenz- und Prognoseintervalle dienen der Intervallschätzung unbekannter Verteilungsparameter und künftiger Werte eines Phänomens. In vielen Anwendungen steht Vorinformation über einen Verteilungsparameter zur Verfügung, doch nur selten wird außerhalb von bayesscher Statistik davon Gebrauch gemacht. In dieser Dissertation werden exakte frequentistische Konfidenzintervalle unter Vorinformation kleinsten Volumens dargelegt. Das Schema wird auf Verteilungsparameter für die Binomial- und die Poissonverteilung angewandt. Der bayessche Ansatz von Intervallen für Verteilungsparameter wird in Form von Vertrauensintervallen behandelt, mit Fokus auf die Binomialverteilung. Anwendung findet Intervallschätzung in der Wirtschaftsprüfung, wo zweiseitige Intervalle vom Stringer-Typ den Mittelwert in Grundgesamtheiten mit vielen Nullern enthalten sollen. Im Zusammenhang mit Zeitreihenanalyse dienen Kovariaten der Verbesserung von Vorhersagen zukünftiger Werte. Diese Arbeit beschäftigt sich mit exponentieller Glättung mit Kovariaten als eine Erweiterung der gängigen Prognosemethode der exponentiellen Glättung. Eine Version des Modells, welche doppelte Saison berücksichtigt, wird in der Prognose des stündlichen Elektrizitätsbedarfs unter Zuhilfenahme von meteorologischen Variablen eingesetzt. Verschiedene Arten von Prognoseintervallen für exponentielle Glättung mit Kovariaten werden beschrieben. KW - Konfidenzintervall KW - A-priori-Wissen KW - Binomialverteilung KW - Exponential smoothing KW - Prognose KW - Zero-inflation KW - Audit sampling KW - Credibility interval KW - Prediction interval KW - Exponential smoothing with covariates Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-122748 ER - TY - THES A1 - Karl, Sabine T1 - Firm Values and Systemic Stability in Financial Networks T1 - Firmenwerte und systemisches Risiko in finanziellen Netzwerken N2 - Based on the work of Eisenberg and Noe [2001], Suzuki [2002], Elsinger [2009] and Fischer [2014], we consider a generalization of Merton's asset valuation approach where n firms are linked by cross-ownership of equities and liabilities. Each firm is assumed to have a single outstanding liability, whereas its assets consist of one system-exogenous asset, as well as system-endogenous assets comprising some fraction of other firms' equity and liability, respectively. Following Fischer [2014], one can obtain no-arbitrage prices of equity and the recovery claims of liabilities as solutions of a fixed point problem, and hence obtain no-arbitrage prices of the `firm value' of each firm, which is the value of the firm's liability plus the firm's equity. In a first step, we consider the two-firm case where explicit formulae for the no-arbitrage prices of the firm values are available (cf. Suzuki [2002]). Since firm values are derivatives of exogenous asset values, the distribution of firm values at maturity can be determined from the distribution of exogenous asset values. The Merton model and most of its known extensions do not account for the cross-ownership structure of the assets owned by the firm. Therefore the assumption of lognormally distributed exogenous assets leads to lognormally distributed firm values in such models, as the values of the liability and the equity add up to the exogenous asset's value (which has lognormal distribution by assumption). Our work therefore starts from lognormally distributed exogenous assets and reveals how cross-ownership, when correctly accounted for in the valuation process, affects the distribution of the firm value, which is not lognormal anymore. In a simulation study we examine the impact of several parameters (amount of cross-ownership of debt and equity, ratio of liabilities to expected exogenous assets value) on the differences between the distribution of firm values obtained from our model and correspondingly matched lognormal distributions. It becomes clear that the assumption of lognormally distributed firm values may lead to both over- and underestimation of the “true" firm values (within the cross-ownership model) and consequently of bankruptcy risk, too. In a second step, the bankruptcy risk of one firm within the system is analyzed in more detail in a further simulation study, revealing that the correct incorporation of cross-ownership in the valuation procedure is the more important, the tighter the cross-ownership structure between the two firms. Furthermore, depending on the considered type of cross-ownership (debt or equity), the assumption of lognormally distributed firm values is likely to result in an over- resp. underestimation of the actual probability of default. In a similar vein, we consider the Value-at-Risk (VaR) of a firm in the system, which we calculate as the negative α-quantile of the firm value at maturity minus the firm's risk neutral price in t=0, i.e. we consider the (1-α)100%-VaR of the change in firm value. If we let the cross-ownership fractions (i.e. the fraction that one firm holds of another firm's debt or equity) converge to 1 (which is the supremum of the possible values that cross-ownership fractions can take), we can prove that in a system of two firms, the lognormal model will over- resp. underestimate both univariate and bivariate probabilities of default under cross-ownership of debt only resp. cross-ownership of equity only. Furthermore, we provide a formula that allows us to check for an arbitrary scenario of cross-ownership and any non-negative distribution of exogenous assets whether the approximating lognormal model will over- or underestimate the related probability of default of a firm. In particular, any given non-negative distribution of exogenous asset values (non-degenerate in a certain sense) can be transformed into a new, “extreme" distribution of exogenous assets yielding such a low or high actual probability of default that the approximating lognormal model will over- and underestimate this risk, respectively. After this analysis of the univariate distribution of firm values under cross-ownership in a system of two firms with bivariately lognormally distributed exogenous asset values, we consider the copula of these firm values as a distribution-free measure of the dependency between these firm values. Without cross-ownership, this copula would be the Gaussian copula. Under cross-ownership, we especially consider the behaviour of the copula of firm values in the lower left and upper right corner of the unit square, and depending on the type of cross-ownership and the considered corner, we either obtain error bounds as to how good the copula of firm values under cross-ownership can be approximated with the Gaussian copula, or we see that the copula of firm values can be written as the copula of two linear combinations of exogenous asset values (note that these linear combinations are not lognormally distributed). These insights serve as a basis for our analysis of the tail dependence coefficient of firm values under cross-ownership. Under cross-ownership of debt only, firm values remain upper tail independent, whereas they become perfectly lower tail dependent if the correlation between exogenous asset values exceeds a certain positive threshold, which does not depend on the exact level of cross-ownership. Under cross-ownership of equity only, the situation is reverse in that firm values always remain lower tail independent, but upper tail independence is preserved if and only if the right tail behaviour of both firms’ values is determined by the right tail behaviour of the firms’ own exogenous asset value instead of the respective other firm’s exogenous asset value. Next, we return to systems of n≥2 firms and analyze sensitivities of no-arbitrage prices of equity and the recovery claims of liabilities with respect to the model parameters. In the literature, such sensitivities are provided with respect to exogenous asset values by Gouriéroux et al. [2012], and we extend the existing results by considering how these no-arbitrage prices depend on the cross-ownership fractions and the level of liabilities. For the former, we can show that all prices are non-decreasing in any cross-ownership fraction in the model, and by use of a version of the Implicit Function Theorem we can also determine exact derivatives. For the latter, we show that the recovery value of debt and the equity value of a firm are non-decreasing and non-increasing in the firm's nominal level of liabilities, respectively, but the firm value is in general not monotone in the firm's level of liabilities. Furthermore, no-arbitrage prices of equity and the recovery claims of liabilities of a firm are in general non-monotone in the nominal level of liabilities of other firms in the system. If we confine ourselves to one type of cross-ownership (i.e. debt or equity), we can derive more precise relationships. All the results can be transferred to risk-neutral prices before maturity. Finally, following Gouriéroux et al. [2012] and as a kind of extension to the above sensitivity results, we consider how immediate changes in exogenous asset values of one or more firms at maturity affect the financial health of a system of n initially solvent firms. We start with some theoretical considerations on what we call the contagion effect, namely the change in the endogenous asset value of a firm caused by shocks on the exogenous assets of firms within the system. For the two-firm case, an explicit formula is available, making clear that in general (and in particular under cross-ownership of equity only), the effect of contagion can be positive as well as negative, i.e. it can both, mitigate and exacerbate the change in the exogenous asset value of a firm. On the other hand, we cannot generally say that a tighter cross-ownership structure leads to bigger absolute contagion effects. Under cross-ownership of debt only, firms cannot profit from positive shocks beyond the direct effect on exogenous assets, as the contagion effect is always non-positive. Next, we are concerned with spillover effects of negative shocks on a subset of firms to other firms in the system (experiencing non-negative shocks themselves), driving them into default due to large losses in their endogenous asset values. Extending the results of Glasserman and Young [2015], we provide a necessary condition for the shock to cause such an event. This also yields an upper bound for the probability of such an event. We further investigate how the stability of a system of firms exposed to multiple shocks depends on the model parameters in a simulation study. In doing so, we consider three network types (incomplete, core-periphery and ring network) with simultaneous shocks on some of the firms and wiping out a certain percentage of their exogenous assets. Then we analyze for all three types of cross-ownership (debt only, equity only, both debt and equity) how the shock intensity, the shock size, and network parameters as the number of links in the network and the proportion of a firm's debt or equity held within the system of firms influences several output parameters, comprising the total number of defaults and the relative loss in the sum of firm values, among others. Comparing our results to the studies of Nier et al. [2007], Gai and Kapadia [2010] and Elliott et al. [2014], we can only partly confirm their results with respect to the number of defaults. We conclude our work with a theoretical comparison of the complete network (where each firm holds a part of any other firm) and the ring network with respect to the number of defaults caused by a shock on a single firm, as it is done by Allen and Gale [2000]. In line with the literature, we find that under cross-ownership of debt only, complete networks are “robust yet fragile" [Gai and Kapadia, 2010] in that moderate shocks can be completely withstood or drive the firm directly hit by the shock in default, but as soon as the shock exceeds a certain size, all firms are simultaneously in default. In contrast to that, firms default one by one in the ring network, with the first “contagious default" (i.e. a default of a firm not directly hit by the shock) already occurs for smaller shock sizes than under the complete network. N2 - Basierend auf den Arbeiten von Eisenberg und Noe [2001], Suzuki [2002], Elsinger [2009] und Fischer [2014] wird ein Netzwerk aus n≥2 Firmen betrachtet, die über Fremd- und/oder Eigenkapitalverflechtungen miteinander verbunden sind. Dabei wird angenommen, dass jede Firma eine Klasse von exogenen Assets sowie eine Klasse von Schulden mit Fälligkeitszeitpunkt T besitzt. Der Wert der Schulden und des Eigenkapitals jeder Firma zum Fälligkeitszeitpunkt kann dann mit Hilfe des Fixpunktalgorithmus von Fischer [2014] bestimmt werden, was auch den ‚Firmenwert‘ (Gesamtwert der Assets einer Firma) liefert. Ausgehend von lognormalverteilten Assetwerten wird in einer Simulationsstudie für den Zwei-Firmen-Fall die Verteilung des Firmenwerts mit einer angepassten Lognormalverteilung verglichen, ebenso die daraus resultierenden Ausfallwahrscheinlichkeiten. Für extrem hohe Verflechtungsgrade werden theoretische Ergebnisse bezüglich Über- und Unterschätzung der tatsächlichen Ausfallwahrscheinlichkeit durch die Lognormalverteilung hergeleitet. Anschließend wird der lower und upper tail dependence coefficient der Firmenwerte zweier Firmen bei ausschließlich Fremd- bzw. Eigenkapitalverflechtungen bestimmt. Für Netzwerke beliebiger Größe wird nach einer Sensitivitätsanalyse des Werts der Schulden, des Werts des Eigenkapitals und des Firmenwerts in Abhängigkeit der vorliegenden Verflechtungsgrade und des nominellen Schuldenwerts untersucht, unter welchen Bedingungen sich Schocks auf die exogenen Assetwerte einer oder mehrerer Firmen innerhalb des Netzwerks verbreiten und möglicherweise zum Ausfall anderer, nicht direkt vom Schock betroffenen Firmen im System führen. KW - Finanzmathematik KW - Systemisches Risiko KW - finanzielles Netzwerk KW - Kapitalverflechtungen KW - cross-ownership KW - financial network KW - systemic risk KW - structural model KW - firm valuation KW - Firmwert Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-115739 ER - TY - THES A1 - Hain, Johannes T1 - Valuation Algorithms for Structural Models of Financial Networks T1 - Algorithmen zur Bestimmung von Gleichgewichtslösungen in Finanzsystemen mit Kapitalverflechtung N2 - The thesis focuses on the valuation of firms in a system context where cross-holdings of the firms in liabilities and equities are allowed and, therefore, systemic risk can be modeled on a structural level. A main property of such models is that for the determination of the firm values a pricing equilibrium has to be found. While there exists a small but growing amount of research on the existence and the uniqueness of such price equilibria, the literature is still somewhat inconsistent. An example for this fact is that different authors define the underlying financial system on differing ways. Moreover, only few articles pay intense attention on procedures to find the pricing equilibria. In the existing publications, the provided algorithms mainly reflect the individual authors' particular approach to the problem. Additionally, all existing methods do have the drawback of potentially infinite runtime. For these reasons, the objects of this thesis are as follows. First, a definition of a financial system is introduced in its most general form in Chapter 2. It is shown that under a fairly mild regularity condition the financial system has a unique existing payment equilibrium. In Chapter 3, some extensions and differing definitions of financial systems that exist in literature are presented and it is shown how these models can be embedded into the general model from the proceeding chapter. Second, an overview of existing valuation algorithms to find the equilibrium is given in Chapter 4, where the existing methods are generalized and their corresponding mathematical properties are highlighted. Third, a complete new class of valuation algorithms is developed in Chapter 4 that includes the additional information whether a firm is in default or solvent under a current payment vector. This results in procedures that are able find the solution of the system in a finite number of iteration steps. In Chapter 5, the developed concepts of Chapter 4 are applied to more general financial systems where more than one seniority level of debt is present. Chapter 6 develops optimal starting vectors for non-finite algorithms and Chapter 7 compares the existing and the new developed algorithms concerning their efficiency in an extensive simulation study covering a wide range of possible settings for financial systems. N2 - Die vorliegende Dissertation hat die Unternehmensbewertung in Finanzsystemen mit Fremd- und Eigenkapitalverflechtung zum Thema. Die zentrale Eigenschaft dieser Modelle ist, dass zur Bestimmung der Firmenwerte eine Gleichgewichtslösung ermittelt werden muss. Die Zahl der Veröffentlichungen mit dem Schwerpunkt des Nachweises von Existenz- und Eindeutigkeitsaussagen der Gleichgewichte steigt zwar stetig an, allerdings ist die Fachliteratur in diesem Bereich teilweise noch sehr inkonsistent. Beispielsweise existieren je nach Autor unterschiedliche Vorgehensweisen, das zugrunde liegende Finanzsystem zu definieren. Darüber hinaus schenken nur wenige Fachartikel der Frage Beachtung, wie die Lösungsgleichgewichte genau bestimmt werden können. Zuletzt weisen die bereits entwickelten Verfahren den Nachteil auf, dass Sie womöglich unendlich viele Iterationsschritte benötigen bis die gesuchte Lösung exakt erreicht wird. Aus diesen Gründen beinhaltet die vorliegende Dissertation folgende Themen. Im ersten Schritt wird in Kapitel 2 eine möglichst allgemeine Definition eines Finanzsystems eingeführt. Es wird gezeigt dass unter nicht allzu strengen Voraussetzungen die Gleichgewichtslösung dieses Systems eindeutig bestimmt ist. In Kapitel 3 werden in der Fachliteratur zu diesem Thema zu findende Erweiterungen und abweichende Definitionen des Systems vorgestellt und wie diese in das allgemeine Modell aus dem vorherigen Kapitel eingebettet werden können. Danach wird in Kapitel 4 ein Überblick über bereits entwickelte Lösungsverfahren gegeben, wobei die existierenden Prozeduren in ihrem Vorgehen verallgemeinert und deren zugehörige mathematische Eigenschaften aufgezeigt werden. Des weiteren wird im gleichen Kapitel eine komplett neue Klasse von Lösungsverfahren entwickelt, die noch die zusätzliche Information verarbeiten, ob eine Firma für einen gegebenen Zahlungsvektor solvent oder insolvent ist. Als Folge dieses Ansatzes sind diese Algorithmen in der Lage, die exakte Gleichgewichtslösung des Systems in endlich vielen Schritten zu finden. In Kapitel 5 werden die entworfenen Konzepte dann für Finanzsysteme angewendet, in denen mehr als nur eine Schulden-Seniorität berücksichtigt wird. Kapitel 6 leitet optimale Startvektoren der nicht-endlichen Verfahren her und Kapitel 7 vergleicht die bereits existierenden und alle neu entwickelten Lösungsverfahren bezüglich ihrer Laufzeiteffizienz im Rahmen einer ausführlichen Simulationsstudie. KW - Risikomanagement KW - Finanzmathematik KW - Financial Networks KW - Counterparty Risk KW - Numerical Asset Valuation KW - Systemic Risk KW - Structrual Model KW - Unternehmensbewertung KW - Kapitalverflechtung KW - Finanzielle Netzwerke KW - Systemisches Risiko Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-128108 ER - TY - THES A1 - Geiselhart, Roman T1 - Advances in the stability analysis of large-scale discrete-time systems T1 - Fortschritte in der Stabilitätsanalyse großskaliger zeitdiskreter Systeme N2 - Several aspects of the stability analysis of large-scale discrete-time systems are considered. An important feature is that the right-hand side does not have have to be continuous. In particular, constructive approaches to compute Lyapunov functions are derived and applied to several system classes. For large-scale systems, which are considered as an interconnection of smaller subsystems, we derive a new class of small-gain results, which do not require the subsystems to be robust in some sense. Moreover, we do not only study sufficiency of the conditions, but rather state an assumption under which these conditions are also necessary. Moreover, gain construction methods are derived for several types of aggregation, quantifying how large a prescribed set of interconnection gains can be in order that a small-gain condition holds. N2 - Es werden großskalige zeitdiskrete Systeme betrachtet, deren rechte Seite nicht als stetig angenommen wird. Konstruktive Ansätze um Lyapunovfunktionen zu berechnen werden hergeleitet und auf mehrere Systemklassen angewandt. Für großskalige Systeme, die beschrieben sind durch die Kopplung kleinerer Systeme, wird eine neue Klasse von sogenannten Small-Gain Resultaten vorgestellt, die nicht verlangt, dass die Subsysteme robust sein müssen. Zudem untersuchen wir die Notwendigkeit der geforderten Bedingungen. Zusätzlich werden Gainkonstruktionsmethoden für verschiedene Typen von Verknüpfung hergeleitet, welche quantifizieren, wie groß eine vorgegebene Menge von Kopplungsgains sein kann, so dass eine Small-Gain-Bedingung erfüllt ist. KW - Ljapunov-Funktion KW - Konstruktionsmethoden KW - Ljapunov-Stabilitätstheorie KW - Nichtlineare Funktionalgleichung Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-112963 ER -