TY - JOUR A1 - Matlach, Juliane A1 - Dhillon, Christine A1 - Hain, Johannes A1 - Schlunck, Günther A1 - Grehn, Franz A1 - Klink, Thomas T1 - Trabeculectomy versus canaloplasty (TVC study) in the treatment of patients with open-angle glaucoma: a prospective randomized clinical trial JF - Acta Ophthalmologica N2 - Purpose: To compare the outcomes of canaloplasty and trabeculectomy in open-angle glaucoma. Methods: This prospective, randomized clinical trial included 62 patients who randomly received trabeculectomy (n = 32) or canaloplasty (n = 30) and were followed up prospectively for 2 years. Primary endpoint was complete (without medication) and qualified success (with or without medication) defined as an intraocular pressure (IOP) of ≤18 mmHg (definition 1) or IOP ≤21 mmHg and ≥20% IOP reduction (definition 2), IOP ≥5 mmHg, no vision loss and no further glaucoma surgery. Secondary endpoints were the absolute IOP reduction, visual acuity, medication, complications and second surgeries. Results: Surgical treatment significantly reduced IOP in both groups (p < 0.001). Complete success was achieved in 74.2% and 39.1% (definition 1, p = 0.01), and 67.7% and 39.1% (definition 2, p = 0.04) after 2 years in the trabeculectomy and canaloplasty group, respectively. Mean absolute IOP reduction was 10.8 ± 6.9 mmHg in the trabeculectomy and 9.3 ± 5.7 mmHg in the canaloplasty group after 2 years (p = 0.47). Mean IOP was 11.5 ± 3.4 mmHg in the trabeculectomy and 14.4 ± 4.2 mmHg in the canaloplasty group after 2 years. Following trabeculectomy, complications were more frequent including hypotony (37.5%), choroidal detachment (12.5%) and elevated IOP (25.0%). Conclusions: Trabeculectomy is associated with a stronger IOP reduction and less need for medication at the cost of a higher rate of complications. If target pressure is attainable by moderate IOP reduction, canaloplasty may be considered for its relative ease of postoperative care and lack of complications. KW - months follow-up KW - surgical outcomes KW - mitomycin C KW - canaloplasty KW - open-angle glaucoma KW - trabeculectomy KW - glaucoma surgery KW - series KW - phacocanaloplasty KW - phacotrabeculectomy KW - canal surgery KW - cataract surgery KW - flexible microcatheter KW - circumferential viscodilation Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-149263 VL - 93 ER - TY - THES A1 - Hain, Johannes T1 - Valuation Algorithms for Structural Models of Financial Networks T1 - Algorithmen zur Bestimmung von Gleichgewichtslösungen in Finanzsystemen mit Kapitalverflechtung N2 - The thesis focuses on the valuation of firms in a system context where cross-holdings of the firms in liabilities and equities are allowed and, therefore, systemic risk can be modeled on a structural level. A main property of such models is that for the determination of the firm values a pricing equilibrium has to be found. While there exists a small but growing amount of research on the existence and the uniqueness of such price equilibria, the literature is still somewhat inconsistent. An example for this fact is that different authors define the underlying financial system on differing ways. Moreover, only few articles pay intense attention on procedures to find the pricing equilibria. In the existing publications, the provided algorithms mainly reflect the individual authors' particular approach to the problem. Additionally, all existing methods do have the drawback of potentially infinite runtime. For these reasons, the objects of this thesis are as follows. First, a definition of a financial system is introduced in its most general form in Chapter 2. It is shown that under a fairly mild regularity condition the financial system has a unique existing payment equilibrium. In Chapter 3, some extensions and differing definitions of financial systems that exist in literature are presented and it is shown how these models can be embedded into the general model from the proceeding chapter. Second, an overview of existing valuation algorithms to find the equilibrium is given in Chapter 4, where the existing methods are generalized and their corresponding mathematical properties are highlighted. Third, a complete new class of valuation algorithms is developed in Chapter 4 that includes the additional information whether a firm is in default or solvent under a current payment vector. This results in procedures that are able find the solution of the system in a finite number of iteration steps. In Chapter 5, the developed concepts of Chapter 4 are applied to more general financial systems where more than one seniority level of debt is present. Chapter 6 develops optimal starting vectors for non-finite algorithms and Chapter 7 compares the existing and the new developed algorithms concerning their efficiency in an extensive simulation study covering a wide range of possible settings for financial systems. N2 - Die vorliegende Dissertation hat die Unternehmensbewertung in Finanzsystemen mit Fremd- und Eigenkapitalverflechtung zum Thema. Die zentrale Eigenschaft dieser Modelle ist, dass zur Bestimmung der Firmenwerte eine Gleichgewichtslösung ermittelt werden muss. Die Zahl der Veröffentlichungen mit dem Schwerpunkt des Nachweises von Existenz- und Eindeutigkeitsaussagen der Gleichgewichte steigt zwar stetig an, allerdings ist die Fachliteratur in diesem Bereich teilweise noch sehr inkonsistent. Beispielsweise existieren je nach Autor unterschiedliche Vorgehensweisen, das zugrunde liegende Finanzsystem zu definieren. Darüber hinaus schenken nur wenige Fachartikel der Frage Beachtung, wie die Lösungsgleichgewichte genau bestimmt werden können. Zuletzt weisen die bereits entwickelten Verfahren den Nachteil auf, dass Sie womöglich unendlich viele Iterationsschritte benötigen bis die gesuchte Lösung exakt erreicht wird. Aus diesen Gründen beinhaltet die vorliegende Dissertation folgende Themen. Im ersten Schritt wird in Kapitel 2 eine möglichst allgemeine Definition eines Finanzsystems eingeführt. Es wird gezeigt dass unter nicht allzu strengen Voraussetzungen die Gleichgewichtslösung dieses Systems eindeutig bestimmt ist. In Kapitel 3 werden in der Fachliteratur zu diesem Thema zu findende Erweiterungen und abweichende Definitionen des Systems vorgestellt und wie diese in das allgemeine Modell aus dem vorherigen Kapitel eingebettet werden können. Danach wird in Kapitel 4 ein Überblick über bereits entwickelte Lösungsverfahren gegeben, wobei die existierenden Prozeduren in ihrem Vorgehen verallgemeinert und deren zugehörige mathematische Eigenschaften aufgezeigt werden. Des weiteren wird im gleichen Kapitel eine komplett neue Klasse von Lösungsverfahren entwickelt, die noch die zusätzliche Information verarbeiten, ob eine Firma für einen gegebenen Zahlungsvektor solvent oder insolvent ist. Als Folge dieses Ansatzes sind diese Algorithmen in der Lage, die exakte Gleichgewichtslösung des Systems in endlich vielen Schritten zu finden. In Kapitel 5 werden die entworfenen Konzepte dann für Finanzsysteme angewendet, in denen mehr als nur eine Schulden-Seniorität berücksichtigt wird. Kapitel 6 leitet optimale Startvektoren der nicht-endlichen Verfahren her und Kapitel 7 vergleicht die bereits existierenden und alle neu entwickelten Lösungsverfahren bezüglich ihrer Laufzeiteffizienz im Rahmen einer ausführlichen Simulationsstudie. KW - Risikomanagement KW - Finanzmathematik KW - Financial Networks KW - Counterparty Risk KW - Numerical Asset Valuation KW - Systemic Risk KW - Structrual Model KW - Unternehmensbewertung KW - Kapitalverflechtung KW - Finanzielle Netzwerke KW - Systemisches Risiko Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-128108 ER - TY - THES A1 - Aulbach, Stefan T1 - Contributions to Extreme Value Theory in Finite and Infinite Dimensions: With a Focus on Testing for Generalized Pareto Models T1 - Beiträge zur endlich- und unendlichdimensionalen Extremwerttheorie: Mit einem Schwerpunkt auf Tests auf verallgemeinerte Pareto-Modelle N2 - Extreme value theory aims at modeling extreme but rare events from a probabilistic point of view. It is well-known that so-called generalized Pareto distributions, which are briefly reviewed in Chapter 1, are the only reasonable probability distributions suited for modeling observations above a high threshold, such as waves exceeding the height of a certain dike, earthquakes having at least a certain intensity, and, after applying a simple transformation, share prices falling below some low threshold. However, there are cases for which a generalized Pareto model might fail. Therefore, Chapter 2 derives certain neighborhoods of a generalized Pareto distribution and provides several statistical tests for these neighborhoods, where the cases of observing finite dimensional data and of observing continuous functions on [0,1] are considered. By using a notation based on so-called D-norms it is shown that these tests consistently link both frameworks, the finite dimensional and the functional one. Since the derivation of the asymptotic distributions of the test statistics requires certain technical restrictions, Chapter 3 analyzes these assumptions in more detail. It provides in particular some examples of distributions that satisfy the null hypothesis and of those that do not. Since continuous copula processes are crucial tools for the functional versions of the proposed tests, it is also discussed whether those copula processes actually exist for a given set of data. Moreover, some practical advice is given how to choose the free parameters incorporated in the test statistics. Finally, a simulation study in Chapter 4 compares the in total three different test statistics with another test found in the literature that has a similar null hypothesis. This thesis ends with a short summary of the results and an outlook to further open questions. N2 - Gegenstand der Extremwerttheorie ist die wahrscheinlichkeitstheoretische Modellierung von extremen, aber seltenen Ereignissen. Es ist wohlbekannt, dass sog. verallgemeinerte Pareto-Verteilungen, die in Kapitel 1 kurz zusammengefasst werden, die einzigen Wahrscheinlichkeitsverteilungen sind, mit denen sich Überschreitungen über hohe Schwellenwerte geeignet modellieren lassen, wie z. B. Fluthöhen, die einen Deich überschreiten, Erdbeben einer gewissen Mindeststärke, oder - nach einer einfachen Transformation - Aktienkurse, die einen festen Wert unterschreiten. Jedoch gibt es auch Fälle, in denen verallgemeinerte Pareto-Modelle fehlschlagen könnten. Deswegen beschäftigt sich Kapitel 2 mit gewissen Umgebungen einer verallgemeinerten Pareto-Verteilung und leitet mehrere statistische Tests auf diese Umgebungen her. Dabei werden sowohl multivariate Daten als auch Datensätze bestehend aus stetigen Funktionen auf [0,1] betrachtet. Durch Verwendung einer Notation basierend auf sog. D-Normen wird insbesondere gezeigt, dass die vorgestellten Testverfahren beide Fälle, den multivariaten und den funktionalen, auf natürliche Weise miteinander verbinden. Da das asymptotische Verhalten dieser Tests von einigen technischen Voraussetzungen abhängt, werden diese Annahmen in Kapitel 3 detaillierter analysiert. Insbesondere werden Beispiele für Verteilungen betrachtet, die die Nullhypothese erfüllen, und solche, die das nicht tun. Aufgrund ihrer Bedeutung für die funktionale Version der Tests wird auch der Frage nachgegangen, ob sich ein Datensatz durch stetige Copula-Prozesse beschreiben lässt. Außerdem wird auf die Wahl der freien Parameter in den Teststatistiken eingegangen. Schließlich befasst sich Kapitel 4 mit den Ergebnissen einer Simulationsstudie, um die insgesamt drei Testverfahren mit einem ähnlichen Test aus der Literatur zu vergleichen. Diese Arbeit endet mit einer kurzen Zusammenfassung und einem Ausblick auf weiterführende Fragestellungen. KW - Extremwertstatistik KW - Pareto-Verteilung KW - Copula KW - Stochastischer Prozess KW - Anpassungstest KW - Extreme Value Theory KW - Generalized Pareto Distribution KW - D-Norm KW - Copula KW - Stochastic Process KW - Continuous Sample Path KW - Nonparametric Inference KW - Goodness-of-Fit Test KW - Order Statistics KW - Monte Carlo Simulation KW - Extremwerttheorie Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-127162 N1 - Details sind zu finden unter http://www.ism.ac.jp/editsec/aism/aism-permissions.html und http://www.ism.ac.jp/editsec/aism/aism-info-author.html ER - TY - THES A1 - Karl, Sabine T1 - Firm Values and Systemic Stability in Financial Networks T1 - Firmenwerte und systemisches Risiko in finanziellen Netzwerken N2 - Based on the work of Eisenberg and Noe [2001], Suzuki [2002], Elsinger [2009] and Fischer [2014], we consider a generalization of Merton's asset valuation approach where n firms are linked by cross-ownership of equities and liabilities. Each firm is assumed to have a single outstanding liability, whereas its assets consist of one system-exogenous asset, as well as system-endogenous assets comprising some fraction of other firms' equity and liability, respectively. Following Fischer [2014], one can obtain no-arbitrage prices of equity and the recovery claims of liabilities as solutions of a fixed point problem, and hence obtain no-arbitrage prices of the `firm value' of each firm, which is the value of the firm's liability plus the firm's equity. In a first step, we consider the two-firm case where explicit formulae for the no-arbitrage prices of the firm values are available (cf. Suzuki [2002]). Since firm values are derivatives of exogenous asset values, the distribution of firm values at maturity can be determined from the distribution of exogenous asset values. The Merton model and most of its known extensions do not account for the cross-ownership structure of the assets owned by the firm. Therefore the assumption of lognormally distributed exogenous assets leads to lognormally distributed firm values in such models, as the values of the liability and the equity add up to the exogenous asset's value (which has lognormal distribution by assumption). Our work therefore starts from lognormally distributed exogenous assets and reveals how cross-ownership, when correctly accounted for in the valuation process, affects the distribution of the firm value, which is not lognormal anymore. In a simulation study we examine the impact of several parameters (amount of cross-ownership of debt and equity, ratio of liabilities to expected exogenous assets value) on the differences between the distribution of firm values obtained from our model and correspondingly matched lognormal distributions. It becomes clear that the assumption of lognormally distributed firm values may lead to both over- and underestimation of the “true" firm values (within the cross-ownership model) and consequently of bankruptcy risk, too. In a second step, the bankruptcy risk of one firm within the system is analyzed in more detail in a further simulation study, revealing that the correct incorporation of cross-ownership in the valuation procedure is the more important, the tighter the cross-ownership structure between the two firms. Furthermore, depending on the considered type of cross-ownership (debt or equity), the assumption of lognormally distributed firm values is likely to result in an over- resp. underestimation of the actual probability of default. In a similar vein, we consider the Value-at-Risk (VaR) of a firm in the system, which we calculate as the negative α-quantile of the firm value at maturity minus the firm's risk neutral price in t=0, i.e. we consider the (1-α)100%-VaR of the change in firm value. If we let the cross-ownership fractions (i.e. the fraction that one firm holds of another firm's debt or equity) converge to 1 (which is the supremum of the possible values that cross-ownership fractions can take), we can prove that in a system of two firms, the lognormal model will over- resp. underestimate both univariate and bivariate probabilities of default under cross-ownership of debt only resp. cross-ownership of equity only. Furthermore, we provide a formula that allows us to check for an arbitrary scenario of cross-ownership and any non-negative distribution of exogenous assets whether the approximating lognormal model will over- or underestimate the related probability of default of a firm. In particular, any given non-negative distribution of exogenous asset values (non-degenerate in a certain sense) can be transformed into a new, “extreme" distribution of exogenous assets yielding such a low or high actual probability of default that the approximating lognormal model will over- and underestimate this risk, respectively. After this analysis of the univariate distribution of firm values under cross-ownership in a system of two firms with bivariately lognormally distributed exogenous asset values, we consider the copula of these firm values as a distribution-free measure of the dependency between these firm values. Without cross-ownership, this copula would be the Gaussian copula. Under cross-ownership, we especially consider the behaviour of the copula of firm values in the lower left and upper right corner of the unit square, and depending on the type of cross-ownership and the considered corner, we either obtain error bounds as to how good the copula of firm values under cross-ownership can be approximated with the Gaussian copula, or we see that the copula of firm values can be written as the copula of two linear combinations of exogenous asset values (note that these linear combinations are not lognormally distributed). These insights serve as a basis for our analysis of the tail dependence coefficient of firm values under cross-ownership. Under cross-ownership of debt only, firm values remain upper tail independent, whereas they become perfectly lower tail dependent if the correlation between exogenous asset values exceeds a certain positive threshold, which does not depend on the exact level of cross-ownership. Under cross-ownership of equity only, the situation is reverse in that firm values always remain lower tail independent, but upper tail independence is preserved if and only if the right tail behaviour of both firms’ values is determined by the right tail behaviour of the firms’ own exogenous asset value instead of the respective other firm’s exogenous asset value. Next, we return to systems of n≥2 firms and analyze sensitivities of no-arbitrage prices of equity and the recovery claims of liabilities with respect to the model parameters. In the literature, such sensitivities are provided with respect to exogenous asset values by Gouriéroux et al. [2012], and we extend the existing results by considering how these no-arbitrage prices depend on the cross-ownership fractions and the level of liabilities. For the former, we can show that all prices are non-decreasing in any cross-ownership fraction in the model, and by use of a version of the Implicit Function Theorem we can also determine exact derivatives. For the latter, we show that the recovery value of debt and the equity value of a firm are non-decreasing and non-increasing in the firm's nominal level of liabilities, respectively, but the firm value is in general not monotone in the firm's level of liabilities. Furthermore, no-arbitrage prices of equity and the recovery claims of liabilities of a firm are in general non-monotone in the nominal level of liabilities of other firms in the system. If we confine ourselves to one type of cross-ownership (i.e. debt or equity), we can derive more precise relationships. All the results can be transferred to risk-neutral prices before maturity. Finally, following Gouriéroux et al. [2012] and as a kind of extension to the above sensitivity results, we consider how immediate changes in exogenous asset values of one or more firms at maturity affect the financial health of a system of n initially solvent firms. We start with some theoretical considerations on what we call the contagion effect, namely the change in the endogenous asset value of a firm caused by shocks on the exogenous assets of firms within the system. For the two-firm case, an explicit formula is available, making clear that in general (and in particular under cross-ownership of equity only), the effect of contagion can be positive as well as negative, i.e. it can both, mitigate and exacerbate the change in the exogenous asset value of a firm. On the other hand, we cannot generally say that a tighter cross-ownership structure leads to bigger absolute contagion effects. Under cross-ownership of debt only, firms cannot profit from positive shocks beyond the direct effect on exogenous assets, as the contagion effect is always non-positive. Next, we are concerned with spillover effects of negative shocks on a subset of firms to other firms in the system (experiencing non-negative shocks themselves), driving them into default due to large losses in their endogenous asset values. Extending the results of Glasserman and Young [2015], we provide a necessary condition for the shock to cause such an event. This also yields an upper bound for the probability of such an event. We further investigate how the stability of a system of firms exposed to multiple shocks depends on the model parameters in a simulation study. In doing so, we consider three network types (incomplete, core-periphery and ring network) with simultaneous shocks on some of the firms and wiping out a certain percentage of their exogenous assets. Then we analyze for all three types of cross-ownership (debt only, equity only, both debt and equity) how the shock intensity, the shock size, and network parameters as the number of links in the network and the proportion of a firm's debt or equity held within the system of firms influences several output parameters, comprising the total number of defaults and the relative loss in the sum of firm values, among others. Comparing our results to the studies of Nier et al. [2007], Gai and Kapadia [2010] and Elliott et al. [2014], we can only partly confirm their results with respect to the number of defaults. We conclude our work with a theoretical comparison of the complete network (where each firm holds a part of any other firm) and the ring network with respect to the number of defaults caused by a shock on a single firm, as it is done by Allen and Gale [2000]. In line with the literature, we find that under cross-ownership of debt only, complete networks are “robust yet fragile" [Gai and Kapadia, 2010] in that moderate shocks can be completely withstood or drive the firm directly hit by the shock in default, but as soon as the shock exceeds a certain size, all firms are simultaneously in default. In contrast to that, firms default one by one in the ring network, with the first “contagious default" (i.e. a default of a firm not directly hit by the shock) already occurs for smaller shock sizes than under the complete network. N2 - Basierend auf den Arbeiten von Eisenberg und Noe [2001], Suzuki [2002], Elsinger [2009] und Fischer [2014] wird ein Netzwerk aus n≥2 Firmen betrachtet, die über Fremd- und/oder Eigenkapitalverflechtungen miteinander verbunden sind. Dabei wird angenommen, dass jede Firma eine Klasse von exogenen Assets sowie eine Klasse von Schulden mit Fälligkeitszeitpunkt T besitzt. Der Wert der Schulden und des Eigenkapitals jeder Firma zum Fälligkeitszeitpunkt kann dann mit Hilfe des Fixpunktalgorithmus von Fischer [2014] bestimmt werden, was auch den ‚Firmenwert‘ (Gesamtwert der Assets einer Firma) liefert. Ausgehend von lognormalverteilten Assetwerten wird in einer Simulationsstudie für den Zwei-Firmen-Fall die Verteilung des Firmenwerts mit einer angepassten Lognormalverteilung verglichen, ebenso die daraus resultierenden Ausfallwahrscheinlichkeiten. Für extrem hohe Verflechtungsgrade werden theoretische Ergebnisse bezüglich Über- und Unterschätzung der tatsächlichen Ausfallwahrscheinlichkeit durch die Lognormalverteilung hergeleitet. Anschließend wird der lower und upper tail dependence coefficient der Firmenwerte zweier Firmen bei ausschließlich Fremd- bzw. Eigenkapitalverflechtungen bestimmt. Für Netzwerke beliebiger Größe wird nach einer Sensitivitätsanalyse des Werts der Schulden, des Werts des Eigenkapitals und des Firmenwerts in Abhängigkeit der vorliegenden Verflechtungsgrade und des nominellen Schuldenwerts untersucht, unter welchen Bedingungen sich Schocks auf die exogenen Assetwerte einer oder mehrerer Firmen innerhalb des Netzwerks verbreiten und möglicherweise zum Ausfall anderer, nicht direkt vom Schock betroffenen Firmen im System führen. KW - Finanzmathematik KW - Systemisches Risiko KW - finanzielles Netzwerk KW - Kapitalverflechtungen KW - cross-ownership KW - financial network KW - systemic risk KW - structural model KW - firm valuation KW - Firmwert Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-115739 ER - TY - THES A1 - Böhm, Christoph T1 - Loewner equations in multiply connected domains T1 - Loewner Gleichungen für mehrfach zusammenhängende Gebiete N2 - The first goal of this thesis is to generalize Loewner's famous differential equation to multiply connected domains. The resulting differential equations are known as Komatu--Loewner differential equations. We discuss Komatu--Loewner equations for canonical domains (circular slit disks, circular slit annuli and parallel slit half-planes). Additionally, we give a generalisation to several slits and discuss parametrisations that lead to constant coefficients. Moreover, we compare Komatu--Loewner equations with several slits to single slit Loewner equations. Finally we generalise Komatu--Loewner equations to hulls satisfying a local growth property. N2 - Zunächst diskutieren wir eine Verallgemeinerung der radialen und chordalen Loewner Differentialgleichung auf mehrfach zusammenhängende Standardgebiete (Kreisschlitzgebiete, Kreisringschlitzgebiete, parallel Schlitz-Halbebenen). Diese Differentialgleichungen werden Komatu-Loewner Differentialgleichungen bezeichnet. Wir verallgemeinern diese auch auf mehrere Schlitze und zeigen, dass es Parametrisierungen gibt, die zu konstanten Koeffizienten führen. Zusätzlich vergleichen wir Komatu-Loewner Gleichungen für mehrere Schlitze mit Loewner Gleichungen im Einschlitzfall. Schließlich untersuchen wir den Fall von allgemeineren Wachstumsprozessen, die dadurch charakterisiert sind, dass nur ein "lokaler Zuwachs" möglich ist. KW - Biholomorphe Abbildung KW - Differentialgleichung KW - Loewner-Theorie KW - Loewner theory Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-129903 ER - TY - THES A1 - Wurst, Jan-Eric T1 - Hp-Finite Elements for PDE-Constrained Optimization N2 - Diese Arbeit behandelt die hp-Finite Elemente Methode (FEM) für linear quadratische Optimal-steuerungsprobleme. Dabei soll ein Zielfunktional, welches die Entfernung zu einem angestrebten Zustand und hohe Steuerungskosten (als Regularisierung) bestraft, unter der Nebenbedingung einer elliptischen partiellen Differentialgleichung minimiert werden. Bei der Anwesenheit von Steuerungsbeschränkungen können die notwendigen Bedingungen erster Ordnung, die typischerweise für numerische Lösungsverfahren genutzt werden, als halbglatte Projektionsformel formuliert werden. Folglich sind optimale Lösungen oftmals auch nicht-glatt. Die Technik der hp-Diskretisierung berücksichtigt diese Tatsache und approximiert raue Funktionen auf feinen Gittern, während Elemente höherer Ordnung auf Gebieten verwendet werden, auf denen die Lösung glatt ist. Die erste Leistung dieser Arbeit ist die erfolgreiche Anwendung der hp-FEM auf zwei verwandte Problemklassen: Neumann- und Interface-Steuerungsprobleme. Diese werden zunächst mit entsprechenden a-priori Verfeinerungsstrategien gelöst, mit der randkonzentrierten (bc) FEM oder interface konzentrierten (ic) FEM. Diese Strategien generieren Gitter, die stark in Richtung des Randes beziehungsweise des Interfaces verfeinert werden. Um für beide Techniken eine algebraische Reduktion des Approximationsfehlers zu beweisen, wird eine elementweise interpolierende Funktion konstruiert. Außerdem werden die lokale und globale Regularität von Lösungen behandelt, weil sie entscheidend für die Konvergenzgeschwindigkeit ist. Da die bc- und ic- FEM kleine Polynomgrade für Elemente verwenden, die den Rand beziehungsweise das Interface berühren, können eine neue L2- und L∞-Fehlerabschätzung hergeleitet werden. Letztere bildet die Grundlage für eine a-priori Strategie zum Aufdatieren des Regularisierungsparameters im Zielfunktional, um Probleme mit bang-bang Charakter zu lösen. Zudem wird die herkömmliche hp-Idee, die daraus besteht das Gitter geometrisch in Richtung der Ecken des Gebiets abzustufen, auf die Lösung von Optimalsteuerungsproblemen übertragen (vc-FEM). Es gelingt, Regularität in abzählbar normierten Räumen für die Variablen des gekoppelten Optimalitätssystems zu zeigen. Hieraus resultiert die exponentielle Konvergenz im Bezug auf die Anzahl der Freiheitsgrade. Die zweite Leistung dieser Arbeit ist die Entwicklung einer völlig adaptiven hp-Innere-Punkte-Methode, die Probleme mit verteilter oder Neumann Steuerung lösen kann. Das zugrundeliegende Barriereproblem besitzt ein nichtlineares Optimilitätssystem, das eine numerische Herausforderung beinhaltet: die stabile Berechnung von Integralen über Funktionen mit möglichen Singularitäten in Elementen höherer Ordnung. Dieses Problem wird dadurch gelöst, dass die Steuerung an den Integrationspunkten überwacht wird. Die Zulässigkeit an diesen Punkten wird durch einen Glättungsschritt garantiert. In dieser Arbeit werden sowohl die Konvergenz eines Innere-Punkte-Verfahrens mit Glättungsschritt als auch a-posteriori Schranken für den Diskretisierungsfehler gezeigt. Dies führt zu einem adaptiven Lösungsalgorithmus, dessen Gitterverfeinerung auf der Entwicklung der Lösung in eine Legendre Reihe basiert. Hierbei dient das Abklingverhalten der Koeffizienten als Glattheitsindikator und wird für die Entscheidung zwischen h- und p-Verfeinerung herangezogen. N2 - This thesis deals with the hp-finite element method (FEM) for linear quadratic optimal control problems. Here, a tracking type functional with control costs as regularization shall be minimized subject to an elliptic partial differential equation. In the presence of control constraints, the first order necessary conditions, which are typically used to find optimal solutions numerically, can be formulated as a semi-smooth projection formula. Consequently, optimal solutions may be non-smooth as well. The hp-discretization technique considers this fact and approximates rough functions on fine meshes while using higher order finite elements on domains where the solution is smooth. The first main achievement of this thesis is the successful application of hp-FEM to two related problem classes: Neumann boundary and interface control problems. They are solved with an a-priori refinement strategy called boundary concentrated (bc) FEM and interface concentrated (ic) FEM, respectively. These strategies generate grids that are heavily refined towards the boundary or interface. We construct an elementwise interpolant that allows to prove algebraic decay of the approximation error for both techniques. Additionally, a detailed analysis of global and local regularity of solutions, which is critical for the speed of convergence, is included. Since the bc- and ic-FEM retain small polynomial degrees for elements touching the boundary and interface, respectively, we are able to deduce novel error estimates in the L2- and L∞-norm. The latter allows an a-priori strategy for updating the regularization parameter in the objective functional to solve bang-bang problems. Furthermore, we apply the traditional idea of the hp-FEM, i.e., grading the mesh geometrically towards vertices of the domain, for solving optimal control problems (vc-FEM). In doing so, we obtain exponential convergence with respect to the number of unknowns. This is proved with a regularity result in countably normed spaces for the variables of the coupled optimality system. The second main achievement of this thesis is the development of a fully adaptive hp-interior point method that can solve problems with distributed or Neumann control. The underlying barrier problem yields a non-linear optimality system, which poses a numerical challenge: the numerically stable evaluation of integrals over possibly singular functions in higher order elements. We successfully overcome this difficulty by monitoring the control variable at the integration points and enforcing feasibility in an additional smoothing step. In this work, we prove convergence of an interior point method with smoothing step and derive a-posteriori error estimators. The adaptive mesh refinement is based on the expansion of the solution in a Legendre series. The decay of the coefficients serves as an indicator for smoothness that guides between h- and p-refinement. KW - Finite-Elemente-Methode KW - Optimale Kontrolle KW - Elliptische Differentialgleichung KW - finite elements KW - optimal control KW - higher order methods KW - partial differetial equations Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-115027 SN - 978-3-95826-024-5 (print) SN - 978-3-95826-025-2 (online) PB - Würzburg University Press CY - Würzburg ER - TY - THES A1 - Bauer, Ulrich Josef T1 - Conformal Mappings onto Simply and Multiply Connected Circular Arc Polygon Domains T1 - Konforme Abbildungen auf einfach und mehrfach zusammenhängende Zirkularpolygongebiete N2 - The goal of this thesis is to investigate conformal mappings onto circular arc polygon domains, i.e. domains that are bounded by polygons consisting of circular arcs instead of line segments. Conformal mappings onto circular arc polygon domains contain parameters in addition to the classical parameters of the Schwarz-Christoffel transformation. To contribute to the parameter problem of conformal mappings from the unit disk onto circular arc polygon domains, we investigate two special cases of these mappings. In the first case we can describe the additional parameters if the bounding circular arc polygon is a polygon with straight sides. In the second case we provide an approximation for the additional parameters if the circular arc polygon domain satisfies some symmetry conditions. These results allow us to draw conclusions on the connection between these additional parameters and the classical parameters of the mapping. For conformal mappings onto multiply connected circular arc polygon domains, we provide an alternative construction of the mapping formula without using the Schottky-Klein prime function. In the process of constructing our main result, mappings for domains of connectivity three or greater, we also provide a formula for conformal mappings onto doubly connected circular arc polygon domains. The comparison of these mapping formulas with already known mappings allows us to provide values for some of the parameters of the mappings onto doubly connected circular arc polygon domains if the image domain is a polygonal domain. The different components of the mapping formula are constructed by using a slightly modified variant of the Poincaré theta series. This construction includes the design of a function to remove unwanted poles and of different versions of functions that are analytic on the domain of definition of the mapping functions and satisfy some special functional equations. We also provide the necessary concepts to numerically evaluate the conformal mappings onto multiply connected circular arc polygon domains. As the evaluation of such a map requires the solution of a differential equation, we provide a possible configuration of curves inside the preimage domain to solve the equation along them in addition to a description of the procedure for computing either the formula for the doubly connected case or the case of connectivity three or greater. We also describe the procedures for solving the parameter problem for multiply connected circular arc polygon domains. N2 - Das Ziel dieser Arbeit ist die Untersuchung von konformen Abbildungen auf Zirkularpolygongebiete, d.h. Gebiete, die von Polygonen berandet werden, die sich aus Kreisbögen statt Geradenstücken zusammensetzen. Konforme Abbildungen auf Zirkularpolygongebiete enthalten Parameter zusätzlich zu den klassischen Parametern der Schwarz-Christoffel-Transformation. Um zum Parameterproblem der konformen Abbildungen der Einheitskreisscheibe auf Zirkularpolygongebiete beizutragen, werden zwei Spezialfälle dieser Abbildungen untersucht. Im ersten Fall können die zusätzlichen Parameter angeben werden, falls das berandende Zirkularpolygon ein Polygon mit geraden Seiten ist. Im zweiten Fall wird eine Approximation für die zusätzlichen Parameter angegeben, falls das Zirkularpolygongebiet gewisse Symmetriebedingungen erfüllt. Diese Ergebnisse erlauben es Schlüsse zu ziehen in Bezug auf die Verbindung zwischen den zusätzlichen Parametern und den klassischen Parametern der Abbildung. Für Konforme Abbildungen auf mehrfach zusammenhängende Zirkularpolygongebiete wird eine alternative Konstruktion der Abbildungsformel angegeben, welche nicht die "Schottky-Klein prime function" verwendet. Während der Konstruktion des Hauptergebnisses, der Abbildungsformel für Gebiete mit einem Zusammenhang von drei oder mehr, wird auch eine Formel für die konformen Abbildungen auf zweifach zusammenhängende Zirkularpolygongebiete angegeben. Der Vergleich dieser Abbildungsformeln mit bereits bekannten Abbildungen erlaubt es Werte für einige der Parameter der Abbildungen auf zweifach zusammenhängende Zirkularpolygongebiete anzugeben, falls das Bildgebiet ein Polygonalgebiet ist. Die unterschiedlichen Komponenten der Abbildungsformel sind unter Verwendung einer leicht modifizierten Form der Poincaré-Theta-Reihe konstruiert. Diese Konstruktion enthält die Gestaltung einer Funktion um unerwünschte Polstellen zu entfernen und von unterschiedlichen Versionen von Funktionen, die analytisch auf dem Definitionsgebiet der Abbildungsfunktion sind und spezielle Funktionalgleichungen erfüllen. Es werden auch die notwendigen Konzepte angegeben um die konformen Abbildungen auf mehrfach zusammenhängende Zirkularpolygongebiete numerisch auszuwerten. Prozedurbeschreibungen für die Berechnung der Formel für zweifach zusammenhängende Bildgebiete und für den Fall eines Zusammenhangs von drei oder mehr werden angegeben. Da für das Auswerten solcher Abbildungen das Lösen einer Differentialgleichung notwendig ist, werden mögliche Konfigurationen von Kurven im Urbildgebiet angegeben, an denen entlang die Gleichung gelöst werden kann. Es werden weiterhin Prozeduren beschrieben um das Parameterproblem für mehrfach zusammenhängende Zirkularpolygongebiete zu lösen. KW - Konforme Abbildungen KW - conformal mapping KW - circular arc polygon domain KW - multiply connected domain Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-123914 ER - TY - THES A1 - Lurz, Kristina T1 - Confidence and Prediction under Covariates and Prior Information T1 - Konfidenz- und Prognoseintervalle unter Kovariaten und Vorinformation N2 - The purpose of confidence and prediction intervals is to provide an interval estimation for an unknown distribution parameter or the future value of a phenomenon. In many applications, prior knowledge about the distribution parameter is available, but rarely made use of, unless in a Bayesian framework. This thesis provides exact frequentist confidence intervals of minimal volume exploiting prior information. The scheme is applied to distribution parameters of the binomial and the Poisson distribution. The Bayesian approach to obtain intervals on a distribution parameter in form of credibility intervals is considered, with particular emphasis on the binomial distribution. An application of interval estimation is found in auditing, where two-sided intervals of Stringer type are meant to contain the mean of a zero-inflated population. In the context of time series analysis, covariates are supposed to improve the prediction of future values. Exponential smoothing with covariates as an extension of the popular forecasting method exponential smoothing is considered in this thesis. A double-seasonality version of it is applied to forecast hourly electricity load under the use of meteorological covariates. Different kinds of prediction intervals for exponential smoothing with covariates are formulated. N2 - Konfidenz- und Prognoseintervalle dienen der Intervallschätzung unbekannter Verteilungsparameter und künftiger Werte eines Phänomens. In vielen Anwendungen steht Vorinformation über einen Verteilungsparameter zur Verfügung, doch nur selten wird außerhalb von bayesscher Statistik davon Gebrauch gemacht. In dieser Dissertation werden exakte frequentistische Konfidenzintervalle unter Vorinformation kleinsten Volumens dargelegt. Das Schema wird auf Verteilungsparameter für die Binomial- und die Poissonverteilung angewandt. Der bayessche Ansatz von Intervallen für Verteilungsparameter wird in Form von Vertrauensintervallen behandelt, mit Fokus auf die Binomialverteilung. Anwendung findet Intervallschätzung in der Wirtschaftsprüfung, wo zweiseitige Intervalle vom Stringer-Typ den Mittelwert in Grundgesamtheiten mit vielen Nullern enthalten sollen. Im Zusammenhang mit Zeitreihenanalyse dienen Kovariaten der Verbesserung von Vorhersagen zukünftiger Werte. Diese Arbeit beschäftigt sich mit exponentieller Glättung mit Kovariaten als eine Erweiterung der gängigen Prognosemethode der exponentiellen Glättung. Eine Version des Modells, welche doppelte Saison berücksichtigt, wird in der Prognose des stündlichen Elektrizitätsbedarfs unter Zuhilfenahme von meteorologischen Variablen eingesetzt. Verschiedene Arten von Prognoseintervallen für exponentielle Glättung mit Kovariaten werden beschrieben. KW - Konfidenzintervall KW - A-priori-Wissen KW - Binomialverteilung KW - Exponential smoothing KW - Prognose KW - Zero-inflation KW - Audit sampling KW - Credibility interval KW - Prediction interval KW - Exponential smoothing with covariates Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-122748 ER - TY - THES A1 - Schäffner, Mathias T1 - Multiscale analysis of non-convex discrete systems via \(\Gamma\)-convergence T1 - Mehrskalenanalyse von nicht-konvexen diskreten Systemen mittels \(\Gamma\)-Konvergenz N2 - The subject of this thesis is the rigorous passage from discrete systems to continuum models via variational methods. The first part of this work studies a discrete model describing a one-dimensional chain of atoms with finite range interactions of Lennard-Jones type. We derive an expansion of the ground state energy using \(\Gamma\)-convergence. In particular, we show that a variant of the Cauchy-Born rule holds true for the model under consideration. We exploit this observation to derive boundary layer energies due to asymmetries of the lattice at the boundary or at cracks of the specimen. Hereby we extend several results obtained previously for models involving only nearest and next-to-nearest neighbour interactions by Braides and Cicalese and Scardia, Schlömerkemper and Zanini. The second part of this thesis is devoted to the analysis of a quasi-continuum (QC) method. To this end, we consider the discrete model studied in the first part of this thesis as the fully atomistic model problem and construct an approximation based on a QC method. We show that in an elastic setting the expansion by \(\Gamma\)-convergence of the fully atomistic energy and its QC approximation coincide. In the case of fracture, we show that this is not true in general. In the case of only nearest and next-to-nearest neighbour interactions, we give sufficient conditions on the QC approximation such that, also in case of fracture, the minimal energies of the fully atomistic energy and its approximation coincide in the limit. N2 - Der Gegenstand dieser Doktorarbeit ist der mathematisch strenge Übergang von diskreten Systemen zu kontinuierlichen Modellen. Im ersten Teil der Arbeit betrachten wir ein diskretes Modell für eine Kette von Atomen welche durch Lennard-Jones-artige Potentiale mit endlicher Reichweite miteinander wechselwirken. Wir leiten eine Entwicklung der Energie des Grundzustands mittels \(\Gamma\)-Konvergenz her. Dabei zeigen wir zunächst die Gültigkeit einer Variante der sogenannten Cauchy-Born Regel für unser Modell. Diese Beobachtung benutzen wir um Oberflächenenergien herzuleiten. Diese entstehen zum einen am Rand der Kette, aber auch an den Oberflächen die durch Brüche im kontinuierlichem Material gebildet werden. Dabei werden einige Resultate verallgemeinert, welche von Braides und Cicalese bzw. Scardia, Schlömerkemper und Zanini für Modelle bewiesen wurden in denen nur nächste und übernächste Nachbarn wechselwirken. Im zweiten Teil der Arbeit widmen wir uns der Untersuchung einer Quasi-continuum (QC) Methode. Wir betrachten die Energie aus dem ersten Teil als atomistisches Modellproblem und konstruieren eine Annäherung dieser Energie durch eine QC Methode. Im Falle von elastischen Verhalten zeigen wir, dass die Entwicklung mittels \(\Gamma\)-Konvergenz der atomistischen Energie und ihrer QC Approximation übereinstimmen. Falls allerdings Brüche auftreten gilt dies im Allgemeinen nicht mehr. Für Modelle in denen nur nächste und übernächste Nachbarn miteinander wechselwirken leiten wir hinreichende Bedingungen her die, auch im Falle von Brüchen, garantieren, dass das Minimum der atomistischen Energie und das Minimum der QC Approximation den gleichen Grenzwert haben. KW - Gamma-Konvergenz KW - gamma-convergence KW - discrete-to-continuum KW - quasi-continuum KW - fracture Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-122349 ER - TY - THES A1 - Bauer, Andreas T1 - Argumentieren mit multiplen und dynamischen Repräsentationen T1 - Reasoning with multiple and dynamic representations N2 - Der Einzug des Rechners in den Mathematikunterricht hat eine Vielzahl neuer Möglichkeiten der Darstellung mit sich gebracht, darunter auch multiple, dynamisch verbundene Repräsentationen mathematischer Probleme. Die Arbeit beantwortet die Frage, ob und wie diese Repräsentationsarten von Schülerinnen und Schüler in Argumentationen genutzt werden. In der empirischen Untersuchung wurde dabei einerseits quantitativ erforscht, wie groß der Einfluss der in der Aufgabenstellung gegebenen Repräsentationsform auf die schriftliche Argumentationen der Schülerinnen und Schüler ist. Andererseits wurden durch eine qualitative Analyse spezifische Nutzungsweisen identifiziert und mittels Toulmins Argumentationsmodell beschrieben. Diese Erkenntnisse wurden genutzt, um Konsequenzen bezüglich der Verwendung von multiplen und/oder dynamischen Repräsentationen im Mathematikunterricht der Sekundarstufe zu formulieren. KW - Argumentation KW - Mathematikunterricht KW - Sekundarstufe KW - Neue Medien KW - Multiple Repräsentationen KW - Dynamische Repräsentation KW - Multiple representations KW - Dynamic representations KW - Teaching KW - new media Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-112114 SN - 978-3-95826-022-1 (print) SN - 978-3-95826-023-8 (online) PB - Würzburg University Press CY - Würzburg ER - TY - THES A1 - Wongkaew, Suttida T1 - On the control through leadership of multi-agent systems T1 - Die Steuerung durch den Hauptagent von Multi-Agenten -Systemen N2 - The investigation of interacting multi-agent models is a new field of mathematical research with application to the study of behavior in groups of animals or community of people. One interesting feature of multi-agent systems is collective behavior. From the mathematical point of view, one of the challenging issues considering with these dynamical models is development of control mechanisms that are able to influence the time evolution of these systems. In this thesis, we focus on the study of controllability, stabilization and optimal control problems for multi-agent systems considering three models as follows: The first one is the Hegselmann Krause opinion formation (HK) model. The HK dynamics describes how individuals' opinions are changed by the interaction with others taking place in a bounded domain of confidence. The study of this model focuses on determining feedback controls in order to drive the agents' opinions to reach a desired agreement. The second model is the Heider social balance (HB) model. The HB dynamics explains the evolution of relationships in a social network. One purpose of studying this system is the construction of control function in oder to steer the relationship to reach a friendship state. The third model that we discuss is a flocking model describing collective motion observed in biological systems. The flocking model under consideration includes self-propelling, friction, attraction, repulsion, and alignment features. We investigate a control for steering the flocking system to track a desired trajectory. Common to all these systems is our strategy to add a leader agent that interacts with all other members of the system and includes the control mechanism. Our control through leadership approach is developed using classical theoretical control methods and a model predictive control (MPC) scheme. To apply the former method, for each model the stability of the corresponding linearized system near consensus is investigated. Further, local controllability is examined. However, only in the Hegselmann-Krause opinion formation model, the feedback control is determined in order to steer agents' opinions to globally converge to a desired agreement. The MPC approach is an optimal control strategy based on numerical optimization. To apply the MPC scheme, optimal control problems for each model are formulated where the objective functions are different depending on the desired objective of the problem. The first-oder necessary optimality conditions for each problem are presented. Moreover for the numerical treatment, a sequence of open-loop discrete optimality systems is solved by accurate Runge-Kutta schemes, and in the optimization procedure, a nonlinear conjugate gradient solver is implemented. Finally, numerical experiments are performed to investigate the properties of the multi-agent models and demonstrate the ability of the proposed control strategies to drive multi-agent systems to attain a desired consensus and to track a given trajectory. N2 - Die Untersuchung von interagierende Multiagent-Modellen ist ein neues mathematisches Forschungsfeld, das sich mit dem Gruppenverhalten von Tieren beziehungsweise Sozialverhalten von Menschen. Eine interessante Eigenschaft der Multiagentensysteme ist kollektives Verhalten. Eine der herausfordernden Themen, die sich mit diesen dynamischen Modellen befassen, ist in der mathematischen Sicht eine Entwicklung der Regelungsmechanismen, die die Zeitevolution dieser Systemen beeinflussen können. In der Doktorarbeit fokussieren wir uns hauptsächlich auf die Studie von Problemen der Steuerbarkeit, Stabilität und optimalen Regelung für Multiagentensysteme anhand drei Modellen wie folgt: Das erste ist die Hegselmann- Krause opinion formation Modell. Die HK-Dynamik beschreibt die Änderung der Meinungen von einzelnen Personen aufgrund der Interaktionen mit den Anderen. Die Studie dieses Model fokussiert auf bestimmte Regelungen, um die Meinungen der Agenten zu betreiben, damit eine gewünschte Zustimmung erreicht wird. Das zweite Model ist das Heider social balance (HB) Modell. Die HB-Dynamik beschreibt die Evolution von Beziehungen in einem sozialen Netzwerk. Ein Ziel der Untersuchung dieses Systems ist die Konstruktion der Regelungsfunktion um die Beziehungen zu steuern, damit eine Freundschaft erreicht wird. Das dritte Modell ist ein Schar-Modell, das in biologischen Systemen beobachteten kollektive Bewegung beschreibt. Das Schar-Model unter Berücksichtigung beinhaltet Selbstantrieb, Friktion, Attraktion Repulsion und Anpassungsfähigkeiten. Wir untersuchen einen Regler für die Steuerung des Schar-Systems, um eine gewünschte Trajektorie zu verfolgen. Üblich wie alle dieser Systeme soll laut unsere Strategie ein Hauptagent, der sich mit alle anderen Mitgliedern des Systems interagieren, hinzugefügt werden und das Regelungsmechanismus inkludiert werden. Unserer Regelung anhand dem Vorgehen mit Führungsverhalten ist unter Verwendung von klassischen theoretischen Regelungsmethode und ein Schema der modellpr ädiktiven Regelung entwickelt. Zur Ausführung der genannten Methode wird für jedes Modell die Stabilität der korrespondierenden Linearsystem in der Nähe von Konsensus untersucht. Ferner wird die lokale Regelbarkeit geprüft. Nur in dem Hegselmann-Krause opinion formation Modell. Der Regler wird so bestimmt, dass die Meinungen der Agenten gesteuert werden können. Dadurch konvergiert es global zu eine gewünschten Zustimmung. Die MPC-Vorgehensweise ist eine optimale Regelung Strategie, die auf numerische Optimierung basiert. Zu Verwendung des MPC-Shema werden die optimalen Regelungsproblemen für jedes Modell formuliert, wo sich die objektive Funktionen in Abhängigkeit von den gewünschten objective des Problems unterscheidet. Die erforderliche Optimalitätsbedingungen erster Ordnung für jedes Problem sind präsentiert. Auÿerdem für die numerische Prozess, eine Sequenz von offenen diskreten Optimalitätssystemen ist nach dem expliziten Runge-Kutta Schema gelöst. In dem Optimierungsverfahren ist ein nicht linear konjugierter Gradientlöser umgesetzt. Schlieÿlich sind numerische Experimenten in der Lage, die Eigenschaften der Multiagent-Modellen zu untersuchen und die Fähigkeiten der gezielten Regelstrategie zu beweisen. Die Strategie nutzt zu betreiben Multiagentensysteme, um einen gewünschten Konsensus zu erreichen und eine gegebene Trajektorie zu verfolgen. KW - Controllability KW - Optimal control problem KW - Multi-agent systems KW - Mehragentensystem KW - Optimale Kontrolle Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-120914 ER - TY - THES A1 - Ciaramella, Gabriele T1 - Exact and non-smooth control of quantum spin systems T1 - Exakte und nicht-glatte Kontrolle von Quanten-Spin-Systemen N2 - An efficient and accurate computational framework for solving control problems governed by quantum spin systems is presented. Spin systems are extremely important in modern quantum technologies such as nuclear magnetic resonance spectroscopy, quantum imaging and quantum computing. In these applications, two classes of quantum control problems arise: optimal control problems and exact-controllability problems, with a bilinear con- trol structure. These models correspond to the Schrödinger-Pauli equation, describing the time evolution of a spinor, and the Liouville-von Neumann master equation, describing the time evolution of a spinor and a density operator. This thesis focuses on quantum control problems governed by these models. An appropriate definition of the optimiza- tion objectives and of the admissible set of control functions allows to construct controls with specific properties. These properties are in general required by the physics and the technologies involved in quantum control applications. A main purpose of this work is to address non-differentiable quantum control problems. For this reason, a computational framework is developed to address optimal-control prob- lems, with possibly L1 -penalization term in the cost-functional, and exact-controllability problems. In both cases the set of admissible control functions is a subset of a Hilbert space. The bilinear control structure of the quantum model, the L1 -penalization term and the control constraints generate high non-linearities that make difficult to solve and analyse the corresponding control problems. The first part of this thesis focuses on the physical description of the spin of particles and of the magnetic resonance phenomenon. Afterwards, the controlled Schrödinger- Pauli equation and the Liouville-von Neumann master equation are discussed. These equations, like many other controlled quantum models, can be represented by dynamical systems with a bilinear control structure. In the second part of this thesis, theoretical investigations of optimal control problems, with a possible L1 -penalization term in the objective and control constraints, are consid- ered. In particular, existence of solutions, optimality conditions, and regularity properties of the optimal controls are discussed. In order to solve these optimal control problems, semi-smooth Newton methods are developed and proved to be superlinear convergent. The main difficulty in the implementation of a Newton method for optimal control prob- lems comes from the dimension of the Jacobian operator. In a discrete form, the Jacobian is a very large matrix, and this fact makes its construction infeasible from a practical point of view. For this reason, the focus of this work is on inexact Krylov-Newton methods, that combine the Newton method with Krylov iterative solvers for linear systems, and allows to avoid the construction of the discrete Jacobian. In the third part of this thesis, two methodologies for the exact-controllability of quan- tum spin systems are presented. The first method consists of a continuation technique, while the second method is based on a particular reformulation of the exact-control prob- lem. Both these methodologies address minimum L2 -norm exact-controllability problems. In the fourth part, the thesis focuses on the numerical analysis of quantum con- trol problems. In particular, the modified Crank-Nicolson scheme as an adequate time discretization of the Schrödinger equation is discussed, the first-discretize-then-optimize strategy is used to obtain a discrete reduced gradient formula for the differentiable part of the optimization objective, and implementation details and globalization strategies to guarantee an adequate numerical behaviour of semi-smooth Newton methods are treated. In the last part of this work, several numerical experiments are performed to vali- date the theoretical results and demonstrate the ability of the proposed computational framework to solve quantum spin control problems. N2 - Effiziente und genaue Methoden zum Lösen von Kontrollproblemen, die durch Quantum- Spin-Systemen gesteuert werden, werden vorgestellt. Spin-Systeme sind in moderner Quantentechnologie wie Kernspinresonanzspektroskopie, Quantenbildgebung und Quan- tencomputern äußerst wichtig. In diesen Anwendungen treten zwei Arten von Quan- tenkontrollproblemen auf: Optimalsteuerungsprobleme und Exaktsteuerungsprobleme beide mit einer bilinearen Kontrollstruktur. Diese Modelle entsprechen der Schrödinger- Pauli-Gleichung, die die Zeitentwicklung eines Spinors beschreibt, und der Liouville-von- Neumann-Mastergleichung, die die Zeitentwicklung eines Spinors und eines Dichteoper- ators beschreibt. Diese Arbeit konzentriert sich auf Quantenkontrollprobleme, die durch diese Modelle beschrieben werden. Eine entsprechende Definition des Optimierungsziels und der zulässigen Menge von Kontrollfunktionen erlaubt die Konstruktion von Steuerun- gen mit speziellen Eigenschaften. Diese Eigenschaften werden im Allgemeinen von der Physik und der in Quantenkontrolle verwendeten Technologie gefordert. Ein Hauptziel diser Arbeit ist die Untersuchung nicht-differenzierbarer Quantenkon- trollprobleme. Deshalb werden Rechenmethoden entwickelt um Optimalsteuerungsprob- lemen, die einen L1-Term im Kostenfunktional enthalten, und Exaktsteuerungsprobleme zu lösen. In beiden Fällen ist die zulässige Menge ein Teilraum eines Hilbertraumes. Die bilineare Kontrollstruktur des Quantenmodells, der L1-Kostenterm und die Nebenbedin- gungen der Kontrolle erzeugen starke Nichtlinearitäten, die die Lösung und Analyse der entsprechenden Problemen schwierig gestalten. Der erste Teil der Disseration konzentriert sich auf die physikalische Beschreibung des Spins von Teilchen und Phänomenen magnetischer Resonanz. Anschließend wird die kon- trollierte Schrödinger-Pauli-Gleichung und die Liouville-von-Neumann-Mastergleichung diskutiert. Diese Gleichungen können ebenso wie viele andere kontrollierte Quantenmod- elle durch ein dynamisches System mit biliniearer Kontrollstruktur dargestellt werden. Im zweiten Teil der Arbeit wird eine theoretische Untersuchung der Optimalsteuer- ungsprobleme, die einen L1-Kostenterm und Einschränkungen der Kontrolle enthalten können, durchgeführt. Insbesondere wird die Existenz von Lösungen und Optimalitäts- bedingungen und die Regularität der optimalen Kontrolle diskutiert. Um diese Optimal- steuerungsprobleme zu lösen werden halbglatte Newtonverfahren entwickelt und ihre su- perlineare Konvergenz bewiesen. Die Hauptschwierigkeit bei der Implementierung eines Newtonverfahrens für Optimalsteuerungsprobleme ist die Dimension des Jacobiopera- tors. In einer diskreten Form ist der Jacobioperator eine sehr große Matrix, war die Konstruktion in der Praxis undurchführbar macht. Daher konzentriert sich diese Ar- beit auf inexakte Krylov-Newton-Verfahren, die Newtonverfahren mit iterativen Krylov- Lösern für lineare Gleichungssysteme kombinieren, was die Konstruktion der diskreten Jacobimatrix erübrigt. Im dritten Teil der Disseration werden zwei Methoden für die Lösung von exakte Steuerbarkeit Problemen für Quanten-Spin-Systemen vorgestellt. Die erste Methode ist eine Fortsetzungstechnik während die zweite Methode auf einer bestimmten Refor- mulierung des exakten Kontrollproblems basiert. Beide Verfahren widmen sich L2-Norm exakten Steuerbarkeitsproblemen. Im vierten Teil die Disseration konzentriert sich auf die numerische Analyse von Quan- tenkontrollproblemen. Insbesondere wird das modifizierte Crank-Nicolson-Verfahren als eine geeignete Zeitdiskretisierung der Schrödingergleichung diskutiert. Es wird erst diskretisiert und nachfolgend optimiert, um den diskreten reduzierten Gradienten für den differenzierbaren Teil des Optimierungsziels zu erhalten. Die Details der Implemen- tierung und der Globalisierungsstrategie, die angemessenes numerisches Verhalten der halbglatten Newtonverfahren garantiert, werden behandelt. Im letzten Teil dieser Arbeit werden verschiedene numerische Experimente durchge- führt um die theoretischen Ergebnisse zu validieren und die Fähigkeiten de vorgeschla- genen Lösungsstrategie für Quanten-Spin-Kontrollproblemen zu validieren. KW - Quantum control KW - Spin systems KW - Nonsmooth optimization KW - Exact-controllability KW - Spinsystem KW - Nichtglatte Optimierung KW - Kontrolltheorie Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-118386 ER - TY - THES A1 - Srichan, Teerapat T1 - Discrete Moments of Zeta-Functions with respect to random and ergodic transformations T1 - Diskrete Momente von Zetafunktionen mit zufälligen und ergodentheoretischen Transformationen N2 - In the thesis discrete moments of the Riemann zeta-function and allied Dirichlet series are studied. In the first part the asymptotic value-distribution of zeta-functions is studied where the samples are taken from a Cauchy random walk on a vertical line inside the critical strip. Building on techniques by Lifshits and Weber analogous results for the Hurwitz zeta-function are derived. Using Atkinson’s dissection this is even generalized to Dirichlet L-functions associated with a primitive character. Both results indicate that the expectation value equals one which shows that the values of these zeta-function are small on average. The second part deals with the logarithmic derivative of the Riemann zeta-function on vertical lines and here the samples are with respect to an explicit ergodic transformation. Extending work of Steuding, discrete moments are evaluated and an equivalent formulation for the Riemann Hypothesis in terms of ergodic theory is obtained. In the third and last part of the thesis, the phenomenon of universality with respect to stochastic processes is studied. It is shown that certain random shifts of the zeta-function can approximate non-vanishing analytic target functions as good as we please. This result relies on Voronin's universality theorem. N2 - Die Dissertation behandelt diskrete Momente der Riemannschen Zetafunktion und verwandter Dirichletreihen. Im ersten Teil wird die asymptotische Werteverteilung von Zetafunktionen studiert, wobei die Werte zufällig auf einer vertikalen Geraden im kritischen Streifen gemäß einer Cauchyschen Irrfahrt summiert werden. Auf einer Vorarbeit von Lifshits und Weber aufbauend werden analoge Resultate für die Hurwitz Zetafunktion erzielt. Mit Hilfe der Atkinsonschen Formel gelingt eine weitere Verallgemeinerung für Dirichletsche L-Funktion zu einem primitiven Charakter. Beide Ergebnisse zeigen, dass der Erwartungswert stets eins beträgt, womit die jeweilige Zetafunktion im Mittel betragsmäßig klein ist. Der zweite Teil befasst sich mit der logarithmischen Ableitung der Riemannschen Zetafunktion auf vertikalen Geraden, wobei hier die Werte einer ergodischen Transformation entstammen. Eine Arbeit von Steuding verallgemeinernd werden diskrete Momente berechnet und eine äquivalente Formulierung der Riemannschen Vermutung in ergodentheoretischer Sprache erzielt. Im dritten und letzten Teil der Dissertation wird das Phänomen der Universalität unter dem Aspekt stochastischer Prozesse studiert. Es wird gezeigt, dass gewisse zufällige Translate der Zetafunktion nullstellenfreie analytische Zielfunktionen beliebig gut approximieren. Dieses Ergebnis basiert auf dem Voroninschen Universalitätssatz. KW - Riemannsche Zetafunktion KW - Zeta-function KW - random walk KW - ergodic transformation KW - Dirichlet-Reihe KW - Riemann Hypothesis Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-118395 ER - TY - THES A1 - Geiselhart, Roman T1 - Advances in the stability analysis of large-scale discrete-time systems T1 - Fortschritte in der Stabilitätsanalyse großskaliger zeitdiskreter Systeme N2 - Several aspects of the stability analysis of large-scale discrete-time systems are considered. An important feature is that the right-hand side does not have have to be continuous. In particular, constructive approaches to compute Lyapunov functions are derived and applied to several system classes. For large-scale systems, which are considered as an interconnection of smaller subsystems, we derive a new class of small-gain results, which do not require the subsystems to be robust in some sense. Moreover, we do not only study sufficiency of the conditions, but rather state an assumption under which these conditions are also necessary. Moreover, gain construction methods are derived for several types of aggregation, quantifying how large a prescribed set of interconnection gains can be in order that a small-gain condition holds. N2 - Es werden großskalige zeitdiskrete Systeme betrachtet, deren rechte Seite nicht als stetig angenommen wird. Konstruktive Ansätze um Lyapunovfunktionen zu berechnen werden hergeleitet und auf mehrere Systemklassen angewandt. Für großskalige Systeme, die beschrieben sind durch die Kopplung kleinerer Systeme, wird eine neue Klasse von sogenannten Small-Gain Resultaten vorgestellt, die nicht verlangt, dass die Subsysteme robust sein müssen. Zudem untersuchen wir die Notwendigkeit der geforderten Bedingungen. Zusätzlich werden Gainkonstruktionsmethoden für verschiedene Typen von Verknüpfung hergeleitet, welche quantifizieren, wie groß eine vorgegebene Menge von Kopplungsgains sein kann, so dass eine Small-Gain-Bedingung erfüllt ist. KW - Ljapunov-Funktion KW - Konstruktionsmethoden KW - Ljapunov-Stabilitätstheorie KW - Nichtlineare Funktionalgleichung Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-112963 ER - TY - THES A1 - Mohammadi, Masoumeh T1 - Analysis of discretization schemes for Fokker-Planck equations and related optimality systems T1 - Analyse von Diskretisierungsmethoden für Fokker-Planck-Gleichungen und verwandte Optimalitätssysteme N2 - The Fokker-Planck (FP) equation is a fundamental model in thermodynamic kinetic theories and statistical mechanics. In general, the FP equation appears in a number of different fields in natural sciences, for instance in solid-state physics, quantum optics, chemical physics, theoretical biology, and circuit theory. These equations also provide a powerful mean to define robust control strategies for random models. The FP equations are partial differential equations (PDE) describing the time evolution of the probability density function (PDF) of stochastic processes. These equations are of different types depending on the underlying stochastic process. In particular, they are parabolic PDEs for the PDF of Ito processes, and hyperbolic PDEs for piecewise deterministic processes (PDP). A fundamental axiom of probability calculus requires that the integral of the PDF over all the allowable state space must be equal to one, for all time. Therefore, for the purpose of accurate numerical simulation, a discretized FP equation must guarantee conservativeness of the total probability. Furthermore, since the solution of the FP equation represents a probability density, any numerical scheme that approximates the FP equation is required to guarantee the positivity of the solution. In addition, an approximation scheme must be accurate and stable. For these purposes, for parabolic FP equations on bounded domains, we investigate the Chang-Cooper (CC) scheme for space discretization and first- and second-order backward time differencing. We prove that the resulting space-time discretization schemes are accurate, conditionally stable, conservative, and preserve positivity. Further, we discuss a finite difference discretization for the FP system corresponding to a PDP process in a bounded domain. Next, we discuss FP equations in unbounded domains. In this case, finite-difference or finite-element methods cannot be applied. By employing a suitable set of basis functions, spectral methods allow to treat unbounded domains. Since FP solutions decay exponentially at infinity, we consider Hermite functions as basis functions, which are Hermite polynomials multiplied by a Gaussian. To this end, the Hermite spectral discretization is applied to two different FP equations; the parabolic PDE corresponding to Ito processes, and the system of hyperbolic PDEs corresponding to a PDP process. The resulting discretized schemes are analyzed. Stability and spectral accuracy of the Hermite spectral discretization of the FP problems is proved. Furthermore, we investigate the conservativity of the solutions of FP equations discretized with the Hermite spectral scheme. In the last part of this thesis, we discuss optimal control problems governed by FP equations on the characterization of their solution by optimality systems. We then investigate the Hermite spectral discretization of FP optimality systems in unbounded domains. Within the framework of Hermite discretization, we obtain sparse-band systems of ordinary differential equations. We analyze the accuracy of the discretization schemes by showing spectral convergence in approximating the state, the adjoint, and the control variables that appear in the FP optimality systems. To validate our theoretical estimates, we present results of numerical experiments. N2 - Die Fokker-Planck (FP) Gleichung ist ein grundlegendes Modell in thermodynamischen kinetischen Theorien und der statistischen Mechanik. Die FP-Gleichungen sind partielle Differentialgleichungen (PDE), welche die zeitliche Entwicklung der Wahrscheinlichkeitsdichtefunktion (PDF) von stochastischen Prozessen beschreiben. Diese Gleichungen sind von verschiedenen Arten, abhängig von dem zugrunde liegenden stochastischen Prozess. Insbesondere sind dies parabolische PDEs für die PDF von Ito Prozessen, und hyperbolische PDEs für teilweise deterministische Prozesse (PDP). Ein grundlegendes Axiom der Wahrscheinlichkeitsrechnung verlangt, dass das Integral der PDF über den ganzen Raum für alle Zeit muss gleich sein muss. Daher muss eine diskretisierte FP Gleichung Konservativität der Gesamtwahrscheinlichkeit garantieren. Da die Lösung der FP Gleichung eine Wahrscheinlichkeitsdichte darstellt, muss das numerische Verfahren, das die FP-Gleichung approximiert, die Positivität der Lösung gewährleisten. Darüber hinaus muss ein Approximationsschema genau und stabil sein. Für FP-Gleichungen auf begrenzte Bereiche untersuchen wir das Chang-Cooper (CC) Schema. Wir beweisen, dass die Diskretisierungsmethoden genau, bedingt stabil und konservativ sind, und Positivität bewahren. Als nächstes diskutieren wir FP Gleichungen in unbeschränkten Gebieten und wir wählen die Hermite spektrale Diskretisierung. Die resultierenden diskretisierten Schemata werden analysiert. Stabilität und spektrale Genauigkeit der Hermiten spektralen Diskretisierung ist bewiesen. Darüber hinaus untersuchen wir die Konservativität der numerischen Lösungen der FP Gleichungen. Im letzten Teil dieser Arbeit diskutieren wir Probleme der optimalen Steuerung, die von FP Gleichungen geregelt werden. Wir untersuchen dann die Hermite spektrale Diskretisierung von FP Optimalitätssystemen in unbeschränkten Gebieten. Wir erhalten spärliche Band-Systeme gewöhnlicher Differentialgleichungen. Wir analysieren die Genauigkeit der Diskretisierungsmethoden, indem wir spektrale Konvergenz bei der Annäherung des zustandes, das Adjoint, und die Stellgrößen, die in den FP Optimalitätssystemen erscheinen, aufzeigen. Um unsere theoretischen Schätzungen zu bestätigen, präsentieren wir Ergebnisse von numerischen Experimenten. KW - Fokker-Planck-Gleichung KW - Fokker-Planck optimality systems Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-111494 ER -