Refine
Has Fulltext
- yes (10)
Is part of the Bibliography
- yes (10)
Document Type
- Doctoral Thesis (10)
Keywords
- Mathematisches Modell (10) (remove)
This thesis extends the classical theoretical work of Macevicz and Oster (1976, expanded by Oster and Wilson, 1978) on adaptive life history strategies in social insects. It focuses on the evolution of dynamic behavioural patterns (reproduction and activity) as a consequence of optimal allocation of energy and time resources. Mathematical modelling is based on detailed empirical observations in the model species Lasioglossum malachurum (Halictidae; Hymenoptera). The main topics are field observations, optimisation models for eusocial life histories, temporal variation in life history decisions, and annual colony cycles of eusocial insects.
Overlay networks establish logical connections between users on top of the physical network. While randomly connected overlay networks provide only a best effort service, a new generation of structured overlay systems based on Distributed Hash Tables (DHTs) was proposed by the research community. However, there is still a lack of understanding the performance of such DHTs. Additionally, those architectures are highly distributed and therefore appear as a black box to the operator. Yet an operator does not want to lose control over his system and needs to be able to continuously observe and examine its current state at runtime. This work addresses both problems and shows how the solutions can be combined into a more self-organizing overlay concept. At first, we evaluate the performance of structured overlay networks under different aspects and thereby illuminate in how far such architectures are able to support carrier-grade applications. Secondly, to enable operators to monitor and understand their deployed system in more detail, we introduce both active as well as passive methods to gather information about the current state of the overlay network.
Die vorliegende Arbeit beschäftigt sich mit der Abstrahlung von Aktiven Galaxienkernen. Das erste Maximum der charakteristischen Doppelpeakstruktur des $\nu F_{\nu}$-Spektrums vom Blazaren ist zweifelsfrei Synchrotronstrahlung hochenergetischer Elektronen innerhalb des relativistischen Ausflusses des zugrundeliegenden Aktiven Galaxienkerns. Die zum zweiten (hochenergetischen) Maximum beitragenden Strahlungsprozesse und Teilchenspezies hingegen sind Gegenstand aktueller Diskussionen. In dieser Arbeit wir ein vollständig selbstkonsistentes und zeitabhängiges hybrides Emissionsmodell, welches auch Teilchenbeschleunigung berücksichtigt, entwickelt und auf verschiedene Blazar-Typen entlang der Blazar-Sequenz, von BL Lac Objekten mit verschiedenen Peakfrequenzen bis hin zu Flachspektrum-Radioquasaren, angewendet. Die spektrale Emission ersterer kann gut im rein leptonischen Grenzfall, d.h. der zweite $\nu F_{\nu}$-Peak kommt durch invers Compton-gestreute Synchrotronphotonen der abstrahlenden Elektronen selbst zustande, beschrieben werden. Zur Beschreibung letzterer muss man nicht-thermische Protonen innerhalb des Jets zulassen um die Dominanz des zweiten Maximums im Spektrum konsistent zu erklären. In diesem Fall besteht der zweite Peak aus Protonensynchrotronstrahlung und Kaskadenstrahlung der photohadronischen Prozesse. Mit dem entwickelten Modell ist es möglich auch die zeitliche Information, welche durch Ausbrüche von Blazaren bereitgestellt wird, auszunutzen um zum einen die freien Modellparameter weiter einzuschränken und -viel wichtiger- zum anderen leptonisch dominierte Blazare von hadronischen zu unterscheiden. Hierzu werden die typischen Zeitunterschiede in den Interbandlichtkurven als hadronischer Fingerabdruck benutzt.\\ Mit einer Stichprobe von 16 Spektren von zehn Blazaren entlang der Blazar-Sequenz, welche in unterschiedlichen Flusszuständen und mit starker Variabilität beobachtet wurden, ist es möglich die wichtigsten offenen Fragen der Physik relativistischer Ausbrüche in systematischer Art und Weise zu adressieren. Anhand der modellierten Ausbrüche kann man erkennen, dass sechs Quellen rein leptonisch dominiert sind, aber vier Protonen bis auf $\gamma \approx 10^{11}$ beschleunigen, was Auswirkungen auf die möglichen Quellen extragalaktischer kosmischer Strahlung unter den Blazaren hat. Darüber hinaus findet sich eine Abhängigkeit zwischen dem Magnetfeld der Emissionsregion und der injizierten Leuchtkraft, welche unabhängig von den zugrunde liegenden Teilchenpopulationen Gültigkeit besitzt. In diesem Zusammenhang lässt sich die Blazar-Sequenz als ein evolutionäres Szenario erklären: die Sequenz $FSRQ \rightarrow LBL/IBL \rightarrow HBL$ kommt aufgrund abnehmender Gasdichte der Hostgalaxie und damit einhergehender abnehmender Akkretionsrate zustande, dies wird durch weitere kosmologische Beobachtungen bestätigt. Eine abnehmende Materiedichte innerhalb des relativistischen Ausflusses wird von einem abnehmenden Magnetfeld begleitet, d.h. aber auch, dass Protonen weit vor den Elektronen nicht mehr im Strahlungsgebiet gehalten werden können. Die Blazar-Sequenz ist also ein Maß für die Hadronizität des Jets. Dies erklärt zudem die Dichotomie von FSRQs und BL Lac Objekten sowie die Zweiteilung in anderen Erscheinungsformen von AGN, z.B. FR-I und FR-II Radiogalaxien.\\ Während der Modellierung wird gezeigt, dass man Blazar-Spektren, speziell im hadronischen Fall, nicht mehr statisch betrachten kann, da es zu kumulierten Effekten aufgrund der langen Protonensynchrotronzeitskala kommt. Die niedrige Luminosität der Quellen und unterschiedlich lange Beobachtungszeiten verschiedener Experimente verlangen bei variablen Blazaren auch im leptonischen Fall eine zeitabhängige Betrachtung. Die Kurzzeitvariabilität scheint bei einzelnen Blazaren stets die selbe Ursache zu haben, unterscheidet sich aber bei der Betrachtung verschiedener Quellen. Zusätzlich wird für jeden Blazar, der in verschiedenen Flusszuständen beobachtet werden konnte, der Unterschied zwischen Lang- und Kurzzeitvariabilität, auch im Hinblick auf einen möglichen globalen Grundzustand hin, betrachtet.
Diese Arbeit beschäftigt sich mit Strahlungsprozessen in Blazaren. Bei den Blazaren handelt es sich um eine Unterkategorie der aktiven Galaxienkerne, bei denen die Jetachse in Richtung des Beobachters zeigt. Charakteristisch für die Blazare ist ein Multifrequenzspektrum der Photonen, welches sich vom Radiobereich bis hin zur Gamma-Strahlung mit TeV-Energien erstreckt. Insbesondere der Gamma-Bereich rückt aktuell in den Fokus der Betrachtung mit Experimenten wie zum Beispiel FERMI und MAGIC. Ziel dieser Arbeit ist die Modellierung der auftretenden Strahlungsprozesse und die Beschreibung der Multifrequenzspektren der Blazare mit Hilfe eines hadronisch-leptonischen Modells. Grundlage hierfür ist ein selbstkonsistentes Synchrotron-Selbst-Compton-Modell (SSC), welches zur Beschreibung des Spektrums der Quelle 1 ES 1218+30.4 verwendet wird. Dabei wird die Parameterwahl unterstützt durch eine Abschätzung der Masse des zentralen schwarzen Loches. Das hier behandelte SSC-Modell wird dahingehend untersucht, wie es sich unter Veränderung der Modellparameter verhält. Dabei werden Abhängigkeiten des Photonenspektrums von Änderungsfaktoren der Parameter abgeleitet. Außerdem werden diese Abhängigkeiten in Relation gesetzt und aus dieser Betrachtung ergibt sich die Schlussfolgerung, dass unter der Voraussetzung eines festen Spektralindex der Elektronenverteilung die Wahl eines Parametersatzes zur Modellierung eines Photonenspektrums eindeutig ist. Zur Einführung eines zeitabhängigen, hadronischen Modells wird das SSCModell um die Anwesenheit nichtthermischer Protonen erweitert. Dadurch kann Proton-Synchrotron-Strahlung einen Beitrag im Gamma-Bereich leisten. Außerdem werden durch Proton-Photon-Wechselwirkung Pionen erzeugt. Aus deren Zerfall werden zusammen mit der Paarbildung aus Photon-Photon-Absorption sekundäre Elektronen und Positronen produziert, die wiederum zum Hochenergiespektrum beitragen. Neben den Pionen werden bei der Proton-Photon- Wechselwirkung außerdem noch Neutrinos und Neutronen erzeugt, die einen direkten Einblick in die Emissionsregion erlauben. Das hier vorgestellte hadronische Modell wird auf die Quelle 3C 279 angewandt. Für diese Quelle reicht mit der Detektion im VHE-Bereich der SSCAnsatz nicht aus, um das Photonenspektrum zu beschreiben. Mit dem vorgelegten Modell gelingt die Beschreibung des Spektrums in den SSC-kritischen Bereichen sehr gut. Insbesondere können verschiedene Flusszustände modelliert und allein durch Veränderung der Maximalenergien von Protonen und Elektronen ineinander überführt werden. Diese einfache Möglichkeit der Modellierung der Variabilität der Quelle unterstreicht die Wahl des hadronischen Ansatzes. Somit wird hier ein sehr gutes Werkzeug zur Untersuchung der Emissionsprozesse in Blazaren geliefert. Darüber hinaus ist mit der Abschätzung des Neutrino-Flusses zwar die Detektion von 3C 279 als Punktquelle mit IceCube unwahrscheinlich, jedoch liefert das Modell generell die Möglichkeit im Kontext des Multimessenger-Ansatzes Antworten zu liefern. Im gleichen Kontext wird auch der Beitrag zur kosmischen Strahlung durch entweichende Neutronen untersucht.
Die Emission solarer Typ II Radiobursts ist ein seit Jahrzehnten beobachtetes Phänomen der heliosphärischen Plasmaphysik. Diese Radiobursts, die im Zusammenhang mit der Propagation koronaler Schockfronten auftreten, zeigen ein charakteristisches, zweibandiges Emissionsspektrum. Mit expandierendem Schock driften sie zu niedrigeren Frequenzen. Analytische Theorien dieser Emission sagen nichtlineare Plasmawellenwechselwirkung als Ursache voraus, doch aufgrund des geringen Sonnenabstands der Emissionsregion ist die in-situ Datenlage durch Satellitenmessungen äusserst schlecht, so dass eine endgültige Verifikation der vorhergesagten Vorgänge bisher nicht möglich war. Mit Hilfe eines kinetischen Plasma-Simulationscodes nach dem Particle-in-Cell Prinzip wurde in dieser Dissertation die Plasmaumgebung in der Foreshock-Region einer koronalen Schockfront modelliert. Das Propagations- und Kopplungsverhalten elektrostatischer und elektromagnetischer Wellenmoden wurde untersucht. Die vollständige räumliche Information über die Wellenzusammensetzung in der Simulation erlaubt es, die Kinematik nichtlinearer Wellenkopplungen genauestens zu untersuchen. Es zeigte sich ein mit der analytischen Theorie der Drei-Wellen-Wechselwirkung konsistentes Bild der Erzeugung solarer Radiobursts: durch elektromagnetischen Zerfall elektrostatischer Moden kommt es zur Erzeugung fundamentaler, sowie durch Verschmelzung gegenpropagierender elektrostatischer Moden zur Anregung harmonischer Radioemission. Kopplungsstärken und Winkelabhängigkeit dieser Prozesse wurden untersucht. Mit dem somit zur Verfügung stehenden, numerischen Laborsystem wurde die Parameter-Abhängigkeit der Wellenkopplungen und entstehenden Radioemissionen bezüglich Stärke des Elektronenbeams und des solaren Abstandes untersucht.
Durch das Auftreten neuer Stämme resistenter Krankheitserreger ist die Suche nach neuartigen Wirkstoffen gegen diese, sich ständig weiter ausbreitende Bedrohung, dringend notwendig. Der interdisziplinäre Sonderforschungsbereich 630 der Universität Würzburg stellt sich dieser Aufgabe, indem hier neuartige Xenobiotika synthetisiert und auf ihre Wirksamkeit getestet werden. Die hier vorgelegte Dissertation fügt sich hierbei nahtlos in die verschiedenen Fachbereiche des SFB630 ein: Sie stellt eine Schnittstelle zwischen Synthese und Analyse der Effekte der im Rahmen des SFB630 synthetisierten Isochinolinalkaloid-Derivaten. Mit den hier angewandten bioinformatischen Methoden wurden zunächst die wichtigsten Stoffwechselwege von S. epidermidis R62A, S. aureus USA300 und menschlicher Zellen in sogenannten metabolischen Netzwerkmodellen nachgestellt. Basierend auf diesen Modellen konnten Enzymaktivitäten für verschiedene Szenarien an zugesetzten Xenobiotika berechnet werden. Die hierfür benötigten Daten wurden direkt aus Genexpressionsanalysen gewonnen. Die Validierung dieser Methode erfolgte durch Metabolommessungen. Hierfür wurde S. aureus USA300 mit verschiedenen Konzentrationen von IQ-143 behandelt und gemäß dem in dieser Dissertation vorgelegten Ernteprotokoll aufgearbeitet. Die Ergebnisse hieraus lassen darauf schließen, dass IQ-143 starke Effekte auf den Komplex 1 der Atmungskette ausübt – diese Resultate decken sich mit denen der metabolischen Netzwerkanalyse. Für den Wirkstoff IQ-238 ergaben sich trotz der strukturellen Ähnlichkeiten zu IQ-143 deutlich verschiedene Wirkeffekte: Dieser Stoff verursacht einen direkten Abfall der Enzymaktivitäten in der Glykolyse. Dadurch konnte eine unspezifische Toxizität dieser Stoffe basierend auf ihrer chemischen Struktur ausgeschlossen werden. Weiterhin konnten die bereits für IQ-143 und IQ-238 auf Bakterien angewandten Methoden erfolgreich zur Modellierung der Effekte von Methylenblau auf verschiedene resistente Stämme von P. falciparum 3D7 angewandt werden. Dadurch konnte gezeigt werden, dass Methylenblau in einer Kombination mit anderen Präparaten gegen diesen Parasiten zum einen die Wirkung des Primärpräparates verstärkt, zum anderen aber auch in gewissem Maße vorhandene Resistenzen gegen das Primärpräparat zu verringern vermag. Somit konnte durch die vorgelegte Arbeit eine Pipeline zur Identifizierung der metabolischen Effekte verschiedener Wirkstoffe auf unterschiedliche Krankheitserreger erstellt werden. Diese Pipeline kann jederzeit auf andere Organismen ausgeweitet werden und stellt somit einen wichtigen Ansatz um Netzwerkeffekte verschiedener, potentieller Medikamente aufzuklären.
Bewertung und Auswirkungen der Simulationsgüte führender Klimamoden in einem Multi-Modell Ensemble
(2013)
Der rezente und zukünftige Anstieg der atmosphärischen Treibhausgaskonzentration bedeutet für das terrestrische Klimasystem einen grundlegenden Wandel, der für die globale Gesellschaft schwer zu bewältigende Aufgaben und Herausforderungen bereit hält. Eine effektive, rühzeitige Anpassung an diesen Klimawandel profitiert dabei enorm von möglichst genauen Abschätzungen künftiger Klimaänderungen.
Das geeignete Werkzeug hierfür sind Gekoppelte Atmosphäre Ozean Modelle (AOGCMs). Für solche Fragestellungen müssen allerdings weitreichende Annahmen über die zukünftigen klimarelevanten Randbedingungen getroffen werden. Individuelle Fehler dieser Klimamodelle, die aus der nicht perfekten Abbildung der realen Verhältnisse und Prozesse resultieren, erhöhen die Unsicherheit langfristiger Klimaprojektionen. So unterscheiden sich die Aussagen verschiedener AOGCMs im Hinblick auf den zukünftigen Klimawandel insbesondere bei regionaler Betrachtung, deutlich. Als Absicherung gegen Modellfehler werden üblicherweise die Ergebnisse mehrerer AOGCMs, eines Ensembles an Modellen, kombiniert. Um die Abschätzung des Klimawandels zu präzisieren, wird in der vorliegenden Arbeit der Versuch unternommen, eine Bewertung der Modellperformance der 24 AOGCMs, die an der dritten Phase des Vergleichsprojekts für gekoppelte Modelle (CMIP3) teilgenommen haben, zu erstellen. Auf dieser Basis wird dann eine nummerische Gewichtung für die Kombination des Ensembles erstellt. Zunächst werden die von den AOGCMs simulierten Klimatologien für einige
grundlegende Klimaelemente mit den betreffenden klimatologien verschiedener Beobachtungsdatensätze quantitativ abgeglichen. Ein wichtiger methodischer Aspekt
hierbei ist, dass auch die Unsicherheit der Beobachtungen, konkret Unterschiede zwischen verschiedenen Datensätzen, berücksichtigt werden. So zeigt sich, dass die Aussagen, die aus solchen Ansätzen resultieren, von zu vielen Unsicherheiten in den Referenzdaten beeinträchtigt werden, um generelle Aussagen zur Qualität von AOGCMs zu treffen. Die Nutzung der Köppen-Geiger Klassifikation offenbart jedoch, dass die prinzipielle Verteilung der bekannten Klimatypen im kompletten CMIP3 in vergleichbar guter Qualität reproduziert wird. Als Bewertungskriterium wird daher hier die Fähigkeit der AOGCMs die großskalige natürliche Klimavariabilität, konkret die hochkomplexe gekoppelte
El Niño-Southern Oscillation (ENSO), realistisch abzubilden herangezogen. Es kann anhand verschiedener Aspekte des ENSO-Phänomens gezeigt werden, dass nicht alle AOGCMs hierzu mit gleicher Realitätsnähe in der Lage sind. Dies steht im Gegensatz zu den dominierenden Klimamoden der Außertropen, die modellübergreifend überzeugend repräsentiert werden. Die wichtigsten Moden werden, in globaler Betrachtung, in verschiedenen Beobachtungsdaten über einen neuen Ansatz identifiziert. So können für einige bekannte Zirkulationsmuster neue Indexdefinitionen gewonnen werden, die sich sowohl als äquivalent zu den Standardverfahren erweisen und im Vergleich zu diesen zudem eine deutliche Reduzierung
des Rechenaufwandes bedeuten. Andere bekannte Moden werden dagegen als weniger bedeutsame, regionale Zirkulationsmuster eingestuft. Die hier vorgestellte
Methode zur Beurteilung der Simulation von ENSO ist in guter Übereinstimmung mit anderen Ansätzen, ebenso die daraus folgende Bewertung der gesamten Performance
der AOGCMs. Das Spektrum des Southern Oscillation-Index (SOI) stellt somit eine aussagekräftige Kenngröße der Modellqualität dar.
Die Unterschiede in der Fähigkeit, das ENSO-System abzubilden, erweisen sich als signifikante Unsicherheitsquelle im Hinblick auf die zukünftige Entwicklung einiger fundamentaler und bedeutsamer Klimagrößen, konkret der globalen Mitteltemperatur,
des SOIs selbst, sowie des indischen Monsuns. Ebenso zeigen sich signifikante Unterschiede für regionale Klimaänderungen zwischen zwei Teilensembles des CMIP3, die auf Grundlage der entwickelten Bewertungsfunktion eingeteilt werden. Jedoch sind diese Effekte im Allgemeinen nicht mit den Auswirkungen der
anthropogenen Klimaänderungssignale im Multi-Modell Ensemble vergleichbar, die für die meisten Klimagrößen in einem robusten multivariaten Ansatz detektiert und
quantifiziert werden können. Entsprechend sind die effektiven Klimaänderungen, die sich bei der Kombination aller Simulationen als grundlegende Aussage des
CMIP3 unter den speziellen Randbedingungen ergeben nahezu unabhängig davon, ob alle Läufe mit dem gleichen Einfluss berücksichtigt werden, oder ob die erstellte nummerische Gewichtung verwendet wird. Als eine wesentliche Begründung hierfür kann die Spannbreite der Entwicklung des ENSO-Systems identifiziert werden. Dies
bedeutet größere Schwankungen in den Ergebnissen der Modelle mit funktionierendem ENSO, was den Stellenwert der natürlichen Variabilität als Unsicherheitsquelle
in Fragen des Klimawandels unterstreicht. Sowohl bei Betrachtung der Teilensembles als auch der Gewichtung wirken sich dadurch gegenläufige Trends im SOI
ausgleichend auf die Entwicklung anderer Klimagrößen aus, was insbesondere bei letzterem Vorgehen signifikante mittlere Effekte des Ansatzes, verglichen mit der
Verwendung des üblichen arithmetischen Multi-Modell Mittelwert, verhindert.
Die vorliegende Arbeit beschäftigt sich mit den Prozessen, die in einer Unterklasse der Aktiven Galaxienkerne, den Blazaren, das Emissionsspektrum dieser Objekte erzeugen. Dies beinhaltet insbesondere den Beschleunigungsprozess, der eine nichtthermische Teilchenverteilung erzeugt, sowie diverse Strahlungsprozesse. Das Spektrum dieser Quellen reicht dabei vom Radiobereich bis zu Energien im TeV-Bereich. Die Form des zeitlich gemittelten Spektrums kann durch Modelle bereits sehr gut beschrieben werden. Insbesondere die erste der beiden dominierenden Komponenten des Spektrums kann mit hoher Sicherheit mit Synchrotronemission einer Elektronenenergieverteilung in Form eines Potenzgesetzes identifiziert werden. Für den Ursprung der zweiten Komponente existieren jedoch verschiedene Erklärungsversuche. Dies sind im wesentlichen die inverse Compton-Streuung der internen oder externer Strahlung (leptonische Modelle) sowie die Emission und photohadronische Wechselwirkung einer hochenergetischen Verteilung von Protonen in der Quelle.
Eine räumliche Auflösung des Ursprungs der detektierten Strahlung ist mit den zur Verfügung stehenden Teleskopen nicht möglich. Einschränkungen für die Ausdehnung dieser Emissionszone ergeben sich lediglich aus der Variation des Emissionsspektrums. Eine Bestimmung der Morphologie ist jedoch im selbstabsorbierten Radiobereich des Spektrums durch die Ausnutzung von interferometrischen Beobachtungen möglich. Die resultierenden Längen, auf denen die im inneren der Quelle selbstabsorbierte Strahlung die Quelle schließlich verlässt, sind jedoch etwa zwei Größenordnungen oberhalb der aus den Variabilitätszeitskalen gefolgerten Limits.
Das im Rahmen dieser Arbeit entwickelte Modell soll dabei helfen, verschiedene Beobachtungen mit Hilfe eines quantitativen Modells zu beschreiben. Hier steht insbesondere die Korrelation zwischen den Verläufen der Hochenergie- und Radioemission im Vordergrund. Eine Aussage über die Existenz einer solchen Verbindung konnte aus den bisherigen Beobachtungen nicht getroffen werden.
Eine quantitative Modellierung könnte bei der Interpretation der bisher uneindeutigen Datenlage helfen. Eine weitere, durch Modelle bisher nicht beschreibbare, Beobachtungsevidenz sind extrem kurzzeitige Variationen des Flusszustands.
Die Lichtlaufzeit durch das für die Modellierung benötigte Raumgebiet ist zumeist größer als die beobachtete Zeitskala.
Zudem deuten die Beobachtungen darauf hin, dass manche dieser Flussausbrüche nicht zwischen den verschiedenen Bändern korreliert sind, wie es zumindest die leptonischen Modelle erwarten lassen würden.
Das hier beschriebene Modell verbindet eine räumliche Auflösung des Emissionsgebiets mit dem dominanten Beschleunigungsmechanismus. Hierdurch konnte zunächst gezeigt werden, dass die Beschreibung von Variabilität auch auf Skalen unterhalb der Lichtlaufzeit durch das modellierte Raumgebiet möglich ist. Zudem wurde ein Szenario quantifiziert, dass im leptonischen Fall unkorrelierte Ausbrüche vorhersagt.
\thispagestyle{empty}
Durch eine Erweiterung des Emissionsgebiets gegenüber anderen Blazar-Modellen um zwei Größenordnung konnte zudem eine Verknüpfung zwischen dem Hochenergie- und dem Radiobereich erfolgen. Die gefundene Morphologie des Einschlussgebiets der nichtthermischen Teilchenpopulation beinhaltet eine physikalisch sinnvolle Randbedingung für das Emissionsgebiet der Hochenergiestrahlung, die zudem den für die betrachtete Quelle korrekten Spektralindex im Radiobereich erzeugt.
Darüber hinaus wurden in das Modell sowohl leptonische als auch hadronische Prozesse integriert, die eine flexible und unvoreingenommene Modellierung potentieller Hybridquellen erlauben.
Mit dem entwickelten Modell ist es möglich, aus detailliert vermessenen Lichtkurven im Hochenergiebereich die zu erwartende Radioemission vorherzusagen. Die in diese Vorhersage eingehenden Parameter lassen sich aus der Modellierung des Gleichgewichtsspektrums bestimmen.
This work is concerned with the numerical approximation of solutions to models that are used to describe atmospheric or oceanographic flows. In particular, this work concen- trates on the approximation of the Shallow Water equations with bottom topography and the compressible Euler equations with a gravitational potential. Numerous methods have been developed to approximate solutions of these models. Of specific interest here are the approximations of near equilibrium solutions and, in the case of the Euler equations, the low Mach number flow regime. It is inherent in most of the numerical methods that the quality of the approximation increases with the number of degrees of freedom that are used. Therefore, these schemes are often run in parallel on big computers to achieve the best pos- sible approximation. However, even on those big machines, the desired accuracy can not be achieved by the given maximal number of degrees of freedom that these machines allow. The main focus in this work therefore lies in the development of numerical schemes that give better resolution of the resulting dynamics on the same number of degrees of freedom, compared to classical schemes.
This work is the result of a cooperation of Prof. Klingenberg of the Institute of Mathe- matics in Wu¨rzburg and Prof. R¨opke of the Astrophysical Institute in Wu¨rzburg. The aim of this collaboration is the development of methods to compute stellar atmospheres. Two main challenges are tackled in this work. First, the accurate treatment of source terms in the numerical scheme. This leads to the so called well-balanced schemes. They allow for an accurate approximation of near equilibrium dynamics. The second challenge is the approx- imation of flows in the low Mach number regime. It is known that the compressible Euler equations tend towards the incompressible Euler equations when the Mach number tends to zero. Classical schemes often show excessive diffusion in that flow regime. The here devel- oped scheme falls into the category of an asymptotic preserving scheme, i.e. the numerical scheme reflects the behavior that is computed on the continuous equations. Moreover, it is shown that the diffusion of the numerical scheme is independent of the Mach number.
In chapter 3, an HLL-type approximate Riemann solver is adapted for simulations of the Shallow Water equations with bottom topography to develop a well-balanced scheme. In the literature, most schemes only tackle the equilibria when the fluid is at rest, the so called Lake at rest solutions. Here a scheme is developed to accurately capture all the equilibria of the Shallow Water equations. Moreover, in contrast to other works, a second order extension is proposed, that does not rely on an iterative scheme inside the reconstruction procedure, leading to a more efficient scheme.
In chapter 4, a Suliciu relaxation scheme is adapted for the resolution of hydrostatic equilibria of the Euler equations with a gravitational potential. The hydrostatic relations are underdetermined and therefore the solutions to that equations are not unique. However, the scheme is shown to be well-balanced for a wide class of hydrostatic equilibria. For specific classes, some quadrature rules are computed to ensure the exact well-balanced property. Moreover, the scheme is shown to be robust, i.e. it preserves the positivity of mass and energy, and stable with respect to the entropy. Numerical results are presented in order to investigate the impact of the different quadrature rules on the well-balanced property.
In chapter 5, a Suliciu relaxation scheme is adapted for the simulations of low Mach number flows. The scheme is shown to be asymptotic preserving and not suffering from excessive diffusion in the low Mach number regime. Moreover, it is shown to be robust under certain parameter combinations and to be stable from an Chapman-Enskog analysis.
Numerical results are presented in order to show the advantages of the new approach.
In chapter 6, the schemes developed in the chapters 4 and 5 are combined in order to investigate the performance of the numerical scheme in the low Mach number regime in a gravitational stratified atmosphere. The scheme is shown the be well-balanced, robust and stable with respect to a Chapman-Enskog analysis. Numerical tests are presented to show the advantage of the newly proposed method over the classical scheme.
In chapter 7, some remarks on an alternative way to tackle multidimensional simulations are presented. However no numerical simulations are performed and it is shown why further research on the suggested approach is necessary.
In the past two decades, there has been a trend to move from traditional television to Internet-based video services. With video streaming becoming one of the most popular applications in the Internet and the current state of the art in media consumption, quality expectations of consumers are increasing. Low quality videos are no longer considered acceptable in contrast to some years ago due to the increased sizes and resolution of devices. If the high expectations of the users are not met and a video is delivered in poor quality, they often abandon the service. Therefore, Internet Service Providers (ISPs) and video service providers are facing the challenge of providing seamless multimedia delivery in high quality. Currently, during peak hours, video streaming causes almost 58\% of the downstream traffic on the Internet. With higher mobile bandwidth, mobile video streaming has also become commonplace. According to the 2019 Cisco Visual Networking Index, in 2022 79% of mobile traffic will be video traffic and, according to Ericsson, by 2025 video is forecasted to make up 76% of total Internet traffic. Ericsson further predicts that in 2024 over 1.4 billion devices will be subscribed to 5G, which will offer a downlink data rate of 100 Mbit/s in dense urban environments.
One of the most important goals of ISPs and video service providers is for their users to have a high Quality of Experience (QoE). The QoE describes the degree of delight or annoyance a user experiences when using a service or application. In video streaming the QoE depends on how seamless a video is played and whether there are stalling events or quality degradations. These characteristics of a transmitted video are described as the application layer Quality of Service (QoS). In general, the QoS is defined as "the totality of characteristics of a telecommunications service that bear on its ability to satisfy stated and implied needs of the user of the service" by the ITU. The network layer QoS describes the performance of the network and is decisive for the application layer QoS.
In Internet video, typically a buffer is used to store downloaded video segments to compensate for network fluctuations. If the buffer runs empty, stalling occurs. If the available bandwidth decreases temporarily, the video can still be played out from the buffer without interruption. There are different policies and parameters that determine how large the buffer is, at what buffer level to start the video, and at what buffer level to resume playout after stalling. These have to be finely tuned to achieve the highest QoE for the user. If the bandwidth decreases for a longer time period, a limited buffer will deplete and stalling can not be avoided. An important research question is how to configure the buffer optimally for different users and situations. In this work, we tackle this question using analytic models and measurement studies. With HTTP Adaptive Streaming (HAS), the video players have the capability to adapt the video bit rate at the client side according to the available network capacity. This way the depletion of the video buffer and thus stalling can be avoided. In HAS, the quality in which the video is played and the number of quality switches also has an impact on the QoE. Thus, an important problem is the adaptation of video streaming so that these parameters are optimized. In a shared WiFi multiple video users share a single bottleneck link and compete for bandwidth. In such a scenario, it is important that resources are allocated to users in a way that all can have a similar QoE. In this work, we therefore investigate the possible fairness gain when moving from network fairness towards application-layer QoS fairness. In mobile scenarios, the energy and data consumption of the user device are limited resources and they must be managed besides the QoE. Therefore, it is also necessary, to investigate solutions, that conserve these resources in mobile devices. But how can resources be conserved without sacrificing application layer QoS? As an example for such a solution, this work presents a new probabilistic adaptation algorithm that uses abandonment statistics for ts decision making, aiming at minimizing the resource consumption while maintaining high QoS.
With current protocol developments such as 5G, bandwidths are increasing, latencies are decreasing and networks are becoming more stable, leading to higher QoS. This allows for new real time data intensive applications such as cloud gaming, virtual reality and augmented reality applications to become feasible on mobile devices which pose completely new research questions. The high energy consumption of such applications still remains an issue as the energy capacity of devices is currently not increasing as quickly as the available data rates. In this work we compare the optimal performance of different strategies for adaptive 360-degree video streaming.