TY - THES A1 - Mitesser, Oliver T1 - The evolution of insect life history strategies in a social context T1 - Die Evolution von Lebenslaufstrategien bei Insekten in sozialem Kontext N2 - This thesis extends the classical theoretical work of Macevicz and Oster (1976, expanded by Oster and Wilson, 1978) on adaptive life history strategies in social insects. It focuses on the evolution of dynamic behavioural patterns (reproduction and activity) as a consequence of optimal allocation of energy and time resources. Mathematical modelling is based on detailed empirical observations in the model species Lasioglossum malachurum (Halictidae; Hymenoptera). The main topics are field observations, optimisation models for eusocial life histories, temporal variation in life history decisions, and annual colony cycles of eusocial insects. N2 - Diese Dissertation entwickelt die klassische theoretische Arbeit von Macevicz und Oster (1976, erweitert von Oster und Wilson, 1978) zu adaptiven Lebenslaufstrategien bei sozialen Insekten fort. Der Schwerpunkt liegt dabei auf der Evolution von dynamischen Verhaltensmustern (Reproduktion und Aktivität) als Resultat optimaler Allokation von Energie- und Zeitressourcen. Die mathematische Modellierung erfolgt auf Basis detaillierter Beobachtungsdaten zum Koloniezyklus der Furchenbiene Lasioglossum malachurum (Halictidae; Hymenoptera). Zentrale Themenbereiche sind Freilandbeobachtungen, Optimierungsmodelle für eusoziale Lebenslaufstrategien, zeitliche Variabilität bei Lebenslaufentscheidungen und der jährliche Koloniezyklus eusozialer Insekten. KW - Schmalbienen KW - Insektenstaat KW - Lebensdauer KW - Evolution KW - Mathematisches Modell KW - Evolution KW - Lebenslaufstrategien KW - soziale Insekten KW - mathematische Modellierung KW - Halictidae KW - evolution KW - life history strategy KW - social insects KW - mathematical model KW - Halictidae Y1 - 2006 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-22576 ER - TY - THES A1 - Binzenhöfer, Andreas T1 - Performance Analysis of Structured Overlay Networks T1 - Leistungsbewertung Strukturierter Overlay Netze N2 - Overlay networks establish logical connections between users on top of the physical network. While randomly connected overlay networks provide only a best effort service, a new generation of structured overlay systems based on Distributed Hash Tables (DHTs) was proposed by the research community. However, there is still a lack of understanding the performance of such DHTs. Additionally, those architectures are highly distributed and therefore appear as a black box to the operator. Yet an operator does not want to lose control over his system and needs to be able to continuously observe and examine its current state at runtime. This work addresses both problems and shows how the solutions can be combined into a more self-organizing overlay concept. At first, we evaluate the performance of structured overlay networks under different aspects and thereby illuminate in how far such architectures are able to support carrier-grade applications. Secondly, to enable operators to monitor and understand their deployed system in more detail, we introduce both active as well as passive methods to gather information about the current state of the overlay network. N2 - Unter einem Overlay Netz versteht man den Zusammenschluss mehrerer Komponenten zu einer logischen Topologie, die auf einer existierenden physikalischen Infrastruktur aufsetzt. Da zufällige Verbindungen zwischen den einzelnen Teilnehmern aber sehr ineffizient sind, wurden strukturierte Overlay Netze entworfen, bei denen die Beziehungen zwischen den einzelnen Teilnehmern fest vorgeschrieben sind. Solche strukturierten Mechanismen versprechen zwar ein großes Potential, dieses wurde aber noch nicht ausreichend untersucht bzw. wissenschaftlich nachgewiesen. In dieser Arbeit wird mit mathematischen Methoden und ereignisorientierter Simulation die Leistungsfähigkeit von strukturierten Overlay Netzen untersucht. Da diese stark von der aktuellen Situation im Overlay abhängt, entwickeln wir Methoden, mit denen sich sowohl passiv, als auch aktiv, wichtige Systemparameter zur Laufzeit abschätzen bzw. messen lassen. Zusammen führen die vorgeschlagenen Methoden zu selbstorganisierenden Mechanismen, die den aktuellen Zustand des Overlays überwachen, diesen bewerten und sich gegebenenfalls automatisch an die aktuellen Verhältnisse anpassen T3 - Würzburger Beiträge zur Leistungsbewertung Verteilter Systeme - 01/08 KW - Overlay-Netz KW - Leistungsbewertung KW - Peer-to-Peer-Netz KW - Mathematisches Modell KW - Chord KW - Kademlia KW - DHT KW - Overlay KW - Chord KW - Kademlia KW - DHT Y1 - 2007 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-26291 ER - TY - THES A1 - Weidinger, Matthias T1 - Variabilität entlang der Blazar-Sequenz - Hinweise auf die Zusammensetzung relativistischer Ausflüsse Aktiver Galaxienkerne T1 - Variability along the Blazar-Sequence - Hints for the composition of the relativistic outflows of Active Galactic Nuclei N2 - Die vorliegende Arbeit beschäftigt sich mit der Abstrahlung von Aktiven Galaxienkernen. Das erste Maximum der charakteristischen Doppelpeakstruktur des $\nu F_{\nu}$-Spektrums vom Blazaren ist zweifelsfrei Synchrotronstrahlung hochenergetischer Elektronen innerhalb des relativistischen Ausflusses des zugrundeliegenden Aktiven Galaxienkerns. Die zum zweiten (hochenergetischen) Maximum beitragenden Strahlungsprozesse und Teilchenspezies hingegen sind Gegenstand aktueller Diskussionen. In dieser Arbeit wir ein vollständig selbstkonsistentes und zeitabhängiges hybrides Emissionsmodell, welches auch Teilchenbeschleunigung berücksichtigt, entwickelt und auf verschiedene Blazar-Typen entlang der Blazar-Sequenz, von BL Lac Objekten mit verschiedenen Peakfrequenzen bis hin zu Flachspektrum-Radioquasaren, angewendet. Die spektrale Emission ersterer kann gut im rein leptonischen Grenzfall, d.h. der zweite $\nu F_{\nu}$-Peak kommt durch invers Compton-gestreute Synchrotronphotonen der abstrahlenden Elektronen selbst zustande, beschrieben werden. Zur Beschreibung letzterer muss man nicht-thermische Protonen innerhalb des Jets zulassen um die Dominanz des zweiten Maximums im Spektrum konsistent zu erklären. In diesem Fall besteht der zweite Peak aus Protonensynchrotronstrahlung und Kaskadenstrahlung der photohadronischen Prozesse. Mit dem entwickelten Modell ist es möglich auch die zeitliche Information, welche durch Ausbrüche von Blazaren bereitgestellt wird, auszunutzen um zum einen die freien Modellparameter weiter einzuschränken und -viel wichtiger- zum anderen leptonisch dominierte Blazare von hadronischen zu unterscheiden. Hierzu werden die typischen Zeitunterschiede in den Interbandlichtkurven als hadronischer Fingerabdruck benutzt.\\ Mit einer Stichprobe von 16 Spektren von zehn Blazaren entlang der Blazar-Sequenz, welche in unterschiedlichen Flusszuständen und mit starker Variabilität beobachtet wurden, ist es möglich die wichtigsten offenen Fragen der Physik relativistischer Ausbrüche in systematischer Art und Weise zu adressieren. Anhand der modellierten Ausbrüche kann man erkennen, dass sechs Quellen rein leptonisch dominiert sind, aber vier Protonen bis auf $\gamma \approx 10^{11}$ beschleunigen, was Auswirkungen auf die möglichen Quellen extragalaktischer kosmischer Strahlung unter den Blazaren hat. Darüber hinaus findet sich eine Abhängigkeit zwischen dem Magnetfeld der Emissionsregion und der injizierten Leuchtkraft, welche unabhängig von den zugrunde liegenden Teilchenpopulationen Gültigkeit besitzt. In diesem Zusammenhang lässt sich die Blazar-Sequenz als ein evolutionäres Szenario erklären: die Sequenz $FSRQ \rightarrow LBL/IBL \rightarrow HBL$ kommt aufgrund abnehmender Gasdichte der Hostgalaxie und damit einhergehender abnehmender Akkretionsrate zustande, dies wird durch weitere kosmologische Beobachtungen bestätigt. Eine abnehmende Materiedichte innerhalb des relativistischen Ausflusses wird von einem abnehmenden Magnetfeld begleitet, d.h. aber auch, dass Protonen weit vor den Elektronen nicht mehr im Strahlungsgebiet gehalten werden können. Die Blazar-Sequenz ist also ein Maß für die Hadronizität des Jets. Dies erklärt zudem die Dichotomie von FSRQs und BL Lac Objekten sowie die Zweiteilung in anderen Erscheinungsformen von AGN, z.B. FR-I und FR-II Radiogalaxien.\\ Während der Modellierung wird gezeigt, dass man Blazar-Spektren, speziell im hadronischen Fall, nicht mehr statisch betrachten kann, da es zu kumulierten Effekten aufgrund der langen Protonensynchrotronzeitskala kommt. Die niedrige Luminosität der Quellen und unterschiedlich lange Beobachtungszeiten verschiedener Experimente verlangen bei variablen Blazaren auch im leptonischen Fall eine zeitabhängige Betrachtung. Die Kurzzeitvariabilität scheint bei einzelnen Blazaren stets die selbe Ursache zu haben, unterscheidet sich aber bei der Betrachtung verschiedener Quellen. Zusätzlich wird für jeden Blazar, der in verschiedenen Flusszuständen beobachtet werden konnte, der Unterschied zwischen Lang- und Kurzzeitvariabilität, auch im Hinblick auf einen möglichen globalen Grundzustand hin, betrachtet. N2 - The work at hand deals with the radiative properties of active galactic nuclei. The first peak in the characteristic double humped spectral energy distribution of blazars is undoubtedly synchrotron emission of highly energetic electrons within the relativistic outflow of the subjacent active galactic nucleus whereas the contributing processes and particle species giving rise to the second, high energy peak are still a matter of debate. In this work a fully selfconsistent and timedependent hybrid emission model, including particle acceleration, is developed and applied to various types of sources from high frequency peaked BL Lac objects to the luminous flat spectrum radio quasars along the blazar-sequence. While the spectral emission of the first is well described leptonically, i.e. the second peak is Compton upscattered synchrotron photons by the radiating electrons themselves, one needs to introduce non-thermal protons within the jet of the latter to explain the $\gamma$-dominance in their spectra consistently. In this case the second peak consists of synchrotron radiation of highly relativistic protons and reprocessed radiation from photohadronic interactions. With the developed framework it is possible to exploit outbursts of blazars, and hence the provided timing information on the one hand to tighten down the model parameters and on the other hand, more importantly, to discriminate between purely leptonic blazars and hadronically dominated ones using the typical timelags in the interband lightcurves as a fingerprint.\\ With a sample of 16 spectra of ten blazars along the sequence, observed at different flux levels exhibiting strong variability, it is possible to address the most important questions concerning the physics of the relativistic outflow in a systematic way. As modelled outbursts indicate, six blazars are well described in a leptonic context while four accelerate protons up to $\gamma \approx 10^{11}$. The impact on possible sources of extragalactic cosmic rays among blazars are discussed. Furthermore a correlation between the magnetic field within the jet and the injected luminosity is found being independent from the underlying particle species. In this context the blazar-sequence is explained as an evolutionary scenario, the decreasing gas-density in the hostgalaxy and hence the declining accretion rate giving rise to the sequence $FSRQ \rightarrow LBL/IBL \rightarrow HBL$ also confirmed by cosmological observations. The decreasing mass-loading of the outflow goes hand in hand with a abating magnetic field, i.e. protons become less confined way before the electrons. Therefore the blazar-sequence can be interpreted as the hadronicness of a jet. This also consistently explains the dichotomy between FSRQs and BL Lacs as well as in other manifestations of AGN, namely FR-I and FR-II radiogalaxies.\\ During the modelling it is shown that blazar spectra, especially of hadronically dominated AGN, are not to be interpreted in a time-independent, static limit since outbursts are accumulated due to relatively long proton synchrotron timescales. Low flux levels and diverse integration times of experiments in various energy bands will also require for a time-resolved treatment of variable sources, even leptonic ones. The systematic investigation of short time variability depicts, that it is excited in the same way for various outbursts of the same blazar, but has no common cause concerning different sources. Additionally the difference between long- and short-time variability is emphasized for each blazar observed at different flux levels in context with a possible lowstate of each source. KW - Blazar KW - AGN KW - Jet KW - Strahlungsprozesse: Nicht-Thermisch KW - AGN KW - blazar KW - jet KW - radiation: non thermal KW - Strahlung KW - Mathematisches Modell KW - Astrophysik Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-70508 ER - TY - THES A1 - Rüger, Michael T1 - Ein zeitabhängiges, selbstkonsistentes hadronisch-leptonisches Strahlungsmodell zur Modellierung der Multiwellenlängenemission von Blazaren T1 - A time-dependent, selfconsistent hadronic-leptonic emission modell for the multiwavelength emission of blazars N2 - Diese Arbeit beschäftigt sich mit Strahlungsprozessen in Blazaren. Bei den Blazaren handelt es sich um eine Unterkategorie der aktiven Galaxienkerne, bei denen die Jetachse in Richtung des Beobachters zeigt. Charakteristisch für die Blazare ist ein Multifrequenzspektrum der Photonen, welches sich vom Radiobereich bis hin zur Gamma-Strahlung mit TeV-Energien erstreckt. Insbesondere der Gamma-Bereich rückt aktuell in den Fokus der Betrachtung mit Experimenten wie zum Beispiel FERMI und MAGIC. Ziel dieser Arbeit ist die Modellierung der auftretenden Strahlungsprozesse und die Beschreibung der Multifrequenzspektren der Blazare mit Hilfe eines hadronisch-leptonischen Modells. Grundlage hierfür ist ein selbstkonsistentes Synchrotron-Selbst-Compton-Modell (SSC), welches zur Beschreibung des Spektrums der Quelle 1 ES 1218+30.4 verwendet wird. Dabei wird die Parameterwahl unterstützt durch eine Abschätzung der Masse des zentralen schwarzen Loches. Das hier behandelte SSC-Modell wird dahingehend untersucht, wie es sich unter Veränderung der Modellparameter verhält. Dabei werden Abhängigkeiten des Photonenspektrums von Änderungsfaktoren der Parameter abgeleitet. Außerdem werden diese Abhängigkeiten in Relation gesetzt und aus dieser Betrachtung ergibt sich die Schlussfolgerung, dass unter der Voraussetzung eines festen Spektralindex der Elektronenverteilung die Wahl eines Parametersatzes zur Modellierung eines Photonenspektrums eindeutig ist. Zur Einführung eines zeitabhängigen, hadronischen Modells wird das SSCModell um die Anwesenheit nichtthermischer Protonen erweitert. Dadurch kann Proton-Synchrotron-Strahlung einen Beitrag im Gamma-Bereich leisten. Außerdem werden durch Proton-Photon-Wechselwirkung Pionen erzeugt. Aus deren Zerfall werden zusammen mit der Paarbildung aus Photon-Photon-Absorption sekundäre Elektronen und Positronen produziert, die wiederum zum Hochenergiespektrum beitragen. Neben den Pionen werden bei der Proton-Photon- Wechselwirkung außerdem noch Neutrinos und Neutronen erzeugt, die einen direkten Einblick in die Emissionsregion erlauben. Das hier vorgestellte hadronische Modell wird auf die Quelle 3C 279 angewandt. Für diese Quelle reicht mit der Detektion im VHE-Bereich der SSCAnsatz nicht aus, um das Photonenspektrum zu beschreiben. Mit dem vorgelegten Modell gelingt die Beschreibung des Spektrums in den SSC-kritischen Bereichen sehr gut. Insbesondere können verschiedene Flusszustände modelliert und allein durch Veränderung der Maximalenergien von Protonen und Elektronen ineinander überführt werden. Diese einfache Möglichkeit der Modellierung der Variabilität der Quelle unterstreicht die Wahl des hadronischen Ansatzes. Somit wird hier ein sehr gutes Werkzeug zur Untersuchung der Emissionsprozesse in Blazaren geliefert. Darüber hinaus ist mit der Abschätzung des Neutrino-Flusses zwar die Detektion von 3C 279 als Punktquelle mit IceCube unwahrscheinlich, jedoch liefert das Modell generell die Möglichkeit im Kontext des Multimessenger-Ansatzes Antworten zu liefern. Im gleichen Kontext wird auch der Beitrag zur kosmischen Strahlung durch entweichende Neutronen untersucht. N2 - This doctoral thesis discusses the radiative processes of blazars. Blazars are a subcategory of active galactic nuclei, where the jet axis points towards the observer. The typical spectrum of blazars ranges from radio frequencies up to the gamma ray regime at TeV energy. Current experiments like FERMI or MAGIC focus on the observation of gamma rays. Aim of this thesis is the modelling of the radiative processes and the description of the photon spectra of blazars using a lepto-hadronic emission model. It is based on a synchrotron self Compton model (SSC), which is applied to the source 1 ES 1218+30.4. The choice of parameters is supported by an estimation of the mass of the central black hole. It is shown how the SSC model reacts on the variation of the model parameters. The dependencies of the spectrum on the changing factors of the parameters are derived. The examination of these factors leads to the conclusion, that for a fixed spectral index of the electron distribution a particular choice of parameters to model the photon spectrum is unique. To introduce a time-dependent hadronic model the SSC model is extended by the presence of non-thermal protons, which leads to proton synchrotron radiation and proton photon interaction producing pions. Pion decay cascades together with pair creation due to photon photon absorption produce secondary electrons and positrons, which contribute to the high energy spectrum. In addition to that proton photon interaction creates neutrons and neutrinos, which provide a direct insight into the emission region. The presented hadronic model is applied to the source 3C 279. This blazar cannot be modelled by the one-zone SSC approach. The hadronic model solves the problems of the SSC model regarding this source. Different flux states are described by only changing the maximum energies of protons and electrons. This simple approach stresses the choice of the hadronic model to consider 3C 279. With this results we have a powerful tool for the examination of emission processes in blazars. With the estimated neutrino flux no detection as point source by IceCube is expected. However, in general it is possible to deliver answers with this model to the multi-messenger approach. In the same context the contribution of outgoing neutrons to cosmic rays is considered. KW - Blazar KW - Strahlung KW - Mathematisches Modell KW - Aktive Galaxienkerne Blazare KW - Aktiver galaktischer Kern KW - AGN KW - blazar Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-56955 ER - TY - THES A1 - Ganse, Urs T1 - Kinetische Simulationen solarer Typ II Radiobursts T1 - Kinetic Simulations of Solar Type II Radio Bursts N2 - Die Emission solarer Typ II Radiobursts ist ein seit Jahrzehnten beobachtetes Phänomen der heliosphärischen Plasmaphysik. Diese Radiobursts, die im Zusammenhang mit der Propagation koronaler Schockfronten auftreten, zeigen ein charakteristisches, zweibandiges Emissionsspektrum. Mit expandierendem Schock driften sie zu niedrigeren Frequenzen. Analytische Theorien dieser Emission sagen nichtlineare Plasmawellenwechselwirkung als Ursache voraus, doch aufgrund des geringen Sonnenabstands der Emissionsregion ist die in-situ Datenlage durch Satellitenmessungen äusserst schlecht, so dass eine endgültige Verifikation der vorhergesagten Vorgänge bisher nicht möglich war. Mit Hilfe eines kinetischen Plasma-Simulationscodes nach dem Particle-in-Cell Prinzip wurde in dieser Dissertation die Plasmaumgebung in der Foreshock-Region einer koronalen Schockfront modelliert. Das Propagations- und Kopplungsverhalten elektrostatischer und elektromagnetischer Wellenmoden wurde untersucht. Die vollständige räumliche Information über die Wellenzusammensetzung in der Simulation erlaubt es, die Kinematik nichtlinearer Wellenkopplungen genauestens zu untersuchen. Es zeigte sich ein mit der analytischen Theorie der Drei-Wellen-Wechselwirkung konsistentes Bild der Erzeugung solarer Radiobursts: durch elektromagnetischen Zerfall elektrostatischer Moden kommt es zur Erzeugung fundamentaler, sowie durch Verschmelzung gegenpropagierender elektrostatischer Moden zur Anregung harmonischer Radioemission. Kopplungsstärken und Winkelabhängigkeit dieser Prozesse wurden untersucht. Mit dem somit zur Verfügung stehenden, numerischen Laborsystem wurde die Parameter-Abhängigkeit der Wellenkopplungen und entstehenden Radioemissionen bezüglich Stärke des Elektronenbeams und des solaren Abstandes untersucht. N2 - The emission of solar type II radiobursts is a phenomenon of heliospheric plasma physics which has been observed for several decades. These radio bursts, which appear in conjunction with propagating coronal shocks, show a characteristic two-banded emission spectrum, drifting towards lower frequencies as the shock expands. Analytic theories predict nonlinear plasma wave interaction as the cause of these emissions. However, due to its low solar distance, in-situ satellite measurements of the emission regions’ properties are extremely scarce. Hence, a conclusive verification of the predicted processes was hitherto not attainable. Using a kinetic plasma simulation code based on the particle-in-cell approach, the plasma environment in a coronal shock’s foreshock region was modelled in this thesis. The propagation and coupling behaviour of electrostatic and electromagnetic wavemodes was investigated. Complete spatial information of the wave composition as obtainable from the simulations allowed to finely analyze the kinematics of nonlinear wave interactions. The results showed excitation of solar radiobursts in agreement with analytics predictions of three wave interaction processes, based on the nonlinear processes: electromagnetic decay of electrostatic modes is responsible for the fundamental and coalcescense of counterpropagating electrostatic waves responsable for the harmonic radio emission. Coupling strengths and angular dependences of these processes were then studied. With the numerical laboratory system obtained through this modelling effort, the parameter dependence of wave copulings and resulting radio emissions were explored, based on variation of electron beam strength and solar distance of the emission region. KW - Heliosphäre KW - Burst KW - Mathematisches Modell KW - Heliosphere KW - Plasma Physics KW - Electromagnetic Waves KW - Electrostatic Waves KW - Nonlinear Interaction KW - Plasma KW - Elektromagnetische Welle KW - Elektrostatische Welle Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-73676 ER - TY - THES A1 - Cecil, Alexander [geb. Schmid] T1 - Metabolische Netzwerkanalysen für den Weg von xenobiotischen zu verträglichen antibiotischen Substanzen T1 - Metabolic network analysis for the path from xenobiotic to compliant antibiotic substances N2 - Durch das Auftreten neuer Stämme resistenter Krankheitserreger ist die Suche nach neuartigen Wirkstoffen gegen diese, sich ständig weiter ausbreitende Bedrohung, dringend notwendig. Der interdisziplinäre Sonderforschungsbereich 630 der Universität Würzburg stellt sich dieser Aufgabe, indem hier neuartige Xenobiotika synthetisiert und auf ihre Wirksamkeit getestet werden. Die hier vorgelegte Dissertation fügt sich hierbei nahtlos in die verschiedenen Fachbereiche des SFB630 ein: Sie stellt eine Schnittstelle zwischen Synthese und Analyse der Effekte der im Rahmen des SFB630 synthetisierten Isochinolinalkaloid-Derivaten. Mit den hier angewandten bioinformatischen Methoden wurden zunächst die wichtigsten Stoffwechselwege von S. epidermidis R62A, S. aureus USA300 und menschlicher Zellen in sogenannten metabolischen Netzwerkmodellen nachgestellt. Basierend auf diesen Modellen konnten Enzymaktivitäten für verschiedene Szenarien an zugesetzten Xenobiotika berechnet werden. Die hierfür benötigten Daten wurden direkt aus Genexpressionsanalysen gewonnen. Die Validierung dieser Methode erfolgte durch Metabolommessungen. Hierfür wurde S. aureus USA300 mit verschiedenen Konzentrationen von IQ-143 behandelt und gemäß dem in dieser Dissertation vorgelegten Ernteprotokoll aufgearbeitet. Die Ergebnisse hieraus lassen darauf schließen, dass IQ-143 starke Effekte auf den Komplex 1 der Atmungskette ausübt – diese Resultate decken sich mit denen der metabolischen Netzwerkanalyse. Für den Wirkstoff IQ-238 ergaben sich trotz der strukturellen Ähnlichkeiten zu IQ-143 deutlich verschiedene Wirkeffekte: Dieser Stoff verursacht einen direkten Abfall der Enzymaktivitäten in der Glykolyse. Dadurch konnte eine unspezifische Toxizität dieser Stoffe basierend auf ihrer chemischen Struktur ausgeschlossen werden. Weiterhin konnten die bereits für IQ-143 und IQ-238 auf Bakterien angewandten Methoden erfolgreich zur Modellierung der Effekte von Methylenblau auf verschiedene resistente Stämme von P. falciparum 3D7 angewandt werden. Dadurch konnte gezeigt werden, dass Methylenblau in einer Kombination mit anderen Präparaten gegen diesen Parasiten zum einen die Wirkung des Primärpräparates verstärkt, zum anderen aber auch in gewissem Maße vorhandene Resistenzen gegen das Primärpräparat zu verringern vermag. Somit konnte durch die vorgelegte Arbeit eine Pipeline zur Identifizierung der metabolischen Effekte verschiedener Wirkstoffe auf unterschiedliche Krankheitserreger erstellt werden. Diese Pipeline kann jederzeit auf andere Organismen ausgeweitet werden und stellt somit einen wichtigen Ansatz um Netzwerkeffekte verschiedener, potentieller Medikamente aufzuklären. N2 - With the emergence of new strains of resistant pathogens, the search for new compounds against this spreading threat is of utmost importance. The interdisciplinary special research field SFB630 of the University of Würzburg is ready to tackle this task by synthesizing and analysing the effects of xenobiotics. The presented dissertation is seamlessly integrated into the diverse range of special fields of the SFB630: it provides a gateway between synthesis and analysis of the effects of the newly synthesized isoquinoline alkaloid derivatives. The presented bioinformatic methods were used to build a so called metabolic network model of the most important pathways of S. epidermidis RP62A, S. aureus USA300 and human cells. Based on these models it was possible to calculate the enzyme activities for different scenarios of added xenobiotics. The data needed for these calculations were derived directly from gene expression analysis. Validation of this method was done by metabolomic measurements. In order to accomplish this, a strain of S. aureus USA300 was subjected to different concentrations of IQ-143 and processed according to the workflow also published in this dissertation. The results suggest that IQ-143 has very strong effects on the complex 1 of the oxidative phosphorylation – these results are consistent with the results obtained by the metabolic network analysis. Although IQ-238 is structurally a close relative to IQ-143, the effects of this compound are very different: it leads to a drop of the enzyme activities in the glycolysis. Therefore an unspecific toxicity of those compounds based on their chemical structure dould be ruled out. The methods used to model the effects of IQ-143 and IQ-238 on bacteria were furthermore successfully transferred to model the effects of methylene blue on several resistant strains of P. falciparum 3D7. It was shown that a combination of methylene blue and other malaria medications either enhances the effects of the primary medication, or – in the case of a resistant strain – methylene blue was able to mitigate the resistances against the primary medication. The presented dissertation was thus successfully able to build a pipeline to identify the metabolic effects of different compounds on various germs. This pipeline can be expanded to other organisms at any time and therefore yields an important approach to identify network effects of various potential drugs. KW - Stoffwechsel KW - Bioinformatik KW - Mathematisches Modell KW - Enzymaktivität KW - Xenobiotikum KW - Netzwerkanalyse KW - Bioinformatik KW - Metabolische Stoffwechselmodellierung KW - Metabolomik KW - Metabonomik KW - Network analysis KW - Bioinformatics KW - metabolic pathway modeling KW - metabolomics KW - metabonomics Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-71866 ER - TY - THES A1 - Pollinger, Felix T1 - Bewertung und Auswirkungen der Simulationsgüte führender Klimamoden in einem Multi-Modell Ensemble T1 - Evaluation and effects of the simulation quality of leading climate modes in a multi-model ensemble N2 - Der rezente und zukünftige Anstieg der atmosphärischen Treibhausgaskonzentration bedeutet für das terrestrische Klimasystem einen grundlegenden Wandel, der für die globale Gesellschaft schwer zu bewältigende Aufgaben und Herausforderungen bereit hält. Eine effektive, rühzeitige Anpassung an diesen Klimawandel profitiert dabei enorm von möglichst genauen Abschätzungen künftiger Klimaänderungen. Das geeignete Werkzeug hierfür sind Gekoppelte Atmosphäre Ozean Modelle (AOGCMs). Für solche Fragestellungen müssen allerdings weitreichende Annahmen über die zukünftigen klimarelevanten Randbedingungen getroffen werden. Individuelle Fehler dieser Klimamodelle, die aus der nicht perfekten Abbildung der realen Verhältnisse und Prozesse resultieren, erhöhen die Unsicherheit langfristiger Klimaprojektionen. So unterscheiden sich die Aussagen verschiedener AOGCMs im Hinblick auf den zukünftigen Klimawandel insbesondere bei regionaler Betrachtung, deutlich. Als Absicherung gegen Modellfehler werden üblicherweise die Ergebnisse mehrerer AOGCMs, eines Ensembles an Modellen, kombiniert. Um die Abschätzung des Klimawandels zu präzisieren, wird in der vorliegenden Arbeit der Versuch unternommen, eine Bewertung der Modellperformance der 24 AOGCMs, die an der dritten Phase des Vergleichsprojekts für gekoppelte Modelle (CMIP3) teilgenommen haben, zu erstellen. Auf dieser Basis wird dann eine nummerische Gewichtung für die Kombination des Ensembles erstellt. Zunächst werden die von den AOGCMs simulierten Klimatologien für einige grundlegende Klimaelemente mit den betreffenden klimatologien verschiedener Beobachtungsdatensätze quantitativ abgeglichen. Ein wichtiger methodischer Aspekt hierbei ist, dass auch die Unsicherheit der Beobachtungen, konkret Unterschiede zwischen verschiedenen Datensätzen, berücksichtigt werden. So zeigt sich, dass die Aussagen, die aus solchen Ansätzen resultieren, von zu vielen Unsicherheiten in den Referenzdaten beeinträchtigt werden, um generelle Aussagen zur Qualität von AOGCMs zu treffen. Die Nutzung der Köppen-Geiger Klassifikation offenbart jedoch, dass die prinzipielle Verteilung der bekannten Klimatypen im kompletten CMIP3 in vergleichbar guter Qualität reproduziert wird. Als Bewertungskriterium wird daher hier die Fähigkeit der AOGCMs die großskalige natürliche Klimavariabilität, konkret die hochkomplexe gekoppelte El Niño-Southern Oscillation (ENSO), realistisch abzubilden herangezogen. Es kann anhand verschiedener Aspekte des ENSO-Phänomens gezeigt werden, dass nicht alle AOGCMs hierzu mit gleicher Realitätsnähe in der Lage sind. Dies steht im Gegensatz zu den dominierenden Klimamoden der Außertropen, die modellübergreifend überzeugend repräsentiert werden. Die wichtigsten Moden werden, in globaler Betrachtung, in verschiedenen Beobachtungsdaten über einen neuen Ansatz identifiziert. So können für einige bekannte Zirkulationsmuster neue Indexdefinitionen gewonnen werden, die sich sowohl als äquivalent zu den Standardverfahren erweisen und im Vergleich zu diesen zudem eine deutliche Reduzierung des Rechenaufwandes bedeuten. Andere bekannte Moden werden dagegen als weniger bedeutsame, regionale Zirkulationsmuster eingestuft. Die hier vorgestellte Methode zur Beurteilung der Simulation von ENSO ist in guter Übereinstimmung mit anderen Ansätzen, ebenso die daraus folgende Bewertung der gesamten Performance der AOGCMs. Das Spektrum des Southern Oscillation-Index (SOI) stellt somit eine aussagekräftige Kenngröße der Modellqualität dar. Die Unterschiede in der Fähigkeit, das ENSO-System abzubilden, erweisen sich als signifikante Unsicherheitsquelle im Hinblick auf die zukünftige Entwicklung einiger fundamentaler und bedeutsamer Klimagrößen, konkret der globalen Mitteltemperatur, des SOIs selbst, sowie des indischen Monsuns. Ebenso zeigen sich signifikante Unterschiede für regionale Klimaänderungen zwischen zwei Teilensembles des CMIP3, die auf Grundlage der entwickelten Bewertungsfunktion eingeteilt werden. Jedoch sind diese Effekte im Allgemeinen nicht mit den Auswirkungen der anthropogenen Klimaänderungssignale im Multi-Modell Ensemble vergleichbar, die für die meisten Klimagrößen in einem robusten multivariaten Ansatz detektiert und quantifiziert werden können. Entsprechend sind die effektiven Klimaänderungen, die sich bei der Kombination aller Simulationen als grundlegende Aussage des CMIP3 unter den speziellen Randbedingungen ergeben nahezu unabhängig davon, ob alle Läufe mit dem gleichen Einfluss berücksichtigt werden, oder ob die erstellte nummerische Gewichtung verwendet wird. Als eine wesentliche Begründung hierfür kann die Spannbreite der Entwicklung des ENSO-Systems identifiziert werden. Dies bedeutet größere Schwankungen in den Ergebnissen der Modelle mit funktionierendem ENSO, was den Stellenwert der natürlichen Variabilität als Unsicherheitsquelle in Fragen des Klimawandels unterstreicht. Sowohl bei Betrachtung der Teilensembles als auch der Gewichtung wirken sich dadurch gegenläufige Trends im SOI ausgleichend auf die Entwicklung anderer Klimagrößen aus, was insbesondere bei letzterem Vorgehen signifikante mittlere Effekte des Ansatzes, verglichen mit der Verwendung des üblichen arithmetischen Multi-Modell Mittelwert, verhindert. N2 - The recent and future increase in atmospheric greenhouse gases will cause fundamental change in the terrestrial climate system, which will lead to enormous tasks and challenges for the global society. Effective and early adaptation to this climate change will benefit hugley from optimal possible estimates of future climate change. Coupled atmosphere-ocean models (AOGCMs) are the appropriate tool for this. However, to tackle these questions, it is necessary to make far reaching assumptions about the future climate-relevant boundary conditions. Furthermore there are individual errors in each climate model. These originate from flaws in reproducing the real climate system and result in a further increase of uncertainty with regards to long-range climate projections. Hence, concering future climate change, there are pronounced differences between the results of different AOGCMs, especially under a regional point of view. It is the usual approach to use a number of AOGCMs and combine their results as a safety measure against the influence of such model errors. In this thesis, an attempt is made to develop a valuation scheme and based on that a weighting scheme, for AOGCMs in order to narrow the range of climate change projections. The 24 models that were included in the third phase of the coupled model intercomparsion project (CMIP3) are used for this purpose. First some fundamental climatologies simulated by the AOGCMs are quantitatively compared to a number of observational data. An important methodological aspect of this approach is to explicitly address the uncertainty associated with the observational data. It is revealed that statements concerning the quality of climate models based on such hindcastig approaches might be flawed due to uncertainties about observational data. However, the application of the Köppen-Geiger classification reveales that all considered AOGCMs are capable of reproducing the fundamental distribution of observed types of climate. Thus, to evaluate the models, their ability to reproduce large-scale climate variability is chosen as the criterion. The focus is on one highly complex feature, the coupled El Niño-Southern Oscillation. Addressing several aspects of this climate mode, it is demonstrated that there are AOGCMs that are less successful in doing so than others. In contrast, all models reproduce the most dominant extratropical climate modes in a satisfying manner. The decision which modes are the most important is made using a distinct approach considering several global sets of observational data. This way, it is possible to add new definitions for the time series of some well-known climate patterns, which proof to be equivalent to the standard definitions. Along with this, other popular modes are identified as less important regional patterns. The presented approach to assess the simulation of ENSO is in good agreement with other approaches, as well as the resulting rating of the overall model performance. The spectrum of the timeseries of the Southern Oscillation Index (SOI) can thus be regarded as a sound parameter of the quality of AOGCMs. Differences in the ability to simulate a realistic ENSO-system prove to be a significant source of uncertainty with respect to the future development of some fundamental and important climate parameters, namely the global near-surface air mean temperature, the SOI itself and the Indian monsoon. In addition, there are significant differences in the patterns of regional climate change as simulated by two ensembles, which are constituted according to the evaluation function previously developed. However, these effects are overall not comparable to the multi-model ensembles’ anthropogenic induced climate change signals which can be detected and quantified using a robust multi-variate approach. If all individual simulations following a specific emission scenario are combined, the resulting climate change signals can be thought of as the fundamental message of CMIP3. It appears to be quite a stable one, more or less unaffected by the use of the derived weighting scheme instead of the common approach to use equal weights for all simulations. It is reasoned that this originates mainly from the range of trends in the SOI. Apparently, the group of models that seems to have a realistic ENSO-system also shows greater variations in terms of effective climate change. This underlines the importance of natural climate variability as a major source of uncertainty concerning climate change. For the SOI there are negative Trends in the multi-model ensemble as well as positive ones. Overall, these trends tend to stabilize the development of other climate parameters when various AOGCMs are combined, whether the two distinguished parts of CMIP3 are analyzed or the weighting scheme is applied. Especially in case of the latter method, this prevents significant effects on the mean change compared to the arithmetic multi-model mean. KW - Modell KW - Klima KW - Statistik KW - Anthropogene Klimaänderung KW - El-Niño-Phänomen KW - multi-model ensemble KW - großskalige Klimavariabilität KW - Gewichtung von Klimamodellen KW - large scale climate variability KW - weighting of climate models KW - Allgemeine atmosphärische Zirkulation KW - Klimatologie KW - Klimaänderung KW - Modellierung KW - Mathematisches Modell Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-97982 ER - TY - THES A1 - Richter, Stephan T1 - Detaillierte Simulationen von Blazar-Emissionen : ein numerischer Zugang zu Radiobeobachtungen und Kurzzeitvariabilität T1 - Detailed Simulations of Blazar-Emission: A numerical approach to Radio observations and short term variability N2 - Die vorliegende Arbeit beschäftigt sich mit den Prozessen, die in einer Unterklasse der Aktiven Galaxienkerne, den Blazaren, das Emissionsspektrum dieser Objekte erzeugen. Dies beinhaltet insbesondere den Beschleunigungsprozess, der eine nichtthermische Teilchenverteilung erzeugt, sowie diverse Strahlungsprozesse. Das Spektrum dieser Quellen reicht dabei vom Radiobereich bis zu Energien im TeV-Bereich. Die Form des zeitlich gemittelten Spektrums kann durch Modelle bereits sehr gut beschrieben werden. Insbesondere die erste der beiden dominierenden Komponenten des Spektrums kann mit hoher Sicherheit mit Synchrotronemission einer Elektronenenergieverteilung in Form eines Potenzgesetzes identifiziert werden. Für den Ursprung der zweiten Komponente existieren jedoch verschiedene Erklärungsversuche. Dies sind im wesentlichen die inverse Compton-Streuung der internen oder externer Strahlung (leptonische Modelle) sowie die Emission und photohadronische Wechselwirkung einer hochenergetischen Verteilung von Protonen in der Quelle. Eine räumliche Auflösung des Ursprungs der detektierten Strahlung ist mit den zur Verfügung stehenden Teleskopen nicht möglich. Einschränkungen für die Ausdehnung dieser Emissionszone ergeben sich lediglich aus der Variation des Emissionsspektrums. Eine Bestimmung der Morphologie ist jedoch im selbstabsorbierten Radiobereich des Spektrums durch die Ausnutzung von interferometrischen Beobachtungen möglich. Die resultierenden Längen, auf denen die im inneren der Quelle selbstabsorbierte Strahlung die Quelle schließlich verlässt, sind jedoch etwa zwei Größenordnungen oberhalb der aus den Variabilitätszeitskalen gefolgerten Limits. Das im Rahmen dieser Arbeit entwickelte Modell soll dabei helfen, verschiedene Beobachtungen mit Hilfe eines quantitativen Modells zu beschreiben. Hier steht insbesondere die Korrelation zwischen den Verläufen der Hochenergie- und Radioemission im Vordergrund. Eine Aussage über die Existenz einer solchen Verbindung konnte aus den bisherigen Beobachtungen nicht getroffen werden. Eine quantitative Modellierung könnte bei der Interpretation der bisher uneindeutigen Datenlage helfen. Eine weitere, durch Modelle bisher nicht beschreibbare, Beobachtungsevidenz sind extrem kurzzeitige Variationen des Flusszustands. Die Lichtlaufzeit durch das für die Modellierung benötigte Raumgebiet ist zumeist größer als die beobachtete Zeitskala. Zudem deuten die Beobachtungen darauf hin, dass manche dieser Flussausbrüche nicht zwischen den verschiedenen Bändern korreliert sind, wie es zumindest die leptonischen Modelle erwarten lassen würden. Das hier beschriebene Modell verbindet eine räumliche Auflösung des Emissionsgebiets mit dem dominanten Beschleunigungsmechanismus. Hierdurch konnte zunächst gezeigt werden, dass die Beschreibung von Variabilität auch auf Skalen unterhalb der Lichtlaufzeit durch das modellierte Raumgebiet möglich ist. Zudem wurde ein Szenario quantifiziert, dass im leptonischen Fall unkorrelierte Ausbrüche vorhersagt. \thispagestyle{empty} Durch eine Erweiterung des Emissionsgebiets gegenüber anderen Blazar-Modellen um zwei Größenordnung konnte zudem eine Verknüpfung zwischen dem Hochenergie- und dem Radiobereich erfolgen. Die gefundene Morphologie des Einschlussgebiets der nichtthermischen Teilchenpopulation beinhaltet eine physikalisch sinnvolle Randbedingung für das Emissionsgebiet der Hochenergiestrahlung, die zudem den für die betrachtete Quelle korrekten Spektralindex im Radiobereich erzeugt. Darüber hinaus wurden in das Modell sowohl leptonische als auch hadronische Prozesse integriert, die eine flexible und unvoreingenommene Modellierung potentieller Hybridquellen erlauben. Mit dem entwickelten Modell ist es möglich, aus detailliert vermessenen Lichtkurven im Hochenergiebereich die zu erwartende Radioemission vorherzusagen. Die in diese Vorhersage eingehenden Parameter lassen sich aus der Modellierung des Gleichgewichtsspektrums bestimmen. N2 - The work presented here addresses processes that are responsible for the emission spectra of a certain sub-class of Active Galactic Nuclei, the Blazars. In particular, these include the acceleration process, producing the non-thermal particle distribution, and various Emission processes. The spectra of Blazars range from the radio band up until energies in the TeV range. The form of the steady state spectrum is explained well by existing models. There is, in particular, strong evidence that the first of the two bumps of the spectral energy distribution is the synchrotron emission of an electron power-law distribution. For the second bump there are, however, several possibilities. Roughly speaking these are the inverse Compton scattering of the internal radiation or an external radiation field (leptonic models), as well as the emission of non-thermal protons and photo hadronic interactions with these protons. A resolution of the source of the detected radiation is not in the scope of existing telescopes. Limits on the spatial extent of the Emission region only follow from the variation timescales of the spectra. In the self-absorbed radio regime, a determination of the morphology is however possible due to interferometric observations. The observed lengths represent the scale at which the radiation, which is self-absorbed in the innermost parts, eventually leaves the source. However, this scale is two orders of magnitude larger than the limits deduced from the variability timescales. The model developed during the course of this work is designed to produce a quantitative description of various observations. First and foremost these are the correlations between the radio regime and the very high energy regime. Strong evidence either for or against the existence of such a correlation was not possible thus far with the available data. Quantitative modelling could help to interpret the presently unclear situation. Additional observations, that cannot be explained by current models, are extreme short-term variability. The light travelling times through the emission region that are required for the steady state modelling are usually much longer than the observed timescales. Moreover, observations indicate that some of the observed flares have no correlated variability in other bands as would be expected from leptonic models. The model described in this thesis connects a spatial resolution of the emission region with the dominant acceleration process. With this approach it could be shown, that the modelling of variability on scales below the light travel time limits can be achieved. Moreover, a leptonic scenario predicting uncorrelated short-term variability was quantified. A connection between the radio and very high energy emission was achieved via an extension of the size of the emission region by two orders of magnitude. The morphology of the confinement region that was used for the large scale simulations provides both a physical Sound boundary condition for the high energy emission, as well as a correct description of the observed spectral index in the radio. Furthermore, both leptonic and photohadronic processes were implemented, providing a flexible and unbiased modelling of hybrid sources. The developed model is capable of predicting the radio emission on the basis of detailed light curves in the high energy regime. The Parameters entering this prediction follow from the modelling of the steady state of the chosen source. KW - Blazar KW - Strahlung KW - Mathematisches Modell KW - Strahlung Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-103209 ER - TY - THES A1 - Zenk, Markus T1 - On Numerical Methods for Astrophysical Applications T1 - Über numerische Methoden für astrophysikalische Anwendungen N2 - Diese Arbeit befasst sich mit der Approximation der Lösungen von Modellen zur Beschreibung des Strömungsverhaltens in Atmosphären. Im Speziellen umfassen die hier behandelten Modelle die kompressiblen Euler Gleichungen der Gasdynamik mit einem Quellterm bezüglich der Gravitation und die Flachwassergleichungen mit einem nicht konstanten Bodenprofil. Verschiedene Methoden wurden bereits entwickelt um die Lösungen dieser Gleichungen zu approximieren. Im Speziellen geht diese Arbeit auf die Approximation von Lösungen nahe des Gleichgewichts und, im Falle der Euler Gleichungen, bei kleinen Mach Zahlen ein. Die meisten numerischen Methoden haben die Eigenschaft, dass die Qualität der Approximation sich mit der Anzahl der Freiheitsgrade verbessert. In der Praxis werden deswegen diese numerischen Methoden auf großen Computern implementiert um eine möglichst hohe Approximationsgüte zu erreichen. Jedoch sind auch manchmal diese großen Maschinen nicht ausreichend, um die gewünschte Qualität zu erreichen. Das Hauptaugenmerk dieser Arbeit ist darauf gerichtet, die Qualität der Approximation bei gleicher Anzahl von Freiheitsgrade zu verbessern. Diese Arbeit ist im Zusammenhang einer Kollaboration zwischen Prof. Klingenberg des Mathemaitschen Instituts in Würzburg und Prof. Röpke des Astrophysikalischen Instituts in Würzburg entstanden. Das Ziel dieser Kollaboration ist es, Methoden zur Berechnung von stellarer Atmosphären zu entwickeln. In dieser Arbeit werden vor allem zwei Problemstellungen behandelt. Die erste Problemstellung bezieht sich auf die akkurate Approximation des Quellterms, was zu den so genannten well-balanced Schemata führt. Diese erlauben genaue Approximationen von Lösungen nahe des Gleichgewichts. Die zweite Problemstellung bezieht sich auf die Approximation von Strömungen bei kleinen Mach Zahlen. Es ist bekannt, dass Lösungen der kompressiblen Euler Gleichungen zu Lösungen der inkompressiblen Euler Gleichungen konvergieren, wenn die Mach Zahl gegen null geht. Klassische numerische Schemata zeigen ein stark diffusives Verhalten bei kleinen Mach Zahlen. Das hier entwickelte Schema fällt in die Kategorie der asymptotic preserving Schematas, d.h. das numerische Schema ist auf einem diskrete Level kompatibel mit dem auf dem Kontinuum gezeigten verhalten. Zusätzlich wird gezeigt, dass die Diffusion des hier entwickelten Schemas unabhängig von der Mach Zahl ist. In Kapitel 3 wird ein HLL approximativer Riemann Löser für die Approximation der Lösungen der Flachwassergleichungen mit einem nicht konstanten Bodenprofil angewendet und ein well-balanced Schema entwickelt. Die meisten well-balanced Schemata für die Flachwassergleichungen behandeln nur den Fall eines Fluids im Ruhezustand, die so genannten Lake at Rest Lösungen. Hier wird ein Schema entwickelt, welches sich mit allen Gleichgewichten befasst. Zudem wird eine zweiter Ordnung Methode entwickelt, welche im Gegensatz zu anderen in der Literatur nicht auf einem iterativen Verfahren basiert. Numerische Experimente werden durchgeführt um die Vorteile des neuen Verfahrens zu zeigen. In Kapitel 4 wird ein Suliciu Relaxations Löser angepasst um die hydrostatischen Gleichgewichte der Euler Gleichungen mit einem Gravitationspotential aufzulösen. Die Gleichungen der hydrostatischen Gleichgewichte sind unterbestimmt und lassen deshalb keine Eindeutigen Lösungen zu. Es wird jedoch gezeigt, dass das neue Schema für eine große Klasse dieser Lösungen die well-balanced Eigenschaft besitzt. Für bestimmte Klassen werden Quadraturformeln zur Approximation des Quellterms entwickelt. Es wird auch gezeigt, dass das Schema robust, d.h. es erhält die Positivität der Masse und Energie, und stabil bezüglich der Entropieungleichung ist. Die numerischen Experimente konzentrieren sich vor allem auf den Einfluss der Quadraturformeln auf die well-balanced Eigenschaften. In Kapitel 5 wird ein Suliciu Relaxations Schema angepasst für Simulationen im Bereich kleiner Mach Zahlen. Es wird gezeigt, dass das neue Schema asymptotic preserving und die Diffusion kontrolliert ist. Zudem wird gezeigt, dass das Schema für bestimmte Parameter robust ist. Eine Stabilität wird aus einer Chapman-Enskog Analyse abgeleitet. Resultate numerische Experimente werden gezeigt um die Vorteile des neuen Verfahrens zu zeigen. In Kapitel 6 werden die Schemata aus den Kapiteln 4 und 5 kombiniert um das Verhalten des numerischen Schemas bei Flüssen mit kleiner Mach Zahl in durch die Gravitation geschichteten Atmosphären zu untersuchen. Es wird gezeigt, dass das Schema well-balanced ist. Die Robustheit und die Stabilität werden analog zu Kapitel 5 behandelt. Auch hier werden numerische Tests durchgeführt. Es zeigt sich, dass das neu entwickelte Schema in der Lage ist, die Dynamiken besser Aufzulösen als vor der Anpassung. Das Kapitel 7 beschäftigt sich mit der Entwicklung eines multidimensionalen Schemas basierend auf der Suliciu Relaxation. Jedoch ist die Arbeit an diesem Ansatz noch nicht beendet und numerische Resultate können nicht präsentiert werden. Es wird aufgezeigt, wo sich die Schwächen dieses Ansatzes befinden und weiterer Entwicklungsbedarf besteht. N2 - This work is concerned with the numerical approximation of solutions to models that are used to describe atmospheric or oceanographic flows. In particular, this work concen- trates on the approximation of the Shallow Water equations with bottom topography and the compressible Euler equations with a gravitational potential. Numerous methods have been developed to approximate solutions of these models. Of specific interest here are the approximations of near equilibrium solutions and, in the case of the Euler equations, the low Mach number flow regime. It is inherent in most of the numerical methods that the quality of the approximation increases with the number of degrees of freedom that are used. Therefore, these schemes are often run in parallel on big computers to achieve the best pos- sible approximation. However, even on those big machines, the desired accuracy can not be achieved by the given maximal number of degrees of freedom that these machines allow. The main focus in this work therefore lies in the development of numerical schemes that give better resolution of the resulting dynamics on the same number of degrees of freedom, compared to classical schemes. This work is the result of a cooperation of Prof. Klingenberg of the Institute of Mathe- matics in Wu¨rzburg and Prof. R¨opke of the Astrophysical Institute in Wu¨rzburg. The aim of this collaboration is the development of methods to compute stellar atmospheres. Two main challenges are tackled in this work. First, the accurate treatment of source terms in the numerical scheme. This leads to the so called well-balanced schemes. They allow for an accurate approximation of near equilibrium dynamics. The second challenge is the approx- imation of flows in the low Mach number regime. It is known that the compressible Euler equations tend towards the incompressible Euler equations when the Mach number tends to zero. Classical schemes often show excessive diffusion in that flow regime. The here devel- oped scheme falls into the category of an asymptotic preserving scheme, i.e. the numerical scheme reflects the behavior that is computed on the continuous equations. Moreover, it is shown that the diffusion of the numerical scheme is independent of the Mach number. In chapter 3, an HLL-type approximate Riemann solver is adapted for simulations of the Shallow Water equations with bottom topography to develop a well-balanced scheme. In the literature, most schemes only tackle the equilibria when the fluid is at rest, the so called Lake at rest solutions. Here a scheme is developed to accurately capture all the equilibria of the Shallow Water equations. Moreover, in contrast to other works, a second order extension is proposed, that does not rely on an iterative scheme inside the reconstruction procedure, leading to a more efficient scheme. In chapter 4, a Suliciu relaxation scheme is adapted for the resolution of hydrostatic equilibria of the Euler equations with a gravitational potential. The hydrostatic relations are underdetermined and therefore the solutions to that equations are not unique. However, the scheme is shown to be well-balanced for a wide class of hydrostatic equilibria. For specific classes, some quadrature rules are computed to ensure the exact well-balanced property. Moreover, the scheme is shown to be robust, i.e. it preserves the positivity of mass and energy, and stable with respect to the entropy. Numerical results are presented in order to investigate the impact of the different quadrature rules on the well-balanced property. In chapter 5, a Suliciu relaxation scheme is adapted for the simulations of low Mach number flows. The scheme is shown to be asymptotic preserving and not suffering from excessive diffusion in the low Mach number regime. Moreover, it is shown to be robust under certain parameter combinations and to be stable from an Chapman-Enskog analysis. Numerical results are presented in order to show the advantages of the new approach. In chapter 6, the schemes developed in the chapters 4 and 5 are combined in order to investigate the performance of the numerical scheme in the low Mach number regime in a gravitational stratified atmosphere. The scheme is shown the be well-balanced, robust and stable with respect to a Chapman-Enskog analysis. Numerical tests are presented to show the advantage of the newly proposed method over the classical scheme. In chapter 7, some remarks on an alternative way to tackle multidimensional simulations are presented. However no numerical simulations are performed and it is shown why further research on the suggested approach is necessary. KW - Strömung KW - Numerical Methods KW - Hyperbolic Partial Differential Equations KW - Well-Balanced KW - Asymptotic Preserving KW - Atmosphäre KW - Mathematisches Modell KW - PDE Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-162669 ER - TY - THES A1 - Moldovan, Christian T1 - Performance Modeling of Mobile Video Streaming T1 - Leistungsmodellierung von mobilem Videostreaming N2 - In the past two decades, there has been a trend to move from traditional television to Internet-based video services. With video streaming becoming one of the most popular applications in the Internet and the current state of the art in media consumption, quality expectations of consumers are increasing. Low quality videos are no longer considered acceptable in contrast to some years ago due to the increased sizes and resolution of devices. If the high expectations of the users are not met and a video is delivered in poor quality, they often abandon the service. Therefore, Internet Service Providers (ISPs) and video service providers are facing the challenge of providing seamless multimedia delivery in high quality. Currently, during peak hours, video streaming causes almost 58\% of the downstream traffic on the Internet. With higher mobile bandwidth, mobile video streaming has also become commonplace. According to the 2019 Cisco Visual Networking Index, in 2022 79% of mobile traffic will be video traffic and, according to Ericsson, by 2025 video is forecasted to make up 76% of total Internet traffic. Ericsson further predicts that in 2024 over 1.4 billion devices will be subscribed to 5G, which will offer a downlink data rate of 100 Mbit/s in dense urban environments. One of the most important goals of ISPs and video service providers is for their users to have a high Quality of Experience (QoE). The QoE describes the degree of delight or annoyance a user experiences when using a service or application. In video streaming the QoE depends on how seamless a video is played and whether there are stalling events or quality degradations. These characteristics of a transmitted video are described as the application layer Quality of Service (QoS). In general, the QoS is defined as "the totality of characteristics of a telecommunications service that bear on its ability to satisfy stated and implied needs of the user of the service" by the ITU. The network layer QoS describes the performance of the network and is decisive for the application layer QoS. In Internet video, typically a buffer is used to store downloaded video segments to compensate for network fluctuations. If the buffer runs empty, stalling occurs. If the available bandwidth decreases temporarily, the video can still be played out from the buffer without interruption. There are different policies and parameters that determine how large the buffer is, at what buffer level to start the video, and at what buffer level to resume playout after stalling. These have to be finely tuned to achieve the highest QoE for the user. If the bandwidth decreases for a longer time period, a limited buffer will deplete and stalling can not be avoided. An important research question is how to configure the buffer optimally for different users and situations. In this work, we tackle this question using analytic models and measurement studies. With HTTP Adaptive Streaming (HAS), the video players have the capability to adapt the video bit rate at the client side according to the available network capacity. This way the depletion of the video buffer and thus stalling can be avoided. In HAS, the quality in which the video is played and the number of quality switches also has an impact on the QoE. Thus, an important problem is the adaptation of video streaming so that these parameters are optimized. In a shared WiFi multiple video users share a single bottleneck link and compete for bandwidth. In such a scenario, it is important that resources are allocated to users in a way that all can have a similar QoE. In this work, we therefore investigate the possible fairness gain when moving from network fairness towards application-layer QoS fairness. In mobile scenarios, the energy and data consumption of the user device are limited resources and they must be managed besides the QoE. Therefore, it is also necessary, to investigate solutions, that conserve these resources in mobile devices. But how can resources be conserved without sacrificing application layer QoS? As an example for such a solution, this work presents a new probabilistic adaptation algorithm that uses abandonment statistics for ts decision making, aiming at minimizing the resource consumption while maintaining high QoS. With current protocol developments such as 5G, bandwidths are increasing, latencies are decreasing and networks are becoming more stable, leading to higher QoS. This allows for new real time data intensive applications such as cloud gaming, virtual reality and augmented reality applications to become feasible on mobile devices which pose completely new research questions. The high energy consumption of such applications still remains an issue as the energy capacity of devices is currently not increasing as quickly as the available data rates. In this work we compare the optimal performance of different strategies for adaptive 360-degree video streaming. N2 - In den vergangenen zwei Jahrzehnten gab es einen starken Trend weg vom traditionellen Fernsehen hin zum Videostreaming über das Internet. Dabei macht Videostreaming zurzeit den größten Anteil des gesamten Internetverkehrs aus. Beim Herunterladen eines Internetvideos wird das Video vor dem Ausspielen in einem Puffer beim Client zwischengespeichert, um Netzfluktuationen zu kompensieren. Leert sich der Puffer, so muss das Video stoppen (Stalling), um Daten nachzuladen. Um dies zu verhindern, müssen Pufferstrategien und -Parameter optimal an Nutzerszenarien angepasst sein. Mit diesem Problem beschäftigen wir uns im ersten Kapitel dieser Arbeit unter Anwendung von Wartschlangenmodelle, numerische Simulationen und Messstudien. Zur Bewertung der Güte eines Videostreams nutzen wir ein Modell, das auf subjektiven Studien basiert. Mit HTTP Adaptive Streaming hat der Videoplayer die Fähigkeit, Videosegmente in einer an die Bandbreite angepasster Bitrate und somit auch angepasster Qualität anzufordern. Somit kann die Leerung des Puffers gebremst und Stalling verhindert werden. Allerdings hat neben Stalling auch die Videoqualität und die Anzahl der Qualitätswechsel Auswirkungen auf die Zufriedenheit der Zuschauer. Inwiefern diese Parameter optimiert werden können, untersuchen wir im zweiten Kapitel mit Hilfe von linearen und quadratischen Programmen sowie einem Warteschlangenmodell. Hierbei untersuchen wie auch die Fairness in Netzen mit mehreren Nutzern und 360-Grad Videos. Im dritten Kapitel untersuchen wir Möglichkeiten, Videostreaming ressourcenschonender zu gestalten. Hierzu untersuchen wir in einer Feldstudie die Möglichkeit Caches an WiFi-Hotspots einzusetzen und somit redundanten Verkehr zu reduzieren. Wir untersuchen das Verhalten von mobilen Videonutzern, indem wir eine Nutzerstudie auswerten. Außerdem stellen wir einen neuen Adaptionsalgorithmus vor, der abhängig vom Nutzerverhalten den Datenverbrauch und Stromverbrauch des Videostreams reduziert. T3 - Würzburger Beiträge zur Leistungsbewertung Verteilter Systeme - 01/20 KW - Videoübertragung KW - Quality of Experience KW - Dienstgüte KW - Leistungsbewertung KW - Mathematisches Modell KW - video streaming KW - performance modeling KW - optimization Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-228715 SN - 1432-8801 ER -