Institut für Theoretische Physik und Astrophysik
Refine
Has Fulltext
- yes (264)
Is part of the Bibliography
- yes (264)
Year of publication
Document Type
- Doctoral Thesis (145)
- Journal article (117)
- Master Thesis (1)
- Other (1)
Keywords
- Monte-Carlo-Simulation (12)
- Supersymmetrie (12)
- Topologischer Isolator (12)
- topological insulators (12)
- Blazar (10)
- LHC (9)
- AdS-CFT-Korrespondenz (8)
- Aktiver galaktischer Kern (8)
- Astrophysik (8)
- Elementarteilchenphysik (8)
Institute
Sonstige beteiligte Institutionen
Over the past decades, noncommutative geometry has grown into an established field in pure mathematics and theoretical physics. The discovery that noncommutative geometry emerges as a limit of quantum gravity and string theory has provided strong motivations to search for physics beyond the standard model of particle physics and also beyond Einstein's theory of general relativity within the realm of noncommutative geometries. A very fruitful approach in the latter direction is due to Julius Wess and his group, which combines deformation quantization (star-products) with quantum group methods. The resulting gravity theory does not only include noncommutative effects of spacetime, but it is also invariant under a deformed Hopf algebra of diffeomorphisms, generalizing the principle of general covariance to the noncommutative setting. The purpose of the first part of this thesis is to understand symmetry reduction in noncommutative gravity, which then allows us to find exact solutions of the noncommutative Einstein equations. These are important investigations in order to capture the physical content of such theories and to make contact to applications in e.g. noncommutative cosmology and black hole physics. We propose an extension of the usual symmetry reduction procedure, which is frequently applied to the construction of exact solutions of Einstein's field equations, to noncommutative gravity and show that this leads to preferred choices of noncommutative deformations of a given symmetric system. We classify in the case of abelian Drinfel'd twists all consistent deformations of spatially flat Friedmann-Robertson-Walker cosmologies and of the Schwarzschild black hole. The deformed symmetry structure allows us to obtain exact solutions of the noncommutative Einstein equations in many of our models, for which the noncommutative metric field coincides with the classical one. In the second part we focus on quantum field theory on noncommutative curved spacetimes. We develop a new formalism by combining methods from the algebraic approach to quantum field theory with noncommutative differential geometry. The result is an algebra of observables for scalar quantum field theories on a large class of noncommutative curved spacetimes. A precise relation to the algebra of observables of the corresponding undeformed quantum field theory is established. We focus on explicit examples of deformed wave operators and find that there can be noncommutative corrections even on the level of free field theories, which is not the case in the simplest example of the Moyal-Weyl deformed Minkowski spacetime. The convergent deformation of simple toy-models is investigated and it is shown that these quantum field theories have many new features compared to formal deformation quantization. In addition to the expected nonlocality, we obtain that the relation between the deformed and the undeformed quantum field theory is affected in a nontrivial way, leading to an improved behavior of the noncommutative quantum field theory at short distances, i.e. in the ultraviolet. In the third part we develop elements of a more powerful, albeit more abstract, mathematical approach to noncommutative gravity. The goal is to better understand global aspects of homomorphisms between and connections on noncommutative vector bundles, which are fundamental objects in the mathematical description of noncommutative gravity. We prove that all homomorphisms and connections of the deformed theory can be obtained by applying a quantization isomorphism to undeformed homomorphisms and connections. The extension of homomorphisms and connections to tensor products of modules is clarified, and as a consequence we are able to add tensor fields of arbitrary type to the noncommutative gravity theory of Wess et al. As a nontrivial application of the new mathematical formalism we extend our studies of exact noncommutative gravity solutions to more general deformations.
Die vorliegende Arbeit beschäftigt sich mit der Chaossynchronisation in Netzwerken mit zeitverzögerten Kopplungen. Ein Netzwerk chaotischer Einheiten kann isochron und vollständig synchronisieren, auch wenn der Austausch der Signale einer oder mehreren Verzögerungszeiten unterliegt. In einem Netzwerk identischer Einheiten hat sich als Stabilitätsanalyse die Methode der Master Stability Funktion von Pecora und Carroll etabliert. Diese entspricht für ein Netzwerk gekoppelter iterativer Bernoulli-Abbildungen Polynomen vom Grade der größten Verzögerungszeit. Das Stabilitätsproblem reduziert sich somit auf die Untersuchung der Nullstellen dieser Polynome hinsichtlich ihrer Lage bezüglich des Einheitskreises. Eine solche Untersuchung kann beispielsweise numerisch mit dem Schur-Cohn-Theorem erfolgen, doch auch analytische Ergebnisse lassen sich erzielen. In der vorliegenden Arbeit werden Bernoulli-Netzwerke mit einer oder mehreren zeitverzögerten Kopplungen und/oder Rückkopplungen untersucht. Hierbei werden Aussagen über Teile des Stabilitätsgebietes getroffen, welche unabhängig von den Verzögerungszeiten sind. Des Weiteren werden Aussagen zu Systemen gemacht, welche sehr große Verzögerungszeiten aufweisen. Insbesondere wird gezeigt, dass in einem Bernoulli-Netzwerk keine stabile Chaossynchronisation möglich ist, wenn die vorhandene Verzögerungszeit sehr viel größer ist als die Zeitskala der lokalen Dynamik, bzw. der Lyapunovzeit. Außerdem wird in bestimmten Systemen mit mehreren Verzögerungszeiten anhand von Symmetriebetrachtungen stabile Chaossynchronisation ausgeschlossen, wenn die Verzögerungszeiten in bestimmten Verhältnissen zueinander stehen. So ist in einem doppelt bidirektional gekoppeltem Paar ohne Rückkopplung und mit zwei verschiedenen Verzögerungszeiten stabile Chaossynchronisation nicht möglich, wenn die Verzögerungszeiten in einem Verhältnis von teilerfremden ungeraden ganzen Zahlen zueinander stehen. Es kann zudem Chaossynchronisation ausgeschlossen werden, wenn in einem bipartiten Netzwerk mit zwei großen Verzögerungszeiten zwischen diesen eine kleine Differenz herrscht. Schließlich wird ein selbstkonsistentes Argument vorgestellt, das das Auftreten von Chaossynchronisation durch die Mischung der Signale der einzelnen Einheiten interpretiert und sich unter anderem auf die Teilerfremdheit der Zyklen eines Netzes stützt. Abschließend wird untersucht, ob einige der durch die Bernoulli-Netzwerke gefundenen Ergebnisse sich auf andere chaotische Netzwerke übertragen lassen. Hervorzuheben ist die sehr gute Übereinstimmung der Ergebnisse eines Bernoulli-Netzwerkes mit den Ergebnissen eines gleichartigen Netzwerkes gekoppelter Halbleiterlasergleichungen, sowie die Übereinstimmungen mit experimentellen Ergebnissen eines Systems von Halbleiterlasern.
Hochenergetische solare Teilchen werden bei ihrem Transport durch die Heliosphäre an turbulenten Magnetfeldern gestreut. Für das Verständnis dieses Streuprozesses ergeben sich aus heutiger Sicht zwei wesentliche Hindernisse: - Bei der Streuung hochenergetischer Teilchen an turbulenten Magnetfeldern handelt es sich um einen nichtlinearen Prozess, der durch analytische Theorien kaum zu beschreiben ist. - Der Streuprozess hängt stark von den tatsächlichen Magnetfeldern und somit auch von der Magnetfeldturbulenz ab. Unser bisheriges Verständnis der heliosphärischen Turbulenz ist leider aufgrund spärlicher experimenteller Daten deutlich eingeschränkt, was eine qualifizierte Umsetzung in analytischen und numerischen Ansätzen deutlich erschwert. Dies machte in der Vergangenheit künstliche Annahmen für die Modellerstellung notwendig. In dieser Arbeit wird der Teilchentransport mit Hilfe der Simulation von Testteilchen in einem turbulenten, magnetohydrodynamischen Plasma untersucht. Durch die Testteilchen werden auch die nichtlinearen Streuprozesse korrekt wiedergegeben, wodurch das erste hier genannte Hindernis überwunden wird. Dies wurde auch bereits in früheren numerischen Untersuchungen erfolgreich angewendet. Die Modellierung der Turbulenz für den Fall des Teilchentransports erfolgt in dieser Arbeit erstmalig auf Grundlage der magnetohydrodynamischen Gleichungen. Dabei handelt es sich um die mathematisch korrekte Wiedergabe der Magnetfeldturbulenz unterhalb der Ionen-Gyrofrequenz mit nur geringen numerischen Einschränkungen. Darüber hinaus erlaubt ein auf das physikalische Szenario anpassbarer Turbulenztreiber eine noch realistischere Simulation der Turbulenz. Durch diesen universell gültigen, numerischen Ansatz können für das zweite hier angegebene Hindernis jegliche künstlichen Annahmen vermieden werden. Die drei im Rahmen dieser Arbeit erstmals zusammengeführten Methoden (Testteilchen, magnetohydrodynamische Turbulenz, Turbulenztreiber) ermöglichen somit eine Untersuchung und Analyse von Transport- und Turbulenzphänomenen mit herausragender Qualität, die insbesondere für den Fall des Teilchentransports einen direkten Anschluss an experimentelle Ergebnisse ermöglichen. Wichtige Ergebnisse im Rahmen dieser Arbeit sind: - der Nachweis der Drei-Wellen-Wechselwirkung für schwache und einsetzende starke Turbulenz. - eine Analyse der Anisotropie der Turbulenz im Bezug auf das Hintergrundmagnetfeld in Abhängigkeit vom Treibmodell. Insbesondere die Anisotropie ist experimentell bislang kaum erfassbar. - eine Untersuchung der Auswirkung der Gyroresonanzen auf die Diffusionskoeffizienten hochenergetischer solarer Teilchen in allgemeiner Form. - die Simulation des Teilchentransports in der Heliosphäre auf Grundlage experimenteller Messdaten. Die genauere Analyse der Simulationsergebnisse ermöglicht insgesamt einen Zugang zum Verständnis des Transports, der durch experimentelle Untersuchungen nicht erfassbar ist. Bei der Simulation wurden lediglich die Magnetfeldstärke sowie die untersuchte Teilchenenergie vorgegeben. Aus der Analyse der Simulationsergebnisse ergibt sich dieselbe mittlere freie Weglänge, wie sie auch durch andere Verfahren direkt aus den Messergebnissen gewonnen werden konnte. Auch die vorwiegende Ausrichtung der hochenergetischen Teilchen parallel und antiparallel zum Hintergrundmagnetfeld in der Simulation entspricht experimentellen Untersuchungen. Es zeigt sich, dass diese allein aus den resonanten Streuprozessen der Teilchen mit den Magnetfeldern resultiert. Des Weiteren werden die Art der Diffusion, der Energieverlust der Teilchen während des Transportprozesses sowie die Gültigkeit der quasilinearen Theorie untersucht.
Diese Arbeit beschäftigt sich mit Strahlungsprozessen in Blazaren. Bei den Blazaren handelt es sich um eine Unterkategorie der aktiven Galaxienkerne, bei denen die Jetachse in Richtung des Beobachters zeigt. Charakteristisch für die Blazare ist ein Multifrequenzspektrum der Photonen, welches sich vom Radiobereich bis hin zur Gamma-Strahlung mit TeV-Energien erstreckt. Insbesondere der Gamma-Bereich rückt aktuell in den Fokus der Betrachtung mit Experimenten wie zum Beispiel FERMI und MAGIC. Ziel dieser Arbeit ist die Modellierung der auftretenden Strahlungsprozesse und die Beschreibung der Multifrequenzspektren der Blazare mit Hilfe eines hadronisch-leptonischen Modells. Grundlage hierfür ist ein selbstkonsistentes Synchrotron-Selbst-Compton-Modell (SSC), welches zur Beschreibung des Spektrums der Quelle 1 ES 1218+30.4 verwendet wird. Dabei wird die Parameterwahl unterstützt durch eine Abschätzung der Masse des zentralen schwarzen Loches. Das hier behandelte SSC-Modell wird dahingehend untersucht, wie es sich unter Veränderung der Modellparameter verhält. Dabei werden Abhängigkeiten des Photonenspektrums von Änderungsfaktoren der Parameter abgeleitet. Außerdem werden diese Abhängigkeiten in Relation gesetzt und aus dieser Betrachtung ergibt sich die Schlussfolgerung, dass unter der Voraussetzung eines festen Spektralindex der Elektronenverteilung die Wahl eines Parametersatzes zur Modellierung eines Photonenspektrums eindeutig ist. Zur Einführung eines zeitabhängigen, hadronischen Modells wird das SSCModell um die Anwesenheit nichtthermischer Protonen erweitert. Dadurch kann Proton-Synchrotron-Strahlung einen Beitrag im Gamma-Bereich leisten. Außerdem werden durch Proton-Photon-Wechselwirkung Pionen erzeugt. Aus deren Zerfall werden zusammen mit der Paarbildung aus Photon-Photon-Absorption sekundäre Elektronen und Positronen produziert, die wiederum zum Hochenergiespektrum beitragen. Neben den Pionen werden bei der Proton-Photon- Wechselwirkung außerdem noch Neutrinos und Neutronen erzeugt, die einen direkten Einblick in die Emissionsregion erlauben. Das hier vorgestellte hadronische Modell wird auf die Quelle 3C 279 angewandt. Für diese Quelle reicht mit der Detektion im VHE-Bereich der SSCAnsatz nicht aus, um das Photonenspektrum zu beschreiben. Mit dem vorgelegten Modell gelingt die Beschreibung des Spektrums in den SSC-kritischen Bereichen sehr gut. Insbesondere können verschiedene Flusszustände modelliert und allein durch Veränderung der Maximalenergien von Protonen und Elektronen ineinander überführt werden. Diese einfache Möglichkeit der Modellierung der Variabilität der Quelle unterstreicht die Wahl des hadronischen Ansatzes. Somit wird hier ein sehr gutes Werkzeug zur Untersuchung der Emissionsprozesse in Blazaren geliefert. Darüber hinaus ist mit der Abschätzung des Neutrino-Flusses zwar die Detektion von 3C 279 als Punktquelle mit IceCube unwahrscheinlich, jedoch liefert das Modell generell die Möglichkeit im Kontext des Multimessenger-Ansatzes Antworten zu liefern. Im gleichen Kontext wird auch der Beitrag zur kosmischen Strahlung durch entweichende Neutronen untersucht.
Im Rahmen dieser Arbeit wurde ein dreidimensionaler vollrelativistischer und parallelisierter Particle-in-Cell Code geschrieben, ausführlich getestet und angewandt. Der Code ACRONYM ist variabel einsetzbar und von der Genauigkeit und Stabilität her State-of-the-Art und somit konkurrenzfähig zu den sonstigen in der Astrophysik eingesetzten Codes anderer Gruppen. Die Energie bleibt bis auf einen Fehler von < 0.03% erhalten, die Divergenz des Magnetfeldes bleibt immer unter einem Wert von 10^{-12} und die Skalierung wurde mittlerweile bis zu einem Clustergröße von einigen 10000 CPUs getestet. In dieser Arbeit wurde dann, nach der Entwicklung des Codes, der Einfluss des fundamentalen Massenverhältnisses m_p/m_e auf die Teilchenbeschleunigung durch Plasmainstabilitäten untersucht. Dies ist relevant und wichtig, da in PiC-Simulationen in den allermeisten Fällen nicht mit dem realen Massenverhältnis gerechnet wird, da sonst viel zu viel Rechenleistung benötigt würde, um zu sehen, was mit den Protonen geschieht und was ihr Einfluss auf die leichten Teilchen wie Elektronen und Positronen ist. Zu diesem Zweck wurden Simulationen mit Massenverhältnissen zwischen m_p/m_e = 1.0 und 200.0 durchgeführt. Diese haben alle gemeinsam, dass periodische Randbedingungen verwendet wurden und das zur Verfügung stehende Simulationsgebiet mit jeweils zwei gegeneinander strömenden Plasmapopulationen vollständig gefüllt wurde, um jegliche Art von auftretenden Schocks auszuschließen. Die Rohdaten der einzelnen Simulationen wurden auf vielfältige Art und Weise analysiert, es wurden z.B. Schnitte durch die Teilchenverteilung erstellt, sowie ein- oder zweidimensionale Histogramme und Energieverläufe betrachtet. Dabei haben sich folgende Kernpunkte ergeben: Für Massenverhältnisse bis etwa m_p/m_e = 20 bildet sich die gesamte Zweistrom-Instabilität in nur einer Phase aus, das heißt, es bilden sich von ringförmigen Magnetfeldern umgebene Flussschläuche aus, die dann verschmelzen, bis nur noch zwei übrig sind und alle Teilchen werden über den gesamten Verlauf der Instabilität beschleunigt. Es ist damit zu folgern, dass die unterschiedlich schweren Teilchenspezies Protonen und Elektronen/Positronen durch die relativ nahe beieinander liegenden Massen noch so stark gekoppelt sind, dass sich nur eine Instabilität entwickeln kann. Bei großen Massenverhältnissen (m_p/m_e > 20) ist eine deutliche Trennung in zwei Phasen der Instabilität zu erkennen. Zuerst bilden sich wiederum Flussschläuche aus, diese verschmelzen miteinander (zu zweien oder mehr), bevor der erste Teil der Instabilität abflaut. Anschließend entstehen wieder ringförmige Magnetfelder und Flussschläuche, von denen einer meist deutlich stärker ist als all die anderen, das bedeutet, dass dieser von stärkeren Magnetfeldern umgeben ist und eine höhere Teilchendichte aufweist. Im Rahmen dieser zweigeteilten Instabilität werden die Elektronen und Positronen nur in der ersten Phase signifikant beschleunigt, die deutlich schwereren Protonen gewinnen über den gesamten Zeitraum Energie. Die höchstenergetischen Teilchen erreichen im Ruhesystem der jeweiligen Plasmapopulation Werte um gamma = 250. Man kann daraus für zukünftige Untersuchungen mit Hilfe von Particle-in-Cell Codes den Schluss ziehen, dass Rückschlüsse auf das tatsächliche Verhalten beim realen Massenverhältnis von m_p/m_e = 1836.2 nur aus den Simulationen mit m_p/m_e >> 20 gezogen werden können, da die starke Kopplung der leichten und schweren Teilchen bei kleineren Massenverhältnissen die Ergebnisse sehr stark beeinflusst. Es wurde anhand der gemessenen Zeitpunkte der Instabilitätsmaxima eine Extrapolation durchgeführt, die zeigt, dass die Instabilität beim realen Massenverhältnis etwa bei t = 1400 omega_{pe}^{-1} auftreten würde. Um dies wirklich zu simulieren müsste allerdings mehr als die 1000-fache Anzahl an CPU-Stunden aufgewandt werden. Des weiteren wurde eine Maxwell-Jüttner-Verteilung an die Teilchenverteilungen der einzelnen Simulationen auf dem Höhepunkt der Instabilität gefittet, um sowohl die neue Temperatur des Plasmas als auch die Beschleunigungseffizienz des Prozesses zu berechnen. Die Temperatur erhöht sich demnach durch die Instabilität von etwa 10^8K auf 10^{10} bis 10^{11}K, der Anteil suprathermischer Teilchen beträgt 2 bis 4%.
In the context of the indirect search for non-standard physics in the flavour sector of the Standard Model (SM), one of the most interesting processes is the rare inclusive B -> X_s gamma decay. On the one hand, being a flavour-changing neutral current, this B decay is sensitive to new physics, as it is loop-suppressed in the SM. On the other hand, it is only mildly affected by non-perturbative effects, and thus allows for precise theoretical predictions in the framework of renormalization-group improved perturbation theory. Accurate measurements as well as precise theoretical predictions with a good control over both perturbative and non-perturbative contributions have to be provided in order to derive stringent constraints on the parameter space of physics beyond the SM. On the experimental side, an outstanding accuracy in the measurement of the B -> Xs gamma decay rate has been achieved, which is mainly due the specialized experiments BaBar and Belle at the so-called B factories. To match the small experimental uncertainty, higher order computations within an effective low-energy theory of the SM are mandatory. In fact, next-to-next-to-leading order (NNLO) QCD corrections are required to provide a prediction for the decay rate with the same precision as the measurement. The NNLO evaluation of the B -> Xs gamma decay rate has been pursued by various groups over the last decade. The project was completed to a large extent and a first estimate at this level of perturbation theory was obtained in 2006. This prediction, however, lacks important contributions from yet unknown matrix elements, that were estimated from results which are only partially known to date. In this work, we provide a framework for the systematic study of the missing matrix elements at the NNLO. As main results of this thesis, we determine fermionic corrections to the charm quark mass dependent matrix elements of four-quark operators in the effective theory at NNLO. For the first time, the full mass dependence was kept. Moreover, we evaluate both bosonic and fermionic corrections to the decay rate in the limit of vanishing charm quark mass. These findings, combined with yet unknown remaining real contributions, will help to reduce the uncertainty of the NNLO branching ratio estimate considerably. Another central topic of the present work is the development of an automatic high-precision computation of multi-loop multi-scale integrals, a crucial ingredient for the here presented results.
The standard model (SM) of particle physics is for the last three decades a very successful description of the properties and interactions of all known elementary particles. Currently, it is again probed with the first collisions at the Large Hadron Collider (LHC). It is widely expected that new physics will be detected at the LHC and the SM has to be extended. The most exhaustive analyzed extension of the SM is supersymmetry (SUSY). SUSY can not only solve intrinsic problems of the SM like the hierarchy problem, but it also postulates new particles which might explain the nature of dark matter in the universe. The majority of all studies about dark matter in the framework of SUSY has focused on the minimal supersymmetric standard model (MSSM). The aim of this work is to consider scenarios beyond that scope. We consider two models which explain not only dark matter but also neutrino masses: the gravitino as dark matter in gauge mediated SUSY breaking (GMSB) with bilinear broken $R$-parity as well as different seesaw scenarios with the neutralino as dark matter candidate. Furthermore, we also study the next-to-minimal supersymmetric standard model (NMSSM) which solves the \(\mu\)-problem of the MSSM and discuss the properties of the neutralino as dark matter candidate. In case of $R$-parity violation, light gravitinos are often the only remaining candidate for dark matter in SUSY because of their very long life time. We reconsider the cosmological gravitino problem arising for this kind of models. It will be shown that the proposed solution for the overclosure of the universe by light gravitinos, namely the entropy production by decays of GMSB messenger, just works in a small subset of models and in fine-tuned regions of the parameter space. This is a consequence of two effects so far overlooked: the enhanced decay channels in massive vector bosons and the impact of charged messenger particles. Both aspects cause an interplay between different cosmological restrictions which lead to strong constraints on the parameters of GMSB models. Afterwards, a minimal supergravity (mSugra) scenario with additional chiral superfields at high energy scales is considered. These fields are arranged in complete $SU(5)$ multiplets in order to maintain gauge unification. The new fields generate a dimension 5 operator to explain neutrino data. Furthermore, they cause large differences in mass spectrum of MSSM fields because of the different evaluation of the renormalization group equations what changes also the properties of the lightest neutralino as dark matter candidate. We discuss the parameter space of all three possible seesaw scenarios with respect to dark matter and the impact on rare lepton flavor violating processes. As we will see, especially in seesaw type~III but also in type~II the mass spectrum and regions of parameter space consistent with dark matter differ significantly in comparison to a common mSugra scenario. Moreover, the experimental bounds, in particular of branching ratios like \(l_i \rightarrow l_j \gamma\), cause large constraints on the seesaw parameters.
One key scientific program of the MAGIC telescope project is the discovery and detection of blazars. They constitute the most prominent extragalactic source class in the very high energy (VHE) Gamma-ray regime with 29 out of 34 known objects (as of April 2010). Therefore a major part of the available observation time was spent in the last years on high-frequency peaked blazars. The selection criteria were chosen to increase the detection probability. As the X-ray flux is believed to be correlated to the VHE Gamma-ray flux, only X-ray selected sources with a flux F(X) > 2 μJy at 1 keV were considered. To avoid strong attenuation of the Gamma-rays in the extragalactic infrared background, the redshift was restricted to values between z < 0.15 and z < 0.4, depending on the declination of the objects. The latter determines the zenith distance during culmination which should not exceed 30° (for z < 0.4) and 45° (for z < 0.15), respectively. Between August 2005 and April 2009, a sample of 24 X-ray selected high-frequency peaked blazars has been observed with the MAGIC telescope. Three of them were detected including 1ES 1218+304 being the first high-frequency peaked BL Lacertae object (HBL) to be discovered with MAGIC in VHE Gamma-rays. One previously detected object was not confirmed as VHE emitter in this campaign by MAGIC. A set of 20 blazars previously not detected will be treated more closely in this work. In this campaign, during almost four years ~ 450 hrs or ~ 22% of the available observation time for extragalactic objects were dedicated to investigate the baseline emission of blazars and their broadband spectral properties in this emission state. For the sample of 20 objects in a redshift range of 0.018 < z < 0.361 integral flux upper limits in the VHE range on the 99.7% confidence level (corresponding to 3 standard deviations) were calculated resulting in values between 2.9% and 14.7% of the integral flux of the Crab Nebula. As the distribution of significances of the individual objects shows a clear shift to positive values, a stacking method was applied to the sample. For the whole set of 20 objects, an excess of Gamma-rays was found with a significance of 4.5 standard deviations in 349.5 hours of effective exposure time. For the first time a signal stacking in the VHE regime turned out to be successful. The measured integral flux from the cumulative signal corresponds to 1.4% of the Crab Nebula flux above 150 GeV with a spectral index α = −3.15±0.57. None of the objects showed any significant variability during the observation time and therefore the detected signal can be interpreted as the baseline emission of these objects. For the individual objects lower limits on the broad-band spectral indices αX−Gamma between the X-ray range at 1 keV and the VHE Gamma-ray regime at 200 GeV were calculated. The majority of objects show a spectral behaviour as expected from the source class of HBLs: The energy output in the VHE regime is in general lower than in X-rays. For the stacked blazar sample the broad-band spectral index was calculated to αX−Gamma = 1.09, confirming the result found for the individual objects. Another evidence for the revelation of the baseline emission is the broad-band spectral energy distribution (SED) comprising archival as well as contemporaneous multi-wavelength data from the radio to the VHE band. The SEDs of known VHE Gamma-ray sources in low flux states matches well the SED of the stacked blazar sample.
In this thesis we apply recently developed, as well as sophisticated quantum Monte Carlo methods to numerically investigate models of strongly correlated electron systems on honeycomb structures. The latter are of particular interest owing to their unique properties when simulating electrons on them, like the relativistic dispersion, strong quantum fluctuations and their resistance against instabilities. This work covers several projects including the advancement of the weak-coupling continuous time quantum Monte Carlo and its application to zero temperature and phonons, quantum phase transitions of valence bond solids in spin-1/2 Heisenberg systems using projector quantum Monte Carlo in the valence bond basis, and the magnetic field induced transition to a canted antiferromagnet of the Hubbard model on the honeycomb lattice. The emphasis lies on two projects investigating the phase diagram of the SU(2) and the SU(N)-symmetric Hubbard model on the hexagonal lattice. At sufficiently low temperatures, condensed-matter systems tend to develop order. An exception are quantum spin-liquids, where fluctuations prevent a transition to an ordered state down to the lowest temperatures. Previously elusive in experimentally relevant microscopic two-dimensional models, we show by means of large-scale quantum Monte Carlo simulations of the SU(2) Hubbard model on the honeycomb lattice, that a quantum spin-liquid emerges between the state described by massless Dirac fermions and an antiferromagnetically ordered Mott insulator. This unexpected quantum-disordered state is found to be a short-range resonating valence bond liquid, akin to the one proposed for high temperature superconductors. Inspired by the rich phase diagrams of SU(N) models we study the SU(N)-symmetric Hubbard Heisenberg quantum antiferromagnet on the honeycomb lattice to investigate the reliability of 1/N corrections to large-N results by means of numerically exact QMC simulations. We study the melting of phases as correlations increase with decreasing N and determine whether the quantum spin liquid found in the SU(2) Hubbard model at intermediate coupling is a specific feature, or also exists in the unconstrained t-J model and higher symmetries.
This thesis is concerned with the statistical physics of various systems far from thermal equilibrium, focusing on universal critical properties, scaling laws and the role of fluctuations. To this end we study several models which serve as paradigmatic examples, such as surface growth and non-equilibrium wetting as well as phase transitions into absorbing states. As a particular interesting example of a model with a non-conventional scaling behavior, we study a simplified model for pulsed laser deposition by rate equations and Monte Carlo simulations. We consider a set of equations, where islands are assumed to be point-like, as well as an improved one that takes the size of the islands into account. The first set of equations is solved exactly but its predictive power is restricted to the first few pulses. The improved set of equations is integrated numerically, is in excellent agreement with simulations, and fully accounts for the crossover from continuous to pulsed deposition. Moreover, we analyze the scaling of the nucleation density and show numerical results indicating that a previously observed logarithmic scaling does not apply. In order to understand the impact of boundaries on critical phenomena, we introduce particle models displaying a boundary-induced absorbing state phase transition. These are one-dimensional systems consisting of a single site (the boundary) where creation and annihilation of particles occur, while particles move diffusively in the bulk. We study different versions of these models and confirm that, except for one exactly solvable bosonic variant exhibiting a discontinuous transition with trivial exponents, all the others display a non-trivial behavior, with critical exponents differing from their mean-field values, representing a universality class. We show that these systems are related to a $(0+1)$-dimensional non-Markovian model, meaning that in nonequilibrium a phase transition can take place even in zero dimensions, if time long-range interactions are considered. We argue that these models constitute the simplest universality class of phase transition into an absorbing state, because the transition is induced by the dynamics of a single site. Moreover, this universality class has a simple field theory, corresponding to a zero dimensional limit of direct percolation with L{\'e}vy flights in time. Another boundary phenomena occurs if a nonequilibrium growing interface is exposed to a substrate, in this case a nonequilibrium wetting transition may take place. This transition can be studied through Langevin equations or discrete growth models. In the first case, the Kardar-Parisi-Zhang equation, which defines a very robust universality class for nonequilibrium moving interfaces, is combined with a soft-wall potential. While in the second, microscopic models, in the corresponding universality class, with evaporation and deposition of particles in the presence of hard-wall are studied. Equilibrium wetting is related to a particular case of the problem, corresponding to the Edwards-Wilkinson equation with a potential in the continuum approach or to the fulfillment of detailed balance in the microscopic models. In this thesis we present the analytical and numerical methods used to investigate the problem and the very rich behavior that is observed with them. The entropy production for a Markov process with a nonequilibrium stationary state is expected to give a quantitative measure of the distance form equilibrium. In the final chapter of this thesis, we consider a Kardar-Parisi-Zhang interface and investigate how entropy production varies with the interface velocity and its dependence on the interface slope, which are quantities that characterize how far the stationary state of the interface is away from equilibrium. We obtain results in agreement with the idea that the entropy production gives a measure of the distance from equilibrium. Moreover we use the same model to study fluctuation relations. The fluctuation relation is a symmetry in the large deviation function associated to the probability of the variation of entropy during a fixed time interval. We argue that the entropy and height are similar quantities within the model we consider and we calculate the Legendre transform of the large deviation function associated to the height for small systems. We observe that there is no fluctuation relation for the height, nevertheless its large deviation function is still symmetric.