Filtern
Volltext vorhanden
- ja (46)
Erscheinungsjahr
Dokumenttyp
- Dissertation (43)
- Artikel / Aufsatz in einer Zeitschrift (2)
- Buch (1)
Schlagworte
- Simulation (46) (entfernen)
Institut
- Institut für Informatik (8)
- Institut für Theoretische Physik und Astrophysik (5)
- Medizinische Klinik und Poliklinik I (5)
- Physikalisches Institut (5)
- Klinik und Poliklinik für Allgemein-, Viszeral-, Gefäß- und Kinderchirurgie (Chirurgische Klinik I) (3)
- Graduate School of Science and Technology (2)
- Institut für Geographie und Geologie (2)
- Institut für Mathematik (2)
- Betriebswirtschaftliches Institut (1)
- Center for Computational and Theoretical Biology (1)
Sonstige beteiligte Institutionen
ResearcherID
- D-1250-2010 (1)
This work aims at elucidating chemical processes involving homogeneous catalysis and photo–physical relaxation of excited molecules in the solid state. Furthermore, compounds with supposedly small singlet–triplet gaps and therefore biradicaloid character are investigated with respect to their electro–chemical behavior. The work on hydroboration catalysis via a reduced 9,10–diboraanthracene (DBA) was preformed in collaboration with the Wagner group in Frankfurt, more specifically Dr. Sven Prey, who performed all laboratory experiments. The investigation of delayed luminescence properties in arylboronic esters in their solid state was conducted in collaboration with the Marder group in Würzburg. The author of this work took part in the synthesis of the investigated compounds while being supervised by Dr. Zhu Wu. The final project was a collaboration with the group of Anukul Jana from Hyderabad, India who provided the experimental data.
The ongoing and evolving usage of networks presents two critical challenges for current and future networks that require attention: (1) the task of effectively managing the vast and continually increasing data traffic and (2) the need to address the substantial number of end devices resulting from the rapid adoption of the Internet of Things. Besides these challenges, there is a mandatory need for energy consumption reduction, a more efficient resource usage, and streamlined processes without losing service quality. We comprehensively address these efforts, tackling the monitoring and quality assessment of streaming applications, a leading contributor to the total Internet traffic, as well as conducting an exhaustive analysis of the network performance within a Long Range Wide Area Network (LoRaWAN), one of the rapidly emerging LPWAN solutions.
The ongoing and evolving usage of networks presents two critical challenges for current and future networks that require attention: (1) the task of effectively managing the vast and continually increasing data traffic and (2) the need to address the substantial number of end devices resulting from the rapid adoption of the Internet of Things. Besides these challenges, there is a mandatory need for energy consumption reduction, a more efficient resource usage, and streamlined processes without losing service quality. We comprehensively address these efforts, tackling the monitoring and quality assessment of streaming applications, a leading contributor to the total Internet traffic, as well as conducting an exhaustive analysis of the network performance within a Long Range Wide Area Network (LoRaWAN), one of the rapidly emerging LPWAN solutions.
This paper presents a measurement of the polarisation of tau leptons produced in Z/gamma* -> tau tau decays which is performed with a dataset of proton-proton collisions at root s = 8 TeV, corresponding to an integrated luminosity of 20.2 fb(-1) recorded with the ATLAS detector at the LHC in 2012. The Z/gamma* -> tau tau decays are reconstructed from a hadronically decaying tau lepton with a single charged particle in the final state, accompanied by a tau lepton that decays leptonically. The tau polarisation is inferred from the relative fraction of energy carried by charged and neutral hadrons in the hadronic tau decays. The polarisation is measured in a fiducial region that corresponds to the kinematic region accessible to this analysis. The tau polarisation extracted over the full phase space within the Z/gamma* mass range of 66 < mZ/gamma* < 116GeVis found to be P-tau = -0.14 +/- 0.02(stat)+/- 0.04(syst). It is in agreement with the Standard Model prediction of Pt = -0.1517 +/- 0.0019, which is obtained from the ALP-GEN event generator interfaced with the PYTHIA 6 parton shower modelling and the TAUOLA tau decay library.
The fact that photovoltaics is a key technology for climate-neutral energy production can be taken as a given. The question to what extent perovskite will be used for photovoltaic technologies has not yet been fully answered. From a photophysical point of view, however, it has the potential to make a useful contribution to the energy sector. However, it remains to be seen whether perovskite-based modules will be able to compete with established technologies in terms of durability and cost efficiency. The additional aspect of ionic migration poses an additional challenge. In the present work, primarily the interaction between ionic redistribution, capacitive properties and recombination dynamics was investigated. This was done using impedance spectroscopy, OCVD and IV characteristics as well as extensive numerical drift-diffusion simulations. The combination of experimental and numerical methods proved to be very fruitful. A suitable model for the description of solar cells with respect to mobile ions was introduced in chapter 4.4. The formal mathematical description of the model was transferred by a non-dimensionalization and suitable numerically solvable form. The implementation took place in the Julia language. By intelligent use of structural properties of the sparse systems of equations, automatic differentiation and the use of efficient integration methods, the simulation tool is not only remarkably fast in finding the solution, but also scales quasi-linearly with the grid resolution. The software package was released under an open source license. In conventional semiconductor diodes, capacitance measurements are often used to determine the space charge density. In the first experimental chapter 5, it is shown that although this is also possible for the ionic migration present in perovskites, it cannot be directly understood as doping related, since the space charge distribution strongly depends on the preconditions and can be manipulated by an externally applied voltage. The exact form of this behavior depends on the perovskite composition. This shows, among other things, that experimental results can only be interpreted within the framework of conventional semiconductors to a very limited extent. Nevertheless, the built-in 99 potential of the solar cell can be determined if the experiments are carried out properly. A statement concerning the type and charge of the mobile ions is not possible without further effort, while their number can be determined. The simulations were applied to experimental data in chapter 6. Thus, it could be shown that mobile ions make a significant contribution to the OCVD of perovskite solar cells. j-V characteristics and OCVD transients measured as a function of temperature and illumination intensities could be quantitatively modeled simultaneously using a single global set of parameters. By the simulations it was further possible to derive a simple experimental procedure to determine the concentration and the diffusivity of the mobile ions. The possibility of describing different experiments in a uniform temperaturedependent manner strongly supports the model of mobile ions in perovskites. In summary, this work has made an important contribution to the elucidation of ionic contributions to the (photo)electrical properties of perovskite solar cells. Established experimental techniques for conventional semiconductors have been reinterpreted with respect to ionic mass transport and new methods have been proposed to draw conclusions on the properties for ionic transport. As a result, the published simulation tools can be used for a number of further studies.
Verschiedene Konzepte der Röntgenmikroskopie haben sich mittlerweile im Labor etabliert und ermöglichen heute aufschlussreiche Einblicke in eine Vielzahl von Probensystemen. Der „Labormaßstab“ bezieht sich dabei auf Analysemethoden, die in Form von einem eigenständigen Gerät betrieben werden können. Insbesondere sind sie unabhängig von der Strahlerzeugung an einer Synchrotron-Großforschungseinrichtung und einem sonst kilometergroßen Elektronen-speicherring. Viele der technischen Innovationen im Labor sind dabei ein Transfer der am Synchrotron entwickelten Techniken. Andere wiederum basieren auf der konsequenten Weiterentwicklung etablierter Konzepte. Die Auflösung allein ist dabei nicht entscheidend für die spezifische Eignung eines Mikroskopiesystems im Ganzen. Ebenfalls sollte das zur Abbildung eingesetzte Energiespektrum auf das Probensystem abgestimmt sein. Zudem muss eine Tomographieanalage zusätzlich in der Lage sein, die Abbildungsleistung bei 3D-Aufnahmen zu konservieren.
Nach einem Überblick über verschiedene Techniken der Röntgenmikroskopie konzentriert sich die vorliegende Arbeit auf quellbasierte Nano-CT in Projektionsvergrößerung als vielversprechende Technologie zur Materialanalyse. Hier können höhere Photonenenergien als bei konkurrierenden Ansätzen genutzt werden, wie sie von stärker absorbierenden Proben, z. B. mit einem hohen Anteil von Metallen, zur Untersuchung benötigt werden. Das bei einem ansonsten idealen CT-Gerät auflösungs- und leistungsbegrenzende Bauteil ist die verwendete Röntgen-quelle. Durch konstruktive Innovationen sind hier die größten Leistungssprünge zu erwarten. In diesem Zuge wird erörtert, ob die Brillanz ein geeignetes Maß ist, um die Leistungsfähigkeit von Röntgenquellen zu evaluieren, welchen Schwierigkeiten die praktische Messung unterliegt und wie das die Vergleichbarkeit der Werte beeinflusst. Anhand von Monte-Carlo-Simulationen wird gezeigt, wie die Brillanz verschiedener Konstruktionen an Röntgenquellen theoretisch bestimmt und miteinander verglichen werden kann. Dies wird am Beispiel von drei modernen Konzepten von Röntgenquellen demonstriert, welche zur Mikroskopie eingesetzt werden können. Im Weiteren beschäftigt sich diese Arbeit mit den Grenzen der Leistungsfähigkeit von Transmissionsröntgenquellen. Anhand der verzahnten Simulation einer Nanofokus-Röntgenquelle auf Basis von Monte-Carlo und FEM-Methoden wird untersucht, ob etablierte Literatur¬modelle auf die modernen Quell-konstruktionen noch anwendbar sind. Aus den Simulationen wird dann ein neuer Weg abgeleitet, wie die Leistungsgrenzen für Nanofokus-Röntgenquellen bestimmt werden können und welchen Vorteil moderne strukturierte Targets dabei bieten.
Schließlich wird die Konstruktion eines neuen Nano-CT-Gerätes im Labor-maßstab auf Basis der zuvor theoretisch besprochenen Nanofokus-Röntgenquelle und Projektionsvergrößerung gezeigt, sowie auf ihre Leistungsfähigkeit validiert. Es ist spezifisch darauf konzipiert, hochauflösende Messungen an Materialsystemen in 3D zu ermöglichen, welche mit bisherigen Methoden limitiert durch mangelnde Auflösung oder Energie nicht umsetzbar waren. Daher wird die praktische Leistung des Gerätes an realen Proben und Fragestellungen aus der Material¬wissenschaft und Halbleiterprüfung validiert. Speziell die gezeigten Messungen von Fehlern in Mikrochips aus dem Automobilbereich waren in dieser Art zuvor nicht möglich.
Development, Simulation and Evaluation of Mobile Wireless Networks in Industrial Applications
(2023)
Manyindustrialautomationsolutionsusewirelesscommunicationandrelyontheavail-
ability and quality of the wireless channel. At the same time the wireless medium is
highly congested and guaranteeing the availability of wireless channels is becoming
increasingly difficult. In this work we show, that ad-hoc networking solutions can be
used to provide new communication channels and improve the performance of mobile
automation systems. These ad-hoc networking solutions describe different communi-
cation strategies, but avoid relying on network infrastructure by utilizing the Peer-to-
Peer (P2P) channel between communicating entities.
This work is a step towards the effective implementation of low-range communication
technologies(e.g. VisibleLightCommunication(VLC), radarcommunication, mmWave
communication) to the industrial application. Implementing infrastructure networks
with these technologies is unrealistic, since the low communication range would neces-
sitate a high number of Access Points (APs) to yield full coverage. However, ad-hoc
networks do not require any network infrastructure. In this work different ad-hoc net-
working solutions for the industrial use case are presented and tools and models for
their examination are proposed.
The main use case investigated in this work are Automated Guided Vehicles (AGVs)
for industrial applications. These mobile devices drive throughout the factory trans-
porting crates, goods or tools or assisting workers. In most implementations they must
exchange data with a Central Control Unit (CCU) and between one another. Predicting
if a certain communication technology is suitable for an application is very challenging
since the applications and the resulting requirements are very heterogeneous.
The proposed models and simulation tools enable the simulation of the complex inter-
action of mobile robotic clients and a wireless communication network. The goal is to
predict the characteristics of a networked AGV fleet.
Theproposedtoolswereusedtoimplement, testandexaminedifferentad-hocnetwork-
ing solutions for industrial applications using AGVs. These communication solutions
handle time-critical and delay-tolerant communication. Additionally a control method
for the AGVs is proposed, which optimizes the communication and in turn increases the
transport performance of the AGV fleet. Therefore, this work provides not only tools
for the further research of industrial ad-hoc system, but also first implementations of
ad-hoc systems which address many of the most pressing issues in industrial applica-
tions.
We consider a multi-species gas mixture described by a kinetic model. More precisely, we are interested in models with BGK interaction operators. Several extensions to the standard BGK model are studied.
Firstly, we allow the collision frequency to vary not only in time and space but also with the microscopic velocity. In the standard BGK model, the dependence on the microscopic velocity is neglected for reasons of simplicity. We allow for a more physical description by reintroducing this dependence. But even though the structure of the equations remains the same, the so-called target functions in the relaxation term become more sophisticated being defined by a variational procedure.
Secondly, we include quantum effects (for constant collision frequencies). This approach influences again the resulting target functions in the relaxation term depending on the respective type of quantum particles.
In this thesis, we present a numerical method for simulating such models. We use implicit-explicit time discretizations in order to take care of the stiff relaxation part due to possibly large collision frequencies. The key new ingredient is an implicit solver which minimizes a certain potential function. This procedure mimics the theoretical derivation in the models. We prove that theoretical properties of the model are preserved at the discrete level such as conservation of mass, total momentum and total energy, positivity of distribution functions and a proper entropy behavior. We provide an array of numerical tests illustrating the numerical scheme as well as its usefulness and effectiveness.
In this doctoral thesis we cover the performance evaluation of next generation data plane architectures, comprised of complex software as well as programmable hardware components that allow fine granular configuration. In the scope of the thesis we propose mechanisms to monitor the performance of singular components and model key performance indicators of software based packet processing solutions. We present novel approaches towards network abstraction that allow the integration of heterogeneous data plane technologies into a singular network while maintaining total transparency between control and data plane. Finally, we investigate a full, complex system consisting of multiple software-based solutions and perform a detailed performance analysis. We employ simulative approaches to investigate overload control mechanisms that allow efficient operation under adversary conditions. The contributions of this work build the foundation for future research in the areas of network softwarization and network function virtualization.
Städte sehen sich in der Entwicklung ihres Einzelhandelsangebots zunehmend Konkurrenzsituationen zwischen traditionellen Innenstadt- und neu entstehenden Stadtrandlagen ausgesetzt, die einerseits die gestiegenen Flächen- und Produktivitätsansprüche der Unternehmen eher erfüllen, während andererseits Bürger, Politik und etablierter Handel ein ‚Aussterben’ der Innenstädte befürchten. Die Konsequenzen planerischer Entscheidungen in dieser Hinsicht abzuschätzen, wird zunehmend komplexer. Dafür sind ebenso eine stärkere Individualisierung des Konsumverhaltens verantwortlich, wie eine gestiegene Sensibilität gegenüber Verkehrs- und Emissionsbelastungen. Modellierungen und Simulationen können einen Beitrag zu fundierter Entscheidungsfindung leisten, indem sie durch Prognosen von Szenarien mit unterschiedlichen Rahmenbedingungen solche Auswirkungen aufzeigen.
In der Vergangenheit wurden Kaufkraftströme durch Modelle abgebildet, die auf aggregierten Ausgangsdaten und Analogieschlüssen zu Naturgesetzen (Gravitations-, Potenzialansatz) oder nutzentheoretischen Annahmen (Diskreter Entscheidungsansatz) beruhten. In dieser Arbeit wird dafür erstmals ein agentenbasierter Ansatz angewendet, da sich so individuelle Ausdifferenzierungen des Konsumentenhandelns wesentlich leichter integrieren und Ergebnisse anschaulicher präsentieren lassen. Ursprünglich entstammt die Idee zur Agententechnologie einem Forschungsfeld der Informatik, der Künstlichen Intelligenz. Ziel war hier, Algorithmen zu entwickeln, die aus einer Menge von kleinen Softwarebausteinen bestehen, die zur Lösung eines Problems miteinander in Kommunikation treten und sich selbst zielbezogen anordnen. Somit schreibt sich der Algorithmus im Grunde selbst. Dieses Konzept kann in den Sozialwissenschaften als Modellierungsparadigma genutzt werden, insofern als dass sie der Idee der Selbstorganisation von Gesellschaften recht nahe kommt. Insbesondere zeichnen sich Multiagentensysteme durch eine dezentrale Kontrolle und Datenvorhaltung aus, die es darüber hinaus ermöglichen, auch komplexe Systeme von Entscheidungsprozessen mit wenigen Spezifikationen darzustellen. Damit begegnet der Agentenansatz vielen Einwänden gegen Analogie- und Entscheidungsmodelle. Durch die konsequente Einnahme einer individuenbezogenen Sichtweise ist die individuelle Ausdifferenzierung von Entscheidungsprozessen viel eher abbildbar.
Für das Forschungsprojekt konnten für einenm ntersuchungsraum in Nordschweden (Funktionalregion Umeå, ca. 140.000 Einwohner) individuenbezogene Einwohnerdaten verfügbar gemacht werden. Diese enthielten u.a. Lagekoordinaten des Wohn- und Arbeitsorts, Alter, Geschlecht, verfügbares Einkommen und Angaben zur Haushaltsstruktur. Verbunden mit Erkenntnissen aus empirischen Untersuchungen (Konsumentenbefragung, Geschäftskartierung) stellten sie die Eingabegrößen für ein agentenbasiertes Modell der Einkaufsstättenwahl bei der Lebensmittelversorgung dar. Die Konsumentenbefragung stellte regressionsanalytische Abhängigkeiten zwischen sozioökonomischen Daten und Konsumpräferenzen bezüglich einzelner Geschäftsattribute (Preisniveau, Produktqualität, Sortimentsbreite, Service etc.) her, die gleichen Attribute wurden für die Geschäfte erhoben. Somit können Kaufkraftströme zwischen Einzelelementen der Nachfrage (individuelle Konsumenten) und des Angebots (einzelne Geschäftsstandorte) als individuell variierende Bewertung der Geschäfte durch die Agenten dargestellt werden, gemäß derer die Agenten ihre lebensmittelrelevante Kaufkraft auf die Geschäfte verteilen.
Für die Geschäfte der gesamten Region konnten Gütemaßwerte bis 0,7 erreicht werden, für einzelne Betriebsformate auch über 0,9. Dies zeigt, dass auch bei der Verwendung individuenbezogener Modelle, die mit einer deutlich höheren Anzahl Freiheitsgraden behaftet sind als ihre aggregierten Gegenstücke, hohe Prognosequalitäten für Umsatzschätzungen von Standorten erreicht werden können. Gleichzeitig bietet der Agentenansatz die Möglichkeit, einzelne Simulationsobjekte bei ihrer Entscheidungsfindung und ihren Aktivitäten zu verfolgen. Dabei konnten ebenfalls plausible Einkaufsmuster abgebildet werden.
Da die Distanz vom Wohn- bzw. Arbeitsort zum Geschäft Bestandteil des Modells ist, können auch die von den Einwohnern zum Zweck der Grundversorgung zu leistenden Distanzaufwände in verschiedenen Angebotssituationen analysiert werden. Als Fallstudie wurde ein Vergleich von zwei Situationen 1997 und 2004 vorgenommen. Während dieses Zeitraums haben im Untersuchungsgebiet grundlegende Veränderungen der Einzelhandelsstruktur stattgefunden, die zu einem weitgehenden Rückzug des Angebots aus den peripheren ländlichen Gebieten geführt haben. Die Ergebnisse zeigteneine hohe Übereinstimmung mit den auf nationaler Ebene erhobenen Mobilitätsdaten, ließen aber auch einen differenzierten Blick auf die unterschiedliche Betroffenheit der Einwohner der Region zu.
An agentenbasierte Simulationen werden in den Sozialwissenschaften große Erwartungen geknüpft, da sie erstmals ermöglichen, gesellschaftliche Phänomene auf der Ebene ihres Zustandekommens, dem Individuum, zu erfassen, sowie komplexe mentale Vorgänge des Handelns, Lernens und Kommunizierens auf einfache Weise in ein Modell zu integrieren. Mit der vorliegenden Arbeit wurde im Bereich der Konsumentenforschung erstmals ein solcher Ansatz auf regionaler Ebene angewendet, um zu planungsrelevanten Aussagen zu gelangen. In Kombination mit anderen Anwendungen im Bereich der Bevölkerungsprognose, des Verkehrs und der innerstädtischen Migration haben Agentensimulationen alle Voraussetzungen zu einem zukunftsweisenden Paradigma für die Raum- und Fachplanung.