Refine
Has Fulltext
- yes (47)
Is part of the Bibliography
- yes (47)
Year of publication
Document Type
- Doctoral Thesis (47) (remove)
Keywords
- Femtosekundenspektroskopie (4)
- Kleinsatellit (4)
- Ultrakurzzeitspektroskopie (4)
- Polymere (3)
- Rastertunnelmikroskopie (3)
- 3D-Druck (2)
- Bildverarbeitung (2)
- Biomaterial (2)
- Computertomografie (2)
- Data Fusion (2)
Institute
- Graduate School of Science and Technology (47) (remove)
Sonstige beteiligte Institutionen
- Technische Hochschule Nürnberg Georg Simon Ohm (2)
- Experimental Radiation Oncology, Department of Radiation Oncology, University Medical Center Mannheim (1)
- Fraunhofer Institut für Integrierte Schaltungen (IIS) (1)
- Fraunhofer Institut für Silicatforschung ISC (1)
- Hochschule Wismar (1)
- Institut für Medizintechnik Schweinfurt (IMeS) (1)
EU-Project number / Contract (GA) number
- 320377 (1)
This work is concerned with the numerical approximation of solutions to models that are used to describe atmospheric or oceanographic flows. In particular, this work concen- trates on the approximation of the Shallow Water equations with bottom topography and the compressible Euler equations with a gravitational potential. Numerous methods have been developed to approximate solutions of these models. Of specific interest here are the approximations of near equilibrium solutions and, in the case of the Euler equations, the low Mach number flow regime. It is inherent in most of the numerical methods that the quality of the approximation increases with the number of degrees of freedom that are used. Therefore, these schemes are often run in parallel on big computers to achieve the best pos- sible approximation. However, even on those big machines, the desired accuracy can not be achieved by the given maximal number of degrees of freedom that these machines allow. The main focus in this work therefore lies in the development of numerical schemes that give better resolution of the resulting dynamics on the same number of degrees of freedom, compared to classical schemes.
This work is the result of a cooperation of Prof. Klingenberg of the Institute of Mathe- matics in Wu¨rzburg and Prof. R¨opke of the Astrophysical Institute in Wu¨rzburg. The aim of this collaboration is the development of methods to compute stellar atmospheres. Two main challenges are tackled in this work. First, the accurate treatment of source terms in the numerical scheme. This leads to the so called well-balanced schemes. They allow for an accurate approximation of near equilibrium dynamics. The second challenge is the approx- imation of flows in the low Mach number regime. It is known that the compressible Euler equations tend towards the incompressible Euler equations when the Mach number tends to zero. Classical schemes often show excessive diffusion in that flow regime. The here devel- oped scheme falls into the category of an asymptotic preserving scheme, i.e. the numerical scheme reflects the behavior that is computed on the continuous equations. Moreover, it is shown that the diffusion of the numerical scheme is independent of the Mach number.
In chapter 3, an HLL-type approximate Riemann solver is adapted for simulations of the Shallow Water equations with bottom topography to develop a well-balanced scheme. In the literature, most schemes only tackle the equilibria when the fluid is at rest, the so called Lake at rest solutions. Here a scheme is developed to accurately capture all the equilibria of the Shallow Water equations. Moreover, in contrast to other works, a second order extension is proposed, that does not rely on an iterative scheme inside the reconstruction procedure, leading to a more efficient scheme.
In chapter 4, a Suliciu relaxation scheme is adapted for the resolution of hydrostatic equilibria of the Euler equations with a gravitational potential. The hydrostatic relations are underdetermined and therefore the solutions to that equations are not unique. However, the scheme is shown to be well-balanced for a wide class of hydrostatic equilibria. For specific classes, some quadrature rules are computed to ensure the exact well-balanced property. Moreover, the scheme is shown to be robust, i.e. it preserves the positivity of mass and energy, and stable with respect to the entropy. Numerical results are presented in order to investigate the impact of the different quadrature rules on the well-balanced property.
In chapter 5, a Suliciu relaxation scheme is adapted for the simulations of low Mach number flows. The scheme is shown to be asymptotic preserving and not suffering from excessive diffusion in the low Mach number regime. Moreover, it is shown to be robust under certain parameter combinations and to be stable from an Chapman-Enskog analysis.
Numerical results are presented in order to show the advantages of the new approach.
In chapter 6, the schemes developed in the chapters 4 and 5 are combined in order to investigate the performance of the numerical scheme in the low Mach number regime in a gravitational stratified atmosphere. The scheme is shown the be well-balanced, robust and stable with respect to a Chapman-Enskog analysis. Numerical tests are presented to show the advantage of the newly proposed method over the classical scheme.
In chapter 7, some remarks on an alternative way to tackle multidimensional simulations are presented. However no numerical simulations are performed and it is shown why further research on the suggested approach is necessary.
Motivated by the perceived great potential of chiral polymers, the presented work aimed at the investigation of synthesis, solubility and optical activity of chiral poly(2,4-disubstituted-2-oxazoline)s. A novel polymeric carrier based on ABA-type triblock copolymers poly(2-oxazoline)s with chiral and racemic hydrophobic blocks was developed for the formulation of chiral and achiral drugs (Fig. 5.1). Poly(2-methyl-2-oxazoline) (pMeOx) was used as hydrophilic A block, and poly(2-ethyl-4-ethyl-2-oxazoline) (pEtEtOx) and poly(2-propyl-4-methyl-2-oxazoline) (pPrMeOx) were used as hydrophobic B blocks. Curcumin (CUR), paclitaxel (PTX) and chiral/racemic ibuprofen (R/S/RS-IBU) were applied as model drugs. Nanoformulations were prepared consisting of these triblock copolymers and model drugs. ...
Numerical Simulations of Heavy Fermion Systems: From He-3 Bilayers to Topological Kondo Insulators
(2014)
Even though heavy fermion systems have been studied for a long time, a strong interest in heavy fermions persists to this day. While the basic principles of local moment formation, Kondo effect and formation of composite quasiparticles leading to a Fermi liquid, are under- stood, there remain many interesting open questions. A number of issues arise due to the interplay of heavy fermion physics with other phenomena like magnetism and superconduc- tivity.
In this regard, experimental and theoretical investigations of He-3 can provide valuable insights. He-3 represents a unique realization of a quantum liquid. The fermionic nature of He-3 atoms, in conjunction with the absence of long-range Coulomb repulsion, makes this material an ideal model system to study Fermi liquid behavior.
Bulk He-3 has been investigated for quite some time. More recently, it became possible to prepare and study layered He-3 systems, in particular single layers and bilayers. The pos- sibility of tuning various physical properties of the system by changing the density of He-3 and using different substrate materials makes layers of He-3 an ideal quantum simulator for investigating two-dimensional Fermi liquid phenomenology.
In particular, bilayers of He-3 have recently been found to exhibit heavy fermion behavior. As a function of temperature, a crossover from an incoherent state with decoupled layers to a coherent Fermi liquid of composite quasiparticles was observed. This behavior has its roots in the hybridization of the two layers. The first is almost completely filled and subject to strong correlation effects, while the second layer is only partially filled and weakly correlated. The quasiparticles are formed due to the Kondo screening of localized moments in the first layer by the second-layer delocalized fermions, which takes place at a characteristic temperature scale, the coherence scale Tcoh.
Tcoh can be tuned by changing the He-3 density. In particular, at a certain critical filling,
the coherence scale is expected to vanish, corresponding to a divergence of the quasiparticle effective mass, and a breakdown of the Kondo effect at a quantum critical point. Beyond the critical point, the layers are decoupled. The first layer is a local moment magnet, while the second layer is an itinerant overlayer.
However, already at a filling smaller than the critical value, preempting the critical point, the onset of a finite sample magnetization was observed. The character of this intervening phase remained unclear.
Motivated by these experimental observations, in this thesis the results of model calcula- tions based on an extended Periodic Anderson Model are presented. The three particle ring exchange, which is the dominant magnetic exchange process in layered He-3, is included in the model. It leads to an effective ferromagnetic interaction between spins on neighboring sites. In addition, the model incorporates the constraint of no double occupancy by taking the limit of large local Coulomb repulsion.
By means of Cellular DMFT, the model is investigated for a range of values of the chemical potential µ and inverse temperature β = 1/T . The method is a cluster extension to the Dy- namical Mean-Field Theory (DMFT), and allows to systematically include non-local correla- tions beyond the DMFT. The auxiliary cluster model is solved by a hybridization expansion CTQMC cluster solver, which provides unbiased, numerically exact results for the Green’s function and other observables of interest.
As a first step, the onset of Fermi liquid coherence is studied. At low enough temperature, the self-energy is found to exhibit a linear dependence on Matsubara frequency. Meanwhile, the spin susceptibility crossed over from a Curie-Weiss law to a Pauli law. Both observations serve as fingerprints of the Fermi liquid state.
The heavy fermion state appears at a characteristic coherence scale Tcoh. This scale depends strongly on the density. While it is rather high for small filling, for larger filling Tcoh is increas- ingly suppressed. This involves a decreasing quasiparticle residue Z ∼ Tcoh and an enhanced mass renormalization m∗/m ∼ Tcoh−1. Extrapolation leads to a critical filling, where the co-
herence scale is expected to vanish at a quantum critical point. At the same time, the effective mass diverges. This corresponds to a breakdown of the Kondo effect, which is responsible for the formation of quasiparticles, due to a vanishing of the effective hybridization between the layers.
Taking only single-site DMFT results into account, the above scenario seems plausible. However, paramagnetic DMFT neglects the ring exchange interaction completely. In or- der to improve on this, Cellular DMFT simulations are conducted for small clusters of size Nc = 2 and 3. The results paint a different physical picture. The ring exchange, by favor- ing a ferromagnetic alignment of spins, competes with the Kondo screening. As a result, strong short-range ferromagnetic fluctuations appear at larger values of µ. By lowering the temperature, these fluctuations are enhanced at first. However, for T < Tcoh they are increas- ingly suppressed, which is consistent with Fermi liquid coherence. However, beyond a certain threshold value of µ, fluctuations persist to the lowest temperatures. At the same time, while not apparent in the DMFT results, the total occupation n increases quite strongly in a very narrow range around the same value of µ. The evolution of n with µ is always continuous, but hints at a discontinuity in the limit Nc → ∞. This first-order transition breaks the Kondo effect. Beyond the transition, a ferromagnetic state in the first layer is established, and the second layer becomes a decoupled overlayer.
These observations provide a quite appealing interpretation of the experimental results. As a function of chemical potential, the Kondo breakdown quantum critical point is preempted by a first-order transition, where the layers decouple and the first layer turns into a ferromagnet. In the experimental situation, where the filling can be tuned directly, the discontinuous transition is mirrored by a phase separation, which interpolates between the Fermi liquid ground state at lower filling and the magnetic state at higher filling. This is precisely the range of the intervening phase found in the experiments, which is characterized by an onset of a finite sample magnetization.
Besides the interplay of heavy fermion physics and magnetic exchange, recently the spin- orbit coupling, which is present in many heavy fermion materials, attracted a lot of interest. In the presence of time-reversal symmetry, due to spin-orbit coupling, there is the possibility of a topological ground state.
It was recently conjectured that the energy scale of spin-orbit coupling can become dom- inant in heavy fermion materials, since the coherence scale and quasiparticle bandwidth are rather small. This can lead to a heavy fermion ground state with a nontrivial band topology; that is, a topological Kondo insulator (TKI). While being subject to strong correlation effects, this state must be adiabatically connected to a non-interacting, topological state.
The idea of the topological ground state realized in prototypical Kondo insulators, in par- ticular SmB6, promises to shed light on some of the peculiarities of these materials, like a residual conductivity at the lowest temperatures, which have remained unresolved so far.
In this work, a simple two-band model for two-dimensional topological Kondo insulators is devised, which is based on a single Kramer’s doublet coupled to a single conduction band. The model is investigated in the presence of a Hubbard interaction as a function of interaction strength U and inverse temperature β. The bulk properties of the model are obtained by DMFT, with a hybridization expansion CTQMC impurity solver. The DMFT approximation of a local self-energy leads to a very simple way of computing the topological invariant.
The results show that with increasing U the system can be driven through a topological phase transition. Interestingly, the transition is between distinct topological insulating states, namely the Γ-phase and M-phase. This appearance of different topological phases is possible due to the symmetry of the underlying square lattice. By adiabatically connecting both in- teracting states with the respective non-interacting state, it is shown that the transition indeed drives the system from the Γ-phase to the M-phase.
A different behavior can be observed by pushing the bare position of the Kramer’s doublet to higher binding energies. In this case, the non-interacting starting point has a trivial band topology. By switching on the interaction, the system can be tuned through a quantum phase transition, with a closing of the band gap. Upon reopening of the band gap, the system is in the Γ-phase, i. e. a topological insulator. By increasing the interaction strength further, the system moves into a strongly correlated regime. In fact, close to the expected transition to the M phase, the mass renormalization becomes quite substantial. While absent in the para- magnetic DMFT simulations conducted, it is conceivable that instead of a topological phase transition, the system undergoes a time-reversal symmetry breaking, magnetic transition.
The regime of strong correlations is studied in more detail as a function of temperature, both in the bulk and with open boundary conditions. A quantity which proved very useful is the bulk topological invariant Ns, which can be generalized to finite interaction strength and temperature. In particular, it can be used to define a temperature scale T ∗ for the onset of the topological state. Rescaling the results for Ns, a nice data collapse of the results for different values of U, from the local moment regime to strongly mixed valence, is obtained. This hints at T ∗ being a universal low energy scale in topological Kondo insulators. Indeed, by comparing T ∗ with the coherence scale extracted from the self-energy mass renormalization, it is found that both scales are equivalent up to a constant prefactor. Hence, the scale T ∗ obtained from the temperature dependence of topological properties, can be used as an independent measure for Fermi liquid coherence. This is particularly useful in the experimentally relevant mixed valence regime, where charge fluctuations cannot be neglected. Here, a separation of the energy scales related to spin and charge fluctuations is not possible.
The importance of charge fluctuations becomes evident in the extent of spectral weight transfer as the temperature is lowered. For mixed valence, while the hybridization gap emerges, a substantial amount of spectral weight is shifted from the vicinity of the Fermi level to the lower Hubbard band. In contrast, this effect is strongly suppressed in the local moment regime.
In addition to the bulk properties, the spectral function for open boundaries is studied as a function of temperature, both in the local moment and mixed valence regime. This allows an investigation of the emergence of topological edge states with temperature. The method used here is the site-dependent DMFT, which is a generalization of the conventional DMFT to inhomogeneous systems. The hybridization expansion CTQMC algorithm is used as impurity solver.
By comparison with the bulk results for the topological quantity Ns, it is found that the
temperature scale for the appearance of the topological edge states is T ∗, both in the mixed valence and local moment regime.
Für die Dosimetrie in der Strahlentherapie sind eine Reihe von Detektoren unterschiedlicher Bauform und Funktionsweise erhältlich. Detektoreigenschaften wie die Größe des aktiven Volumens,
energieabhängiges Ansprechen und Feldstörungen durch Bauteile beeinflussen ihr Signal, so dass kein idealer, universell einsetzbarer Detektor existiert. Insbesondere unter Messbedingungen, bei denen sich die Teilchenfluenz am Ort der Messung stark ändert, können die Detektorsignale stark von den wahren Dosisverhältnissen abweichen, z.B. in kleinen Feldern. Im Rahmen dieser Arbeit wurde das Ansprechen verschiedener Detektortypen in solchen Extremsituationen analysiert. Dioden und Ionisationskammern verschiedener Bauformen und Größen wurden in verschiedenen Experimenten gegen Gafchromic-EBT3-Film verglichen.
Das Ansprechen auf Streustrahlung konnte durch Ausblockung der Feldmitte untersucht werden,
wobei zusätzlich geometrisch der Volumeneffekt korrigiert wurde. Dabei zeigte sich teils ein starkes Überansprechen. Ferner wurde gezeigt, dass die bei der Messung von Querprofilen, also sowohl in der Feldmitte, in Bereichen starker Dosisgradienten und außerhalb des Nutzfeldes, auftretenden Abweichungen durch die Verwendung einer Detektorkombination kompensiert werden können. Somit verbessert sich auch die Übereinstimmung mit den auf Film gemessenen Profilen.
Für Ionisationskammern wurden effektive Messpunkte bestimmt, wobei die notwendigen Verschiebungen teils deutlich geringer waren als in den gängigen Dosimetrieprotokollen empfohlen. Insbesondere für kleinvolumige Ionisationskammern mit geringen Signalstärken kam es bei der Verwendung von im Bestrahlungsraum positionierten Elektrometern zu Störeinflüssen durch Streustrahlung. Diese Effekte konnten durch Reduzierung der das Elektrometer erreichenden Streustrahlung verringert werden.
Anschließend ließ sich das Ansprechen im Aufbaubereich vergleichen. Hier zeigten sich insbesondere Unterschiede zwischen den Detektortypen, aber auch zwischen den verwendeten Polaritäten der Kammerspannung. Durch die Verwendung einer Bleifolie wurde der Einfluss von
Elektronenkontamination herausgefiltert. Zusätzlich wurden das Ansprechen verschiedener Detektoren im oberflächennahen Bereich auch bei angelegten magnetischen Feldern von Feldstärken
bis zu 1,1 T untersucht.
In allen Fällen wurden Detektorgebrauchsgrenzen aufgezeigt. Die Erkenntnisse ermöglichen es, in den verschiedenen Extremsituationen geeignete Detektoren zu wählen, und eine Abschätzung der residualen Abweichungen durchzuführen. Gezeigt wurde auch, wo eine Detektorkombination die Genauigkeit verbessern kann.
In produzierenden Unternehmen werden verschiedene Vorgehensweisen zur Planung, Überwachung und Steuerung von Produktionsabläufen eingesetzt. Einer dieser Methoden wird als Vorgangsknotennetzplantechnik bezeichnet. Die einzelnen Produktionsschritte werden als Knoten definiert und durch Pfeile miteinander verbunden. Die Pfeile stellen die Beziehungen der jeweiligen Vorgänge zueinander und damit den Produktionsablauf dar. Diese Technik erlaubt den Anwendern einen umfassenden Überblick über die einzelnen Prozessrelationen. Zusätzlich können mit ihr Vorgangszeiten und Produktfertigstellungszeiten ermittelt werden, wodurch eine ausführliche Planung der Produktion ermöglicht wird. Ein Nachteil dieser Technik begründet sich in der alleinigen Darstellung einer ausführbaren Prozessabfolge. Im Falle eines Störungseintritts mit der Folge eines nicht durchführbaren Vorgangs muss von dem originären Prozess abgewichen werden. Aufgrund dessen wird eine Neuplanung erforderlich. Es werden Alternativen für den gestörten Vorgang benötigt, um eine Fortführung des Prozesses ungeachtet der Störung zu erreichen. Innerhalb dieser Arbeit wird daher eine Erweiterung der Vorgangsknotennetzplantechnik beschrieben, die es erlaubt, ergänzend zu dem geplanten Soll-Prozess Alternativvorgänge für einzelne Vorgänge darzulegen. Diese Methode wird als Maximalnetzplan bezeichnet. Die Alternativen werden im Falle eines Störungseintritts automatisch evaluiert und dem Anwender in priorisierter Reihenfolge präsentiert. Durch die Verwendung des Maximalnetzplans kann eine aufwendige Neuplanung vermieden werden. Als Anwendungsbeispiel dient ein Montageprozess, mithilfe dessen die Verwendbarkeit der Methode dargelegt wird. Weiterführend zeigt eine zeitliche Analyse zufallsbedingter Maximalnetzpläne eine Begründung zur Durchführung von Alternativen und damit den Nutzen des Maximalnetzplans auf. Zusätzlich sei angemerkt, dass innerhalb dieser Arbeit verwendete Begrifflichkeiten wie Anwender, Werker oder Mitarbeiter in maskuliner Schreibweise niedergeschrieben werden. Dieses ist ausschließlich der Einfachheit geschuldet und nicht dem Zweck der Diskriminierung anderer Geschlechter dienlich. Die verwendete Schreibweise soll alle Geschlechter ansprechen, ob männlich, weiblich oder divers.
Im Rahmen dieser Arbeit wurden die elektronischen Eigenschaften von Graphen auf Metalloberflächen mittels Rastertunnelmikroskopie und Quasiteilcheninterferenz (englisch quasiparticle interference, QPI)-Messungen untersucht. Durch das Verwenden schwerer Substrate sollte die Spin-Bahn-Wechselwirkung des Graphen verstärkt werden und damit eine Bandlücke am K-Punkt der Bandstruktur mittels QPI beobachtet werden. Um das Messen von QPI auf Graphen zu testen, wurde auf der Oberfläche eines SiC(0001)-Kristalls durch Erhitzen Graphen erzeugt und mit dem Rastertunnelmikroskop untersucht. Dieses System wurde schon ausführlich in der Literatur beschrieben und bereits bekannte QPI-Messungen von Streuringen, die auf den Dirac-Kegeln des Graphen am K-Punkt basieren, konnte ich auf gr/SiC(0001) in guter Qualität erfolgreich reproduzieren. Anschließend wurde Graphen nach einem wohlbekannten Verfahren durch Aufbringen von Ethylen auf ein erhitztes Ir(111)-Substrat erzeugt. Dieses gr/Ir(111)-System diente auch als Grundlage für Interkalationsversuche von Bismut (gr/Bi/Ir(111)) und Gadolinium (gr/Gd/Ir(111)) zwischen das Graphen und das Substrat. Auf gr/Bi/Ir(111) wurde ein schon aus der Literatur bekanntes Netzwerk aus Versetzungslinien beobachtet, dem zusätzlich eine Temperaturabhängigkeit nachgewiesen werden konnte. Beim Versuch, Gadolinium zu interkalieren, wurden zwei verschieden Oberflächenstrukturen beobachtet, die auf eine unterschiedlich Anordnung bzw. Menge des interkalierten Gadoliniums zurückzuführen sein könnten. Auf keinem dieser drei Systeme konnten allerdings Streuringe mittels QPI beobachtet werden. Als Vorbereitung der Interkalation von Gadolinium wurden dessen Wachstum und magnetische Eigenschaften auf einem W(110)-Kristall untersucht. Dabei konnte eine aus der Literatur bekannte temperaturabhängige Austauschaufspaltung reproduziert werden. Darüber hinaus konnten sechs verschieden magnetische Domänen beobachtet werden. Zusätzlich sind auf der Oberfläche magnetische Streifen auszumachen, die möglicherweise auf einer Spinspirale basieren. Als Grundlage für die mögliche zukünftige Erzeugung Graphen-artiger Molekülgitter wurde das Wachstum von H-TBTQ und Me-TBTQ auf Ag(111) untersucht. Die Moleküle richten sich dabei nach der Oberflächenstruktur des Silber aus und bilden längliche Inseln, deren Kanten in drei Vorzugsrichtungen verlaufen. Auf H-TBTQ wurde zudem eine zweite, Windmühlen-artige Ausrichtung der Moleküle auf der Oberfläche beobachtet. Auf den mit den Molekülen bedeckten Stellen der Oberfläche wurde eine Verschiebung des Ag-Oberflächenzustands beobachtet, die mit einem Ladungstransfer vom Ag(111)-Substrat auf die TBTQ-Moleküle zu erklären sein könnte.
In der heutigen Strahlentherapie kann durch eine am Linearbeschleuniger integrierte
Röntgenröhre eine 3D-Bildgebung vor der Bestrahlung durchgeführt werden. Die
sogenannte Kegel-Strahl-CT (Cone-Beam-CT, CBCT) erlaubt eine präzise Verifikation
der Patientenlagerung sowie ein Ausgleich von Lagerungsungenauigkeiten. Dem
Nutzen der verbesserten Patientenlagerung steht jedoch bei täglicher Anwendung eine
erhöhte, nicht zu vernachlässigbare Strahlenexposition des Patienten gegenüber. Eine
Verringerung des Dosisbeitrages bei der CBCT-Bildgebung lässt sich durch
Reduzierung des Stroms zur Erzeugung der Röntgenstrahlung sowie durch
Verringerung der Anzahl an Projektionen erreichen. Die so aufgenommen Projektionen
lassen sich dann aber nur durch aufwendige Rekonstruktionsverfahren zu qualitativ
hochwertigen Bilddatensätzen rekonstruieren. Ein Verfahren, dass für die
Rekonstruktion vorab vorhandene Vorwissensbilder verwendet, ist der Prior-Image-
Constrained-Compressed-Sensing-Rekonstruktionsalgorithmus (PICCS). Die Rekonstruktionsergebnisse
des PICCS-Verfahrens übertreffen die Ergebnisse des auf den
konventionellen Feldkamp-Davis-Kress-Algorithmus (FDK) basierenden Verfahrens,
wenn nur eine geringe Anzahl an Projektionen zur Verfügung steht. Allerdings können
bei dem PICCS-Verfahren derzeit keine großen Variationen in den Vorwissensbildern
berücksichtigt werden und führen zu einer geringeren Bildqualität. Diese Variationen
treten insbesondere durch anatomische Veränderungen wie Tumorverkleinerung oder
Gewichtsveränderungen auf. Das Ziel der vorliegenden Arbeit bestand folglich darin,
einen neuen vorwissensbasierten Rekonstruktionsalgorithmus zu entwickeln, der auf
Basis des PICCS-Verfahrens zusätzlich die Verwendung von lokalen
Verlässlichkeitsinformationen über das Vorwissensbild ermöglicht, um damit die
Variationen in den Vorwissensbildern bei der Rekonstruktion entsprechend
berücksichtigen zu können.
Die grundlegende Idee des neu entwickelten Rekonstruktionsverfahrens ist die
Annahme, dass die Vorwissensbilder aus Bereichen mit kleinen und großen Variationen
bestehen. Darauf aufbauend wird eine Gewichtungsmatrix erzeugt, die die Stärke der
Variationen des Vorwissens im Rekonstruktionsalgorithmus berücksichtigt. In
Machbarkeitsstudien wurde das neue Verfahren hinsichtlich der Verbesserung der Bildqualität unter Berücksichtigung gängiger Dosisreduzierungsstrategien untersucht.
Dazu zählten die Reduktion der Anzahl der Projektionen, die Akquisition von
Projektionen mit kleinerer Fluenz sowie die Verkleinerung des Akquisitionsbereiches.
Die Studien erfolgten an einem Computerphantom sowie insbesondere an
experimentellen Daten, die mit dem klinischen CBCT aufgenommen worden sind. Zum
Vergleich erfolgte die Rekonstruktion mit dem Standardverfahren basierend auf der
gefilterten Rückprojektion, dem Compressed Sensing- sowie dem konventionellen
PICCS-Verfahren.
Das neue Verfahren konnte in den untersuchten Fällen Bilddatensätze mit verbesserter
bis ausgezeichneter Qualität rekonstruieren, sogar dann, wenn nur eine sehr geringe
Anzahl an Projektionen oder nur Projektionen mit starkem Rauschen zur Verfügung
standen. Demgegenüber wiesen die Rekonstruktionsergebnisse der anderen
Algorithmen starke Artefakte auf. Damit eröffnet das neu entwickelte Verfahren die
Möglichkeit durch die Integration von Zuverlässigkeitsinformationen über die
vorhandenen Vorwissensbildern in den Rekonstruktionsalgorithmus, den Dosisbeitrag
bei der täglichen CBCT-Bildgebung zu minimieren und eine ausgezeichnete
Bildqualität erzielen zu können.
The ecosystem of the high northern latitudes is affected by the recently changing environmental conditions. The Arctic has undergone a significant climatic change over the last decades. The land coverage is changing and a phenological response to the warming is apparent. Remotely sensed data can assist the monitoring and quantification of these changes. The remote sensing of the Arctic was predominantly carried out by the usage of optical sensors but these encounter problems in the Arctic environment, e.g. the frequent cloud cover or the solar geometry. In contrast, the imaging of Synthetic Aperture Radar is not affected by the cloud cover and the acquisition of radar imagery is independent of the solar illumination. The objective of this work was to explore how polarimetric Synthetic Aperture Radar (PolSAR) data of TerraSAR-X, TanDEM-X, Radarsat-2 and ALOS PALSAR and interferometric-derived digital elevation model data of the TanDEM-X Mission can contribute to collect meaningful information on the actual state of the Arctic Environment. The study was conducted for Canadian sites of the Mackenzie Delta Region and Banks Island and in situ reference data were available for the assessment. The up-to-date analysis of the PolSAR data made the application of the Non-Local Means filtering and of the decomposition of co-polarized data necessary.
The Non-Local Means filter showed a high capability to preserve the image values, to keep the edges and to reduce the speckle. This supported not only the suitability for the interpretation but also for the classification. The classification accuracies of Non-Local Means filtered data were in average +10% higher compared to unfiltered images. The correlation of the co- and quad-polarized decomposition features was high for classes with distinct surface or double bounce scattering and a usage of the co-polarized data is beneficial for regions of natural land coverage and for low vegetation formations with little volume scattering. The evaluation further revealed that the X- and C-Band were most sensitive to the generalized land cover classes. It was found that the X-Band data were sensitive to low vegetation formations with low shrub density, the C-Band data were sensitive to the shrub density and the shrub dominated tundra. In contrast, the L-Band data were less sensitive to the land cover. Among the different dual-polarized data the HH/VV-polarized data were identified to be most meaningful for the characterization and classification, followed by the HH/HV-polarized and the VV/VH-polarized data. The quad-polarized data showed highest sensitivity to the land cover but differences to the co-polarized data were small. The accuracy assessment showed that spectral information was required for accurate land cover classification. The best results were obtained when spectral and radar information was combined. The benefit of including radar data in the classification was up to +15% accuracy and most significant for the classes wetland and sparse vegetated tundra. The best classifications were realized with quad-polarized C-Band and multispectral data and with co-polarized X-Band and multispectral data. The overall accuracy was up to 80% for unsupervised and up to 90% for supervised classifications. The results indicated that the shortwave co-polarized data show promise for the classification of tundra land cover since the polarimetric information is sensitive to low vegetation and the wetlands. Furthermore, co-polarized data provide a higher spatial resolution than the quad-polarized data.
The analysis of the intermediate digital elevation model data of the TanDEM-X showed a high potential for the characterization of the surface morphology. The basic and relative topographic features were shown to be of high relevance for the quantification of the surface morphology and an area-wide application is feasible. In addition, these data were of value for the classification and delineation of landforms. Such classifications will assist the delineation of geomorphological units and have potential to identify locations of actual and future morphologic activity.
Dielektrische Elastomersensoren sind aus Elastomermaterialien aufgebaute Sensoren mit einem kapazitiven Messprinzip. In ihrer einfachsten Form bestehen sie aus einer dehnbaren Elastomerfolie als Dielektrikum, die beidseitig mit leitfähigen und ebenfalls dehnbaren Schichten als Elektroden bedeckt ist.
Damit entsteht ein mechanisch verformbarer elektrischer Kondensator, dessen Kapazität mit der Dehnung der Elastomerfolie stetig ansteigt. Neben solchen Dehnungssensoren lassen sich mit einem geeigneten geometrischen Aufbau auch dielektrische Elastomersensoren realisieren, bei denen eine elektrische Kapazität mit einem angelegten Druck bzw. einer Kraft auf die Oberfläche, mit einer Scherkraft oder mit der Annäherung eines elektrisch leitfähigen oder polarisierbaren Körpers wie z. B. der menschlichen Hand messbar ansteigt.
Durch ihre vielfältige Funktion, intrinsische Verformbarkeit und flächige Ausgestaltung weisen Dielektrische Elastomersensoren erhebliches Potential in der Schaffung smarter, sensitiver Oberflächen auf. Dabei sind weitgehende und individuelle Adaptionen auf den jeweiligen Anwendungszweck durch Abstimmung geometrischer, mechanischer und elektrischer Eigenschaften möglich. Die bisherige Forschung beschränkt sich jedoch auf die Analyse und Optimierung einzelner Aspekte ohne das Potential einer übergreifenden systemischen Perspektive zu nutzen.
Diese Arbeit widmet sich daher der Betrachtung der Sensorik als Gesamtsystem, sowohl horizontal - von abstrakten Modellen bis zur Fertigung und prototypischen Anwendung - als auch vertikal über die Komponenten Material, Struktur und Elektronik.
Hierbei wurden in mehreren Teilgebieten eigenständige neue Erkenntnisse und Verbesserungen erzielt, die anschließend in die übergreifende Betrachtung des Gesamtsystems integriert wurden. So wurden in den theoretischen Vorarbeiten neue Konzepte zur ortsaufgelösten Erfassung mehrerer physikalischer Größen und zur elektrischen und mechanischen Modellierung entwickelt. Die abgeleiteten Materialanforderungen wurden in eine tiefgehende Charakterisierung der verwendeten Elastomer-Kompositwerkstoffe überführt, in der neuartige analytische Methoden in Form von dynamischer elektromechanischer Testung und nanoskaliger Computertomographie zur Aufklärung der inneren Wechselwirkungen zum Einsatz kamen.
Im Bereich der automatisierten Prozessierung wurde ein für die komplexen mehrschichtigen Elektrodenstrukturen geeigneter neuer lasergestützer substraktiver Fertigungprozess etabliert, der zudem die Brücke zu elastischer Elektronik schlägt.
In der abschließenden Anwendungsevaluierung wurden mehrere ortsaufgelöste und multimodale Gesamtsysteme aufgebaut und geeignete Messelektronik und Software entwickelt. Abschließend wurden die Systeme mit einem eigens entwickelten robotischen Testsystem charakterisiert und zudem das Potential der Auswertung mittels maschinellem Lernen aufgezeigt.
This work brings forward successful implementations of ultrafast chirality-sensitive spectroscopic techniques by probing circular dichroism (CD) or optical rotation dispersion (ORD). Furthermore, also first steps towards chiral quantum control, i.e., the selective variation of the chiral properties of molecules with the help of coherent light, are presented.
In the case of CD probing, a setup capable of mirroring an arbitrary polarization state of an ultrashort laser pulse was developed. Hence, by passing a left-circularly polarized laser pulse through this setup a right-circularly polarized laser pulse is generated. These two pulse enantiomers can be utilized as probe pulses in a pump--probe CD experiment. Besides CD spectroscopy, it can be utilized for anisotropy or ellipsometry spectroscopy also. Within this thesis, the approach is used to elucidate the photochemistry of hemoglobin, the oxygen transporting protein in mammalian blood. The oxygen loss can be triggered with laser pulses as well, and the results of the time-resolved CD experiment suggest a cascade-like relaxation, probably through different spin states, of the metallo-porphyrins in hemoglobin.
The ORD probing was realized via the combination of common-path optical heterodyne interferometric polarimetry and accumulative femtosecond spectroscopy. Within this setup, on the one hand the applicability of this approach for ultrafast studies was demonstrated explicitly. On the other hand, the discrimination between an achiral and a racemic solution without prior spatial separation was realized. This was achieved by inducing an enantiomeric excess via polarized femtosecond laser pulses and following its evolution with the developed polarimeter. Hence, chiral selectivity was already achieved with this method which can be turned into chiral control if the polarized laser pulses are optimized to steer an enhancement of the enantiomeric excess.
Furthermore, within this thesis, theoretical prerequisites for anisotropy-free pump--probe experiments with arbitrary polarized laser pulses were derived. Due to the small magnitude of optical chirality-sensitve signals, these results are important for any pump--probe chiral spectroscopy, like the CD probing presented in this thesis. Moreover, since for chiral quantum control the variation of the molecular structure is necessary, the knowledge about rearrangement reactions triggered by photons is necessary. Hence, within this thesis the ultrafast Wolff rearrangement of an α-diazocarbonyl was investigated via ultrafast photofragment ion spectroscopy in the gas phase. Though the compound is not chiral, the knowledge about the exact reaction mechanism is beneficial for future studies of chiral compounds.
In der vorliegenden Arbeit werden die strukturellen und magnetischen Eigenschaften verschiedener 3d-Übergangsmetalloxidketten (TMO-Ketten) auf Ir(001) und Pt(001) untersucht. Diese weisen eine (3 × 1) Struktur mit periodisch angeordneten Ketten auf, die nur über die Sauerstoffbindung an das Substrat gekoppelt sind. Während die Struktur durch experimentelle und theoretische Untersuchungen bestätigt ist, liegen für die magnetischen Eigenschaften ausschließlich Rechnungen vor. Zur Überprüfung dieser theoretischen Vorhersagen wird die Methode der spinpolarisierten Rastertunnelmikroskopie (SP-STM) verwendet, die die Abbildung der magnetischen Ordnung mit atomarer Auflösung erlaubt.
Die Untersuchungen beginnen mit der Vorstellung der Ir(001) Oberfläche, die eine (5 × 1) Rekonstruktion aufweist. Eine Aufhebung dieser Rekonstruktion erreicht man durch das Heizen des Ir-Substrats in Sauerstoffatmosphäre unter Bildung einer (2 × 1) Sauerstoffrekonstruktion. Die Qualität der Oberfläche hängt dabei von der Wachstumstemperatur T und dem verwendeten Sauerstoffdruck pOx ab. Die bei T = 550°C und pOx = 1 × 10^−8 mbar hergestellte Sauerstoffrektonstruktion dient als Ausgangspunkt für die folgenden Präparationen von CoO2, FeO2 und MnO2-Ketten. Dazu wird jeweils eine drittel Monolage (ML) des Übergangsmetalls auf die Oberfläche des Substrates gedampft und die Probe unter Sauerstoffatmosphäre ein weiteres Mal geheizt. Auf diese Weise kann die (3 × 1) Struktur der bekannten Ketten bestätigt und die Gruppe der TMO-Ketten um die CrO2-Ketten erweitert werden.
In der einschlägigen Fachliteratur wurden Vorhersagen bezüglich der magnetischen Struktur der TMO-Ketten publiziert, wonach entlang und zwischen CoO2-Ketten eine ferromagnetische (FM) und für FeO2 und MnO2-Ketten eine antiferromagnetische (AFM-) Kopplung vorliegt.Während die Überprüfung dieser Vorhersagen mit SP-STM für CoO2 und CrO2-Ketten keine Hinweise auf magnetische Strukturen liefert, liegen bei FeO2 und MnO2-Ketten unterschiedliche magnetische Phasen vor. In der Tat kann
mit den experimentell gefundenen Einheitszellen die AFM-Kopplung entlang beider Ketten bestätigt werden. Im Gegensatz widersprechen die Kopplungen zwischen den Ketten den Berechnungen. Bei FeO2-Ketten liegt eine stabile FM Ordnung vor, die zu einer magnetischen (3 × 2) Einheitszelle mit einer leichten Magnetisierung in Richtung der Oberflächennormalen führt (out-of-plane). Die MnO2-Ketten weichen ebenfalls von der berechneten magnetischen kollinearen Ordnung zwischen benachbarten Ketten ab und zeigen eine chirale Struktur. Durch die Rotation der Mn-Spins um 120° in der Probenebenen (in-plane) entsteht eine magnetische (9 × 2) Einheitszelle, deren Periode durch neue DFT-Rechnungen bestätigt wird. Nach diesen Berechnungen handelt es sich um eine Spinspirale, die durch die Dzyaloshinskii-Moriya (DM-) Wechselwirkung bei einem Energiegewinn von 0,3 meV pro Mn-Atom gegenüber den kollinearen FM Zustand stabilisiert wird. Diese wird ähnlich wie bei bereits publizierten Clustern und Adatomen auf Pt(111) durch die Rudermann-Kittel-Kasuya-Yosida (RKKY-) Wechselwirkung vermittelt und erklärt den experimentell gefundenen einheitlichen Drehsinn der Spiralen.
Die RKKY-Wechselwirkung zeigt eine starke Abhängigkeit von der Fermi-Oberfläche des Substrats. Im folgenden Kapitel werden deshalb mit TMO-Ketten auf Pt(001) die strukturellen und magnetischen Eigenschaften auf einem weiteren Substrat analysiert, wobei zum Zeitpunkt der Arbeit nur die Existenz der CoO2-Ketten aus der Literatur bekannt war. Vergleichbar mit Ir(001) besitzt auch Pt(001) eine rekonstruierte Oberfläche, die sich aber stabil gegenüber Oxidation zeigt. Dadurch muss die drittel ML des Übergangsmetalls direkt auf die Rekonstruktion aufgedampft werden. Das Wachstum des Übergangsmetalls ist dabei von der Temperatur des Substrats abhängig und beeinflusst
das Ergebnis der nachfolgenden Oxidation. Diese erfolgt analog zum Wachstum der Ketten auf Ir(001) durch das Heizen der Probe in Sauerstoffatmosphäre und resultiert nur für das Aufdampfen des Übergangsmetalls auf kalte Pt(001) Oberflächen in Ketten mit der Periode von 3aPt. Auf diese Weise kann nicht nur die (3 × 1) Struktur der CoO2-Ketten bestätigt werden, sondern auch durch atomare Auflösung die Gruppe der TMO-Ketten um MnO2-Ketten auf Pt(001) erweitert werden. Im Gegensatz dazu sind die nicht magnetischen Messungen im Fall von Fe nicht eindeutig. Zwar liegen
auch hier Ketten im Abstand des dreifachen Pt Gittervektors vor, trotzdem ist die (3 × 1) Struktur nicht nachweisbar. Dies liegt an einer Korrugation mit einer Periode von 2aPt entlang der Ketten, was ein Hinweis auf eine Peierls Instabilität sein kann.
Entsprechend dem Vorgehen für Ir(001) werden für die TMO-Ketten auf Pt(001) SP-STM Messungen durchgeführt und die Vorhersage einer AFM-Kopplung für CoO2-Ketten überprüft. Auch hier können, wie im Fall von CoO2-Ketten und im Widerspruch zur Vorhersage, für beide Polarisationsrichtungen der Spitze keine magnetischen Strukturen gefunden werden. Darüber hinaus verhalten sich die MnO2-Ketten auf Pt(001) mit ihrer chiralen magnetischen Struktur ähnlich zu denen auf Ir(001). Dies bestätigt die Annahme einer indirekten DM-Wechselwirkung, wobei durch die 72° Rotation der Mn-Spins eine längere Periode der zykloidalen Spinspirale festgestellt wird. Die Erklärung dafür liegt in der Abhängigkeit der RKKY-Wechselwirkung vom Fermi-Wellenvektor des Substrats, während sich die DM-Wechselwirkung beim Übergang von Ir zu Pt nur wenig ändert.
Ongoing changes in spaceflight – continuing miniaturization, declining costs of rocket launches and satellite components, and improved satellite computing and control capabilities – are advancing Satellite Formation Flying (SFF) as a research and application area. SFF enables new applications that cannot be realized (or cannot be realized at a reasonable cost) with conventional single-satellite missions. In particular, distributed Earth observation applications such as photogrammetry and tomography or distributed space telescopes require precisely placed and controlled satellites in orbit.
Several enabling technologies are required for SFF, such as inter-satellite communication, precise attitude control, and in-orbit maneuverability. However, one of the most important requirements is a reliable distributed Guidance, Navigation and Control (GNC) strategy. This work addresses the issue of distributed GNC for SFF in 3D with a focus on Continuous Low-Thrust (CLT) propulsion satellites (e.g., with electric thrusters) and concentrates on circular low Earth orbits. However, the focus of this work is not only on control theory, but control is considered as part of the system engineering process of typical small satellite missions. Thus, common sensor and actuator systems are analyzed to derive their characteristics and their impacts on formation control. This serves as the basis for the design, implementation, and evaluation of the following control approaches: First, a Model Predictive Control (MPC) method with specific adaptations to SFF and its requirements and constraints; second, a distributed robust controller that combines consensus methods for distributed system control and $H_{\infty}$ robust control; and finally, a controller that uses plant inversion for control and combines it with a reference governor to steer the controller to the target on an optimal trajectory considering several constraints. The developed controllers are validated and compared based on extensive software simulations. Realistic 3D formation flight scenarios were taken from the Networked Pico-Satellite Distributed System Control (NetSat) cubesat formation flight mission. The three compared methods show different advantages and disadvantages in the different application scenarios. The distributed robust consensus-based controller for example lacks the ability to limit the maximum thrust, so it is not suitable for satellites with CLT. But both the MPC-based approach and the plant inversionbased controller are suitable for CLT SFF applications, while showing again distinct advantages and disadvantages in different scenarios.
The scientific contribution of this work may be summarized as the creation of novel and specific control approaches for the class of CLT SFF applications, which is still lacking methods withstanding the application in real space missions, as well as the scientific evaluation and comparison of the developed methods.
Development, Simulation and Evaluation of Mobile Wireless Networks in Industrial Applications
(2023)
Manyindustrialautomationsolutionsusewirelesscommunicationandrelyontheavail-
ability and quality of the wireless channel. At the same time the wireless medium is
highly congested and guaranteeing the availability of wireless channels is becoming
increasingly difficult. In this work we show, that ad-hoc networking solutions can be
used to provide new communication channels and improve the performance of mobile
automation systems. These ad-hoc networking solutions describe different communi-
cation strategies, but avoid relying on network infrastructure by utilizing the Peer-to-
Peer (P2P) channel between communicating entities.
This work is a step towards the effective implementation of low-range communication
technologies(e.g. VisibleLightCommunication(VLC), radarcommunication, mmWave
communication) to the industrial application. Implementing infrastructure networks
with these technologies is unrealistic, since the low communication range would neces-
sitate a high number of Access Points (APs) to yield full coverage. However, ad-hoc
networks do not require any network infrastructure. In this work different ad-hoc net-
working solutions for the industrial use case are presented and tools and models for
their examination are proposed.
The main use case investigated in this work are Automated Guided Vehicles (AGVs)
for industrial applications. These mobile devices drive throughout the factory trans-
porting crates, goods or tools or assisting workers. In most implementations they must
exchange data with a Central Control Unit (CCU) and between one another. Predicting
if a certain communication technology is suitable for an application is very challenging
since the applications and the resulting requirements are very heterogeneous.
The proposed models and simulation tools enable the simulation of the complex inter-
action of mobile robotic clients and a wireless communication network. The goal is to
predict the characteristics of a networked AGV fleet.
Theproposedtoolswereusedtoimplement, testandexaminedifferentad-hocnetwork-
ing solutions for industrial applications using AGVs. These communication solutions
handle time-critical and delay-tolerant communication. Additionally a control method
for the AGVs is proposed, which optimizes the communication and in turn increases the
transport performance of the AGV fleet. Therefore, this work provides not only tools
for the further research of industrial ad-hoc system, but also first implementations of
ad-hoc systems which address many of the most pressing issues in industrial applica-
tions.
Coherent Multidimensional Spectroscopy in Molecular Beams and Liquids Using Incoherent Observables
(2018)
The aim of the present work was to implement an experimental approach that enables coherent two-dimensional (2D) electronic spectroscopy of samples in various states of matter. For samples in the liquid phase, a setup was realized that utilizes the sample fluorescence for the acquisition of 2D spectra. Whereas the liquid-phase approach has been established before, coherent 2D spectroscopy on gaseous samples in a molecular beam as developed in this work is in fact a new method. It employs for the first time cations in a time-of-flight mass spectrometer for signal detection and was used to obtain the first ion-selective 2D spectra of a molecular-beam sample. Additionally, a new acquisition concept was developed in this thesis that significantly decreases measurement times in 2D spectroscopy using optimized sparse sampling and a compressed-sensing reconstruction algorithm.
Characteristic for the variant of 2D spectroscopy presented in this work is the usage of a phase-coherent sequence of four laser pulses in a fully collinear geometry for sample excitation. The pulse sequence was generated by a custom-designed pulse shaper that is capable of rapid scanning by changing the pulse parameters such as time delays and phases with the repetition rate of the laser. The sample's response was detected by monitoring incoherent observables that arise from the final-state population, for instance fluorescence or cations. Phase cycling, i.e., signal acquisition with different combinations of the relative phases of the excitation pulses, was applied to extract nonlinear signal contributions from the full signal during data analysis.
Liquid-phase 2D fluorescence spectroscopy was established with the laser dye cresyl violet as a sample molecule, confirming coherent oscillations previously observed in literature that are originating from vibronic coherences in specific regions of the 2D spectrum.
The data set of this experiment was used subsequently to introduce optimized sparse sampling in 2D spectroscopy. An optimization algorithm was implemented in order to find the best sampling pattern while taking only one quarter of the regular time-domain sampling points, thereby reducing the acquisition time by a factor of four. Signal recovery was based on a new and compact representation of 2D spectra using the von Neumann basis, which required about six times less coefficients than the Fourier basis to retain the relevant information. Successful reconstruction was shown by recovering the coherent oscillations in cresyl violet from a reduced data set.
Finally, molecular-beam coherent 2D spectroscopy was introduced with an investigation of ionization pathways in highly-excited nitrogen dioxide, revealing transitions to discrete auto-ionizing states as the dominant contribution to the ion signal. Furthermore, the advantage of the time-of-flight approach to obtain reactant and product 2D spectra simultaneously enabled the observation of distinct differences in the multiphoton-ionization response functions of the nitrogen dioxide cation and the nitrogen oxide ionic fragment.
The developed experimental techniques of this work will facilitate fast acquisition of 2D spectra for samples in various states of matter and permit reliable direct comparison of results. Therefore, they pave the way to study the properties of quantum coherences during photophysical processes or photochemical reactions in different environments.
It is the aim of this thesis to present a visual body weight estimation, which is suitable for medical applications. A typical scenario where the estimation of the body weight is essential, is the emergency treatment of stroke patients: In case of an ischemic stroke, the patient has to receive a body weight adapted drug, to solve a blood clot in a vessel. The accuracy of the estimated weight influences the outcome of the therapy directly. However, the treatment has to start as early as possible after the arrival at a trauma room, to provide sufficient treatment. Weighing a patient takes time, and the patient has to be moved. Furthermore, patients are often not able to communicate a value for their body weight due to their stroke symptoms. Therefore, it is state of the art that physicians guess the body weight. A patient receiving a too low dose has an increased risk that the blood clot does not dissolve and brain tissue is permanently damaged. Today, about one-third gets an insufficient dosage. In contrast to that, an overdose can cause bleedings and further complications. Physicians are aware of this issue, but a reliable alternative is missing.
The thesis presents state-of-the-art principles and devices for the measurement and estimation of body weight in the context of medical applications. While scales are common and available at a hospital, the process of weighing takes too long and can hardly be integrated into the process of stroke treatment. Sensor systems and algorithms are presented in the section for related work and provide an overview of different approaches.
The here presented system -- called Libra3D -- consists of a computer installed in a real trauma room, as well as visual sensors integrated into the ceiling. For the estimation of the body weight, the patient is on a stretcher which is placed in the field of view of the sensors. The three sensors -- two RGB-D and a thermal camera -- are calibrated intrinsically and extrinsically. Also, algorithms for sensor fusion are presented to align the data from all sensors which is the base for a reliable segmentation of the patient.
A combination of state-of-the-art image and point cloud algorithms is used to localize the patient on the stretcher. The challenges in the scenario with the patient on the bed is the dynamic environment, including other people or medical devices in the field of view.
After the successful segmentation, a set of hand-crafted features is extracted from the patient's point cloud. These features rely on geometric and statistical values and provide a robust input to a subsequent machine learning approach. The final estimation is done with a previously trained artificial neural network.
The experiment section offers different configurations of the previously extracted feature vector. Additionally, the here presented approach is compared to state-of-the-art methods; the patient's own assessment, the physician's guess, and an anthropometric estimation. Besides the patient's own estimation, Libra3D outperforms all state-of-the-art estimation methods: 95 percent of all patients are estimated with a relative error of less than 10 percent to ground truth body weight. It takes only a minimal amount of time for the measurement, and the approach can easily be integrated into the treatment of stroke patients, while physicians are not hindered.
Furthermore, the section for experiments demonstrates two additional applications: The extracted features can also be used to estimate the body weight of people standing, or even walking in front of a 3D camera. Also, it is possible to determine or classify the BMI of a subject on a stretcher. A potential application for this approach is the reduction of the radiation dose of patients being exposed to X-rays during a CT examination.
During the time of this thesis, several data sets were recorded. These data sets contain the ground truth body weight, as well as the data from the sensors. They are available for the collaboration in the field of body weight estimation for medical applications.
Ziel dieser Arbeit ist es, die quantitative MRT in den Fokus zu rücken. In den letzten Jahren hat sich auf diesem Forschungsgebiet viel weiterentwickelt und es wurden verschiedenste Sequenzen und Methoden vorgestellt, um insbesondere Relaxationszeitparameter quantitativ in kurzer Zeit zu messen. Steady-State-Sequenzen eignen sich besonders für diese Thematik, da sie kurze Messzeiten benötigen und darüber hinaus ein relativ hohes SNR besitzen. Speziell die IR TrueFISP-Sequenz bietet für die Parameterquantifizierung viel Potential. Ursprünglich wurde diese Sequenz an der Universität Würzburg zur simultanen Messung von T1- und T2-Relaxationszeiten vorgestellt und hinsichtlich der Zeiteffizienz weiterentwickelt. In dieser Arbeit wurde ein neuartiger iterativer Rekonstruktionsansatz für die IR TrueFISP-Sequenz entwickelt, der auf einer Hauptkomponentenanalyse (PCA) basiert und sich die glatten Signalverläufe zu Nutze macht. Aufgrund der hohen Zeitauflösung dieser Rekonstruktionstechnik werden dabei auch Gewebekomponenten mit kurzen Relaxationszeiten detektierbar. Weiterhin bewahrt der Rekonstruktionsansatz Informationen mehrerer Gewebekomponenten innerhalb eines Voxels und ermöglicht damit eine relaxographische Untersuchung. Insbesondere beim Menschen führen der Partialvolumeneffekt und die Mikrostruktur des Gewebes zu Signalverläufen, die ein multi-exponentielles Signal liefern. Die MR-Relaxographie, also die Darstellung von Relaxationszeitverteilungen innerhalb eines Voxels, stellt eine Möglichkeit dar, um die beteiligten Gewebekomponenten aus dem überlagerten Signalverlauf zu extrahieren. Insgesamt bilden die optimierte Relaxometrie mit der Möglichkeit der analytischen Korrektur von Magnetfeldinhomogenitäten und die beschleunigte Relaxographie die Hauptteile dieser Dissertation. Die Hauptkapitel werden im Folgenden noch einmal gesondert zusammengefasst.
Die simultane Aufnahme der quantitativen T1- und T2-Parameter-Karten kann mit einem
Goldenen-Winkel-basiertem radialen IR TrueFISP-Readout in ungefähr 7 Sekunden pro
Schicht erreicht werden. Die bisherige Rekonstruktionstechnik mit dem KWIC-Filter ist
durch dessen breite Filter-Bandbreite und somit in der zeitlichen Auflösung limitiert. Besonders bei hohen räumlichen Frequenzen wird eine sehr große Anzahl an Projektionen
zusammengefasst um ein Bild zu generieren. Dies sorgt dafür, dass Gewebekomponenten mit kurzer T1*-Relaxationszeit (z.B. Fett oder Myelin) nicht akkurat aufgelöst werden können. Um dieses Problem zu umgehen, wurde die T1* shuffling-Rekonstruktion entwickelt, die auf dem T2 Shuffling-Ansatz basiert. Diese Rekonstruktionstechnik macht sich die glatten Signalverläufe der IR TrueFISP-Sequenz zu Nutze und ermöglicht die Anwendung einer PCA. Die iterative Rekonstruktion sorgt dafür, dass mit nur acht kombinierten Projektionen pro generiertem Bild eine merklich verbesserte temporäre Auflösung erzielt werden kann. Ein Nachteil ist jedoch das stärkere Rauschen in den ersten Bildern der Zeitserie bedingt durch die angewandte PCA. Dieses verstärkte Rauschen äußert sich in den leicht erhöhten Standardabweichungen in den berechneten Parameter-Karten. Jedoch ist der Mittelwert näher an den Referenzwerten im Vergleich zu den Ergebnissen mit dem KWIC-Filter. Letztendlich kann man sagen, dass die Ergebnisse leicht verrauschter, aber exakter sind.
Mittels zusätzlichen Regularisierungstechniken oder Vorwissen bezüglich des Rauschlevels
wäre es zudem noch möglich, das SNR der ersten Bilder zu verbessern, um dadurch den
beschriebenen Effekt zu verringern.
Grundsätzlich hängt die Genauigkeit von IR TrueFISP vom T1/T2-Verhältnis des betreffenden
Gewebes und dem gewählten Flipwinkel ab. In dieser Arbeit wurde der Flipwinkel besonders für weiße und graue Masse im menschlichen Gehirn optimiert. Mit den verwendeten 35° wurde er außerdem etwas kleiner gewählt, um zudem Magnetisierungstransfereffekte zu minimieren. Mit diesen Einstellungen ist die Präzision vor allem für hohe T1- und niedrige T2-Werte sehr gut, wird jedoch insbesondere für höhere T2-Werte schlechter. Dies ist aber ein generelles Problem der IR TrueFISP-Sequenz und hängt nicht mit der entwickelten Rekonstruktionsmethode zusammen. Außerdem wurde im fünften Kapitel eine
Akquisitionstechnik vorgestellt, die eine 3D-Abdeckung der quantitativen Messungen des Gehirns in klinisch akzeptabler Zeit von unter 10 Minuten erzielt. Dies wird durch Einsatz der parallelen Bildgebung erreicht, da eine Kombination aus radialer Abtastung in der Schicht und kartesischer Aufnahme in Schichtrichtung (Stack-of-Stars) vorliegt.
Ein großes Problem in der Steady-State-Sequenz (und somit auch bei IR TrueFISP) sind
Magnetfeldinhomogenitäten, die durch Suszeptibilitätsunterschiede verschiedener Gewebe und/oder Inhomogenitäten des Hauptmagnetfeldes hervorgerufen werden. Diese führen zu Signalauslöschungen und damit verbunden zu den beschriebenen Banding-Artefakten. Mithilfe der analytisch ermittelten Korrekturformeln ist es nun möglich, die berechneten (T1,T2)-Wertepaare unter Berücksichtigung der tatsächlich auftretenden Off- Resonanzfrequenz für einen großen Bereich zu korrigieren. An den kritischen Stellen, an denen die Bandings auftreten, liefert jedoch auch diese Korrektur keine brauchbaren Ergebnisse. Grundsätzlich ist es für die Genauigkeit der Ergebnisse stets zu empfehlen, die Flipwinkel- und B0-Karte zusätzlich mit aufzunehmen, um diese Parameter für die quantitative Auswertung exakt zu kennen. Mit den beschriebenen Methoden aus Kapitel 6 könnte es prinzipiell auch möglich sein, die Off-Resonanzfrequenz aus dem Signalverlauf zu ermitteln und auf die zusätzliche Messung der B0-Karte zu verzichten. B0-Änderungen während der Messung, die von der Erwärmung der passiven Shim-Elemente im MR-System hervorgerufen werden, sind kaum zu korrigieren. Ein stabiler Scanner ohne B0-Drift ist deshalb für quantitative Auswertungen erforderlich.
Die erwähnte Messzeit von 7 Sekunden pro Schicht garantiert, dass auch Gewebe mit längeren Relaxationskomponenten annähernd im Steady-State sind, was wiederum für das Umkehren des Signals in den abklingenden Verlauf gegen Null und die anschließende
Multikomponentenanalyse (vgl. Kapitel 7) notwendig ist. Mit der inversen Laplace-
Transformation ist es innerhalb eines Voxels möglich, Signalverläufe auf mehrere Komponenten hin zu untersuchen. Der ursprünglich angenommene mono-exponentielle Verlauf wird durch ein multi-exponentielles Verhalten abgelöst, was vor allem in biologischem Gewebe eher der Wahrheit entspricht. Gewebe mit kurzen Relaxationskomponenten (T1* < 200 ms) sind klinisch relevant und mit T1* shuffling detektierbar. Vor allem Myelin innerhalb des Gehirns ist bei neurologischen Fragestellungen ein Indikator zur Diagnose im Frühstadium (z.B. für neurodegenerative Erkrankungen) und
deshalb von besonderem Interesse. Die Integration über verschiedene T1*-Zeitbereiche im
T1*-Spektrum ermöglicht dazu die Erstellung von Gewebekomponenten-Karten, mithilfe
derer klinische Auswertungen sinnvoll wären. Die Erstellung dieser Karten ist prinzipiell
möglich und funktioniert für mittlere und lange Gewebekomponenten recht gut. Die
klinisch relevanten kurzen Gewebekomponenten sind dagegen bei der radialen Aufnahme
mit nur einem Schuss noch nicht befriedigend. Deshalb wurde die Aufnahmetechnik in
eine quasi-zufällige kartesische Akquisition mit mehreren Schüssen weiterentwickelt. Die Ergebnisse wurden in Kapitel 7 vorgestellt und sind vielversprechend. Einzig die Messzeit sollte mit zusätzlichen Beschleunigungen noch weiter verkürzt und auf eine kartesische 3D-Akquisition erweitert werden.
Die Beschränkung auf T1*-Spektren bei der Multikomponentenanalyse und die Tatsache, dass deren Amplitude von einer Kombination von S0 und Sstst abhängen, führen dazu, dass es nicht ohne Weiteres möglich ist für einen einzelnen Gewebetyp an die T1- und T2-Information zu gelangen. In Kapitel 8 wurde gezeigt, dass dies mit einer zusätzlichen
Messung gelingen kann. Das finale Ergebnis dieser Messungen ohne und mit Inversion sind zweidimensionale Spektren, bei der für jede Gewebekomponente innerhalb eines Voxels der T1- und T2-Wert abgelesen werden kann. Wichtig hierbei ist die Tatsache, dass der verwendete Ansatz kein Vorwissen über die Anzahl der zu erwartenden Gewebekomponenten (Peaks) im Voxel voraussetzt. Auch bei dieser Methodik ist die Kenntnis über den tatsächlichen Flipwinkel von Bedeutung, da dieser in den Formeln zur Berechnung von T1 und T2 verwendet wird. Die Stabilität des B0-Feldes ist hier ebenso von enormer Bedeutung, da Änderungen zwischen den beiden Messungen zu einem unterschiedlichen Steady-State und somit zu Abweichungen bei den nachfolgenden Berechnungen führen, die auf den selben Steady-State-Wert ausgelegt sind.
Zusammenfassend lässt sich sagen, dass mit dieser Arbeit die Grundlagen für genauere
und robustere quantitative Messungen mittels Steady-State-Sequenzen gelegt wurden. Es
wurde gezeigt, dass sich Relaxationszeitspektren für jedes einzelne Voxel generieren lassen.
Dadurch ist eine verbesserte Auswertung möglich, um genauere Aussagen über die Zusammensetzung einer Probe (vor allem beim menschlichen Gewebe) treffen zu können. Zudem wurde die Theorie für ultraschnelle 2D-Relaxographie-Messungen vorgestellt. Erste”Proof of Principle“-Experimente zeigen, dass es möglich ist, 2D-Relaxationszeitspektren in sehr kurzer Zeit zu messen und graphisch darzustellen. Diese Aufnahme- und Datenverarbeitungstechnik ist in dieser Form einmalig und in der Literatur kann bis dato keine schnellere Methode gefunden werden.
Metallic nano-optical systems allow to confine and guide light at the nanoscale,
a fascinating ability which has motivated a wide range of fundamental as well
as applied research over the last two decades. While optical antennas provide
a link between visible radiation and localized energy, plasmonic waveguides
route light in predefined pathways. So far, however, most experimental demonstrations
are limited to purely optical excitations, i.e. isolated structures are
illuminated by external lasers. Driving such systems electrically and generating
light at the nanoscale, would greatly reduce the device footprint and pave the
road for integrated optical nanocircuitry. Yet, the light emission mechanism as
well as connecting delicate nanostructures to external electrodes pose key challenges
and require sophisticated fabrication techniques. This work presents various
electrically connected nano-optical systems and outlines a comprehensive
production line, thus significantly advancing the state of the art. Importantly,
the electrical connection is not just used to generate light, but also offers new
strategies for device assembly. In a first example, nanoelectrodes are selectively
functionalized with self-assembled monolayers by charging a specific electrode.
This allows to tailor the surface properties of nanoscale objects, introducing an
additional degree of freedom to the development of metal-organic nanodevices.
In addition, the electrical connection enables the bottom-up fabrication of tunnel
junctions by feedback-controlled dielectrophoresis. The resulting tunnel barriers
are then used to generate light in different nano-optical systems via inelastic
electron tunneling. Two structures are discussed in particular: optical Yagi-Uda
antennas and plasmonic waveguides. Their refined geometries, accurately fabricated
via focused ion beam milling of single-crystalline gold platelets, determine
the properties of the emitted light. It is shown experimentally, that Yagi-Uda
antennas radiate light in a specific direction with unprecedented directionality,
while plasmonic waveguides allow to switch between the excitation of two
propagating modes with orthogonal near-field symmetry. The presented devices
nicely demonstrate the potential of electrically connected nano-optical systems,
and the fabrication scheme including dielectrophoresis as well as site-selective
functionalization will inspire more research in the field of nano-optoelectronics.
In this context, different future experiments are discussed, ranging from the
control of molecular machinery to optical antenna communication.
In order to shrink the size of semiconductor devices and improve their
efficiency at the same time, silicon-based semiconductor devices have
been engineered, until the material almost reaches its performance
limits. As the candidate to be used next in semiconducting devices,
single-wall carbon nanotubes show a great potential due to their
promise of increased device efficiency and their high charge carrier
mobilities in the nanometer size active areas. However, there are
material based problems to overcome in order to imply SWNTs in the
semiconductor devices. SWNTs tend to aggregate in bundles and it is
not trivial to obtain an electronically or chirally homogeneous SWNT
dispersion and when it is done, a homogeneous thin film needs to be
produced with a technique that is practical, easy and scalable. This
work was aimed to solve both of these problems.
In the first part of this study, six different polymers, containing
fluorene or carbazole as the rigid part and bipyridine, bithiophene or
biphenyl as the accompanying copolymer unit, were used to selectively
disperse semiconducting SWNTs. With the data obtained from
absorption and photoluminescence spectroscopy of the corresponding
dispersions, it was found out that the rigid part of the copolymer plays a
primary role in determining its dispersion efficiency and electronic
sorting ability. Within the two tested units, carbazole has a higher π
electron density. Due to increased π−π interactions, carbazole
containing copolymers have higher dispersion efficiency. However, the
electronic sorting ability of fluorene containing polymers is superior.
Chiral selection of the polymers in the dispersion is not directly
foreseeable from the selection of backbone units. At the end, obtaining a monochiral dispersion is found to be highly dependent on the used raw
material in combination to the preferred polymer.
Next, one of the best performing polymers due to high chirality
enrichment and electronic sorting ability was chosen in order to
disperse SWNTs. Thin films of varying thickness between 18 ± 5 to
755o±o5 nm were prepared using vacuum filtration wet transfer method
in order to analyze them optically and electronically.
The scalability and efficiency of the integrated thin film production
method were shown using optical, topographical and electronic
measurements. The relative photoluminescence quantum yield of the
radiative decay from the SWNT thin films was found to be constant for
the thickness scale. Constant roughness on the film surface and linearly
increasing concentration of SWNTs were also supporting the scalability
of this thin film production method. Electronic measurements on bottom
gate top contact transistors have shown an increasing charge carrier
mobility for linear and saturation regimes. This was caused by the
missing normalization of the mobility for the thickness of the active
layer. This emphasizes the importance of considering this dimension for
comparison of different field effect transistor mobilities.
The aim of this thesis was the preparation of a biomaterial ink for the fabrication of chemically crosslinked hydrogel scaffolds with low micron sized features using melt electrowriting (MEW). By developing a functional polymeric material based on 2-alkyl-2-oxazine (Ozi) and 2-alkyl-2-oxazoline (Ox) homo- and copolymers in combination with Diels-Alder (DA)-based dynamic covalent chemistry, it was possible to achieve this goal. This marks an important step for the additive manufacturing technique melt electrowriting (MEW), as soft and hydrophilic structures become available for the first time. The use of dynamic covalent chemistry is a very elegant and efficient method for consolidating covalent crosslinking with melt processing. It was shown that the high chemical versatility of the Ox and Ozi chemistry offers great potential to control the processing parameters. The established platform offers straight forward potential for modification with biological cues and fluorescent markers. This is essential for advanced biological applications. The physical properties of the material are readily controlled and the potential for 4D-printing was highlighted as well. The developed hydrogel architectures are excellent candidates for 3D cell culture applications. In particular, the low internal strength of some of the scaffolds in combination with the tendency of such constructs to collapse into thin strings could be interesting for the cultivation of muscle or nerve cells. In this context it was also possible to show that MEW printed hydrogel scaffolds can withstand the aspiration and ejection through a cannula. This allows the application as scaffolds for the minimally invasive delivery of implants or functional tissue equivalent structures to various locations in the human body.
Verschiedene Konzepte der Röntgenmikroskopie haben sich mittlerweile im Labor etabliert und ermöglichen heute aufschlussreiche Einblicke in eine Vielzahl von Probensystemen. Der „Labormaßstab“ bezieht sich dabei auf Analysemethoden, die in Form von einem eigenständigen Gerät betrieben werden können. Insbesondere sind sie unabhängig von der Strahlerzeugung an einer Synchrotron-Großforschungseinrichtung und einem sonst kilometergroßen Elektronen-speicherring. Viele der technischen Innovationen im Labor sind dabei ein Transfer der am Synchrotron entwickelten Techniken. Andere wiederum basieren auf der konsequenten Weiterentwicklung etablierter Konzepte. Die Auflösung allein ist dabei nicht entscheidend für die spezifische Eignung eines Mikroskopiesystems im Ganzen. Ebenfalls sollte das zur Abbildung eingesetzte Energiespektrum auf das Probensystem abgestimmt sein. Zudem muss eine Tomographieanalage zusätzlich in der Lage sein, die Abbildungsleistung bei 3D-Aufnahmen zu konservieren.
Nach einem Überblick über verschiedene Techniken der Röntgenmikroskopie konzentriert sich die vorliegende Arbeit auf quellbasierte Nano-CT in Projektionsvergrößerung als vielversprechende Technologie zur Materialanalyse. Hier können höhere Photonenenergien als bei konkurrierenden Ansätzen genutzt werden, wie sie von stärker absorbierenden Proben, z. B. mit einem hohen Anteil von Metallen, zur Untersuchung benötigt werden. Das bei einem ansonsten idealen CT-Gerät auflösungs- und leistungsbegrenzende Bauteil ist die verwendete Röntgen-quelle. Durch konstruktive Innovationen sind hier die größten Leistungssprünge zu erwarten. In diesem Zuge wird erörtert, ob die Brillanz ein geeignetes Maß ist, um die Leistungsfähigkeit von Röntgenquellen zu evaluieren, welchen Schwierigkeiten die praktische Messung unterliegt und wie das die Vergleichbarkeit der Werte beeinflusst. Anhand von Monte-Carlo-Simulationen wird gezeigt, wie die Brillanz verschiedener Konstruktionen an Röntgenquellen theoretisch bestimmt und miteinander verglichen werden kann. Dies wird am Beispiel von drei modernen Konzepten von Röntgenquellen demonstriert, welche zur Mikroskopie eingesetzt werden können. Im Weiteren beschäftigt sich diese Arbeit mit den Grenzen der Leistungsfähigkeit von Transmissionsröntgenquellen. Anhand der verzahnten Simulation einer Nanofokus-Röntgenquelle auf Basis von Monte-Carlo und FEM-Methoden wird untersucht, ob etablierte Literatur¬modelle auf die modernen Quell-konstruktionen noch anwendbar sind. Aus den Simulationen wird dann ein neuer Weg abgeleitet, wie die Leistungsgrenzen für Nanofokus-Röntgenquellen bestimmt werden können und welchen Vorteil moderne strukturierte Targets dabei bieten.
Schließlich wird die Konstruktion eines neuen Nano-CT-Gerätes im Labor-maßstab auf Basis der zuvor theoretisch besprochenen Nanofokus-Röntgenquelle und Projektionsvergrößerung gezeigt, sowie auf ihre Leistungsfähigkeit validiert. Es ist spezifisch darauf konzipiert, hochauflösende Messungen an Materialsystemen in 3D zu ermöglichen, welche mit bisherigen Methoden limitiert durch mangelnde Auflösung oder Energie nicht umsetzbar waren. Daher wird die praktische Leistung des Gerätes an realen Proben und Fragestellungen aus der Material¬wissenschaft und Halbleiterprüfung validiert. Speziell die gezeigten Messungen von Fehlern in Mikrochips aus dem Automobilbereich waren in dieser Art zuvor nicht möglich.